こういう事故、もちろん起こると思ってたよね。
Samsung(サムスン)は、少なくとも3つの事例で同社の機密情報をOpenAIのChatGPTに流出させたとして大問題に。
今回判明したその事例というのは、それぞれのサムスン社員がやってしまった以下の3つです。
1)バグがある半導体データベースのソースコードをコピーして修正を依頼
2)機密コードをコピーして欠陥のある機器の修正プログラムを依頼
3)会議音声をチャットボットに投げて、議事録の作成を試みた
この情報漏えいを受けてサムスンは、各社員のChatGPTへのプロンプトを1,024バイトに制限する「緊急措置」を発動しました。
バツが悪いのは、サムスンが従業員に対してChatGPTの利用禁止を解除してからわずか3週間後に、これらの情報漏えいが起きてしまったことですね。現在サムスンは独自の社内AIを開発中です。
OpenAIは入力されたデータをすべて保存
問題は、たとえ社員が即座にPCの電源を切ったとしても、ChatGPTにはクエリが残り続けるということです。
Open AIは、「ChatGPTや他のサービスに投稿されたデータは、AIモデルの改良のために利用することがある」と述べていて、つまりユーザーが明示的にオプトアウトを選択しない限り、Open AIはそのデータを持ち続けることになります。
Open AIは「特定のプロンプトを削除することができない」ため、機密情報を入力しないようにユーザーに警告しています。
サムスンだけではない
サイバーセキュリティ企業のCyberhavenが行った最近の調査では、3.1%の人が1度は会社の機密情報をChatGPTに入力していることが明らかになりました。
従業員10万人レベルの大企業は、週に何百件もOpen AIに機密情報を共有している可能性があると推定しています。
もちろん、大企業も何もしていないわけではなく、この数週間でアマゾンやウォルマートはAIに機密情報を共有することを警告していたり、ベライゾンやJPモルガン・チェースはアクセスを完全にブロックしています。
サムスンに限らず、今後も情報漏えいして大問題になる事例は続きそうですね。
Source:KoreaTimes,Cyberhaven