サムスン、機密情報をChatGPTにリークして大問題に

GIZMODO

こういう事故、もちろん起こると思ってたよね。

Samsung(サムスン)は、少なくとも3つの事例で同社の機密情報をOpenAIのChatGPTに流出させたとして大問題に。

今回判明したその事例というのは、それぞれのサムスン社員がやってしまった以下の3つです。

1)バグがある半導体データベースのソースコードをコピーして修正を依頼

2)機密コードをコピーして欠陥のある機器の修正プログラムを依頼

3)会議音声をチャットボットに投げて、議事録の作成を試みた

この情報漏えいを受けてサムスンは、各社員のChatGPTへのプロンプトを1,024バイトに制限する「緊急措置」を発動しました。

バツが悪いのは、サムスンが従業員に対してChatGPTの利用禁止を解除してからわずか3週間後に、これらの情報漏えいが起きてしまったことですね。現在サムスンは独自の社内AIを開発中です。

OpenAIは入力されたデータをすべて保存

問題は、たとえ社員が即座にPCの電源を切ったとしても、ChatGPTにはクエリが残り続けるということです。

Open AIは、「ChatGPTや他のサービスに投稿されたデータは、AIモデルの改良のために利用することがある」と述べていて、つまりユーザーが明示的にオプトアウトを選択しない限り、Open AIはそのデータを持ち続けることになります。

Open AIは「特定のプロンプトを削除することができない」ため、機密情報を入力しないようにユーザーに警告しています。

サムスンだけではない

サイバーセキュリティ企業のCyberhavenが行った最近の調査では、3.1%の人が1度は会社の機密情報をChatGPTに入力していることが明らかになりました。

従業員10万人レベルの大企業は、週に何百件もOpen AIに機密情報を共有している可能性があると推定しています。

もちろん、大企業も何もしていないわけではなく、この数週間でアマゾンやウォルマートはAIに機密情報を共有することを警告していたり、ベライゾンやJPモルガン・チェースはアクセスを完全にブロックしています。

サムスンに限らず、今後も情報漏えいして大問題になる事例は続きそうですね。

Source:KoreaTimes,Cyberhaven

タイトルとURLをコピーしました