企業が保有する機密性の高いビジネスデータやプライバシー保護されているはずの情報を、従業員が勝手にChatGPTなどの大規模言語モデル(LLM)に入力しているケースが多数検出されていると、データセキュリティサービスのCyberhavenが指摘しています。
3.1% of workers have pasted confidential company data into ChatGPT – Cyberhaven
https://www.cyberhaven.com/blog/4-2-of-workers-have-pasted-company-data-into-chatgpt/
Employees Are Feeding Sensitive Business Data to ChatGPT
https://www.darkreading.com/risk/employees-feeding-sensitive-business-data-chatgpt-raising-security-fears
ChatGPTが登場して以来、世界中で多くの人々がこのチャットAIを利用しており、エッセイを作成したり、詩を作ったりしています。ChatGPTの利用例はこれだけでなく、ビジネスの分野にまで侵食していると、Cyberhavenが指摘しています。
Cyberhavenの製品データによると、2023年3月21日時点で顧客企業の8.2%の従業員がChatGPTを職場で利用しており、6.5%がChatGPTに企業データを入力したことがあるそうです。
一部のナレッジワーカーは、ChatGPTのようなAIツールを利用すると生産性が10倍向上すると語っていますが、JPモルガンやベライゾンなどの企業は機密データの漏えいを危惧し、従業員のChatGPTへのアクセスを禁止しています。
OpenAIはユーザーがChatGPTに入力したデータをAIモデルのトレーニングに使用しています。そのため、ユーザーがChatGPTに開発中のソフトウェアのソースコードや、患者の医療記録などを入力することに対するセキュリティ上の懸念が高まっています。実際、Amazonの弁護士は従業員に対して機密データをChatGPTに入力しないようにと警告しています。
Cyberhavenは従業員が「ChatGPTにデータを入力した」場合、以下のような事態が起こり得ると警告しています。
・ある企業の幹部が2023年のビジネス戦略をまとめた文書の一部を切り取り、ChatGPTに入力してプレゼンテーション用のパワーポイント作成を依頼しました。将来、別のユーザーが「企業の今年の戦略的優先事項は何か?」と入力した場合、ChatGPTが前述のビジネス戦略をベースに回答してしまう可能性があります。
・医師が患者の名前と病状などの詳細を入力し、ChatGPTに患者の利用している保険会社へ送付する手紙の作成を依頼。すると、将来的にChatGPTが別のユーザーに医師が入力した情報をベースに回答を行う可能性が出てきます。
また、ChatGPTでは2023年3月に他人のチャット履歴が見えてしまうバグが発生していました。このようなバグが発生した際、意図しない形で入力した機密情報が漏えいしてしまう可能性があると、Cyberhavenは指摘しています。
ChatGPTで他人のチャット履歴が見えてしまうバグが発生、バグ修正にChatGPTは一時ダウン&チャット履歴は利用不可のまま – GIGAZINE
企業がデータを保護するために利用している従来のセキュリティソフトウェアは、従業員がChatGPTを利用することを考慮して設計されたものではないため、これを防ぐことはできません。JPモルガンは従業員のChatGPT利用を禁止していますが、その前の段階で「何人の従業員がChatGPTを利用しているか」を特定できなかったと報じられています。
セキュリティソフトウェアがChatGPTに送信されるデータを保護することが非常に困難な理由を、Cyberhavenは以下の通りに挙げています。
1:ファイルまたはアプリからのコピー&ペースト
従業員が企業のデータをChatGPTに入力する時、ファイルをアップロードするのではなく、コンテンツをコピーしてウェブブラウザに貼り付ける形式で入力されます。多くのセキュリティソフトウェアは、機密タグが付けられているファイルがアップロードされないよう設計されていますが、コンテンツがファイルからコピーされてからは追跡することができません。
2:機密データには認識可能なパターンが含まれていない
ChatGPTに送信される企業データには、セキュリティツールが探す認識可能なパターン(クレジットカード番号や社会保障番号など)が含まれていないケースがよくあります。既存のセキュリティツールは問題のあるコンテキストを認識することができないため、ユーザーがカフェのメニューを入力しているのか、企業の買収計画について入力しているのかを区別することができません。
Cyberhavenは自社製品を利用するクライアント企業で働く約160万人の従業員がChatGPTを利用しているかどうかを分析しました。すると、ナレッジワーカーの8.2%が職場で少なくとも1回以上ChatGPTを利用していたことが明らかになっています。また、顧客企業の従業員の3.1%が機密データをChatGPTに入力していたことも明らかになっています。ChatGPTへのアクセスを完全にブロックする企業は増えていますが、使用量は指数関数的に増えています。
以下のグラフはCyberhaven製品が検出した「職場でChatGPTの利用を検出した回数」を、従業員10万人あたり何回検出したかでまとめたもの。2022年11月30日から2023年3月17日までのデータがまとめられており、ChatGPTに対する利用制限が拡大しているにもかかわらず、利用回数は明らかに増加傾向にあります。なお、グラフの赤線は「ChatGPTにデータを入力した回数」で紫線は「ChatGPTがデータを出力した回数」です。
Cyberhavenによると、「ChatGPTにデータを入力する割合」と「ChatGPTが出力したデータを利用する割合」はほぼ1:2だそうです。ChatGPTにデータを入力するケースのうち、従業員が企業の機密データを入力する割合は11%程度。しかし、ChatGPTの利用量が劇的に増加していることを踏まえると、機密データがChatGPTに入力される量は「かなり膨大」とCyberhavenは指摘しています。
2023年2月26日から3月4日までの1週間で、Cyberhaven製品を利用しているユーザー10万人がChatGPTに機密データを入力した回数は199回、クライアントデータを入力した回数は173回、ソースコードを入力した回数は159回、個人情報を入力した回数は102回、健康関連データを入力した回数は94回、企業のプロジェクト計画に関するデータを入力した回数は57回でした。
Cyberhavenのハワード・ティンCEOは、ChatGPTのようなAIベースのサービスを生産性向上のためのツールとして利用する従業員が増えれば増えるほど、プライバシー情報が漏えいするリスクが増すと指摘。ティンCEOは「データ保存のスタンダードがオンプレミスからクラウドへ移行したことがありました。これに次ぐ大きな変化が、ジェネレーティブAIへのデータ移行になると思います」「それがどのように起こることになるか正確にはわかりませんが、我々はまだ事前段階にあり、以降の開始段階にすらいないと思われます」と語り、今後、より多くのデータがChatGPTのようなジェネレーティブAIに収集されるようになるとしました。
また、法律事務所・Seyfarth ShawのKarla Grossenbacher氏は「アプリケーションをChatGPTに接続するソフトウェア企業が増えるにつれて、LLMはユーザーまたは企業が認識しているよりもはるかに多くの情報を収集する可能性があり、法的リスクにさらされる可能性がある」とBloombergのコラムで言及しています。
この記事のタイトルとURLをコピーする