生成系AIが抱えるプライバシーの懸念–専門家が指摘

CNET Japan

 あなたなら、かかりつけ医や恋人とのプライベートな会話を、知らない人に聞かれてもいいと思うだろうか。聞かれた話の断片を、相手が他の誰かに売っても構わないと思うだろうか。こうした行為は、簡単に言えば、サードパーティーのトラッカーがやっていることだ。トラッカーはオンラインでのユーザーの行動を監視し、その情報を、ユーザーに何かを買ってもらいたい他の誰かに売っている。

キーボードに入力する人間とロボットの手
提供:Bing Image Creator/ZDNET

 OpenAIの「ChatGPT」だけでなく、「Bing」のチャットボットやGoogleの「Bard」といった生成系の人工知能(AI)サービスを利用する人が増えるにつれ、その安全性と倫理性が問題になっている。膨大な数の人がウェブサイトを訪れて質問をしたり、履歴書に添付するカバーレターや論文に使う文章を生成したり、コードの作成ばかりかデバッグまでしている状況の中で、疑問に思わずにいられない。これらのツールに入力されたあらゆる情報はどうなるのか。そして、これにデータブローカーが関与しているとしたら、それはどのような役割なのか。

 広告ブロッカーを手がけるGhosteryの最高経営責任者(CEO)でプライバシーの専門家であるJean-Paul Schmetz氏は、この問題についていくつか言いたいことがあるという。同氏は、生成系AIを利用する際に生じかねないプライバシー上の懸念について米ZDNETのインタビューに応じた。

 幸い、OpenAIはまだChatGPTでサードパーティーのトラッキングを許可していない。Schmetz氏によると、「OpenAIは、それが安全という意味では清々しいほど誠実」であり、「ChatGPTとチャットしている内容を誰ものぞけないようにしている」という。

 「唯一心配しなければならないのは、OpenAIがユーザーのデータを学習に使えることであり、そのため何を書き込もうともすべてOpenAIに使われていることだ」と同氏は付け加えた。このことはOpenAIのプライバシーポリシーに明記されているが、同社のGoogleフォームに入力するだけでデータ共有をオプトアウトするオプションもある。

 オプトアウトしない場合は、「入力する内容に注意する」ようSchmetz氏は助言している。

 Schmetz氏の警告には耳を傾ける価値がある。2021年には、セキュリティ研究者らがトレーニングデータ抽出攻撃に対する「GPT-2」システムの脆弱性を発見した。この脆弱性は、ユーザーが入力するデータから学習するという同モデルの本質的な役割を悪用するものだ。

 「悪意のある者は、ある決まったクエリーを入力することで、ユーザーがそれまでに入力した特定のデータをAIに出力させることができる。こうしたデータには、氏名、住所、電話番号などの個人を特定できる情報に加えて、ターゲットとなったユーザーがシステムに入力したあらゆる情報が含まれる可能性がある」(Schmetz氏)

 この脆弱性が「GPT-4」にも存在するかどうか確かなことは分からないが、無料で使えるGPT-4にはこの脆弱性が残っているとSchmetz氏は指摘している。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

Source

タイトルとURLをコピーしました