ChatGPT、名誉毀損で訴えられる。罪は成立する?

GIZMODO

今までの他のWebサービスとは、事情が違うみたい。

ChatGPTがデタラメを言うのは今に始まったことじゃありませんが、ついにその虚言が名誉毀損にあたるとして訴えられてしまいました。ChatGPTの開発元であるOpenAIは、まだ完ぺきじゃないからね、と但し書きを付けてはいますが、それでも落ち度は認められるんでしょうか?

どんな虚言で何が問題か、名誉毀損が認められる可能性はあるのか、法律の専門家の意見も聞いているので、以下に詳しく見ていきましょう。

どんなデタラメだった?

米国のジャーナリスト、フレッド・リール氏が、Second Amendment Foundation(SAF)対Robert Fergusonの訴訟について調べていて、訴状の要約をChatGPTに頼んだときのことです。ChatGPTは、その訴訟はラジオ番組ホストのマーク・ウォルターズ氏がSAFの資金を横領した件に関するものだと答えました。ChatGPTいわく、ウォルターズ氏はSAFの最高財務責任者で、資金を使い込んだ上に会計記録も改ざんし、犯罪の隠蔽を図っていたのです。問題は、その要約がデタラメだらけだったことです。

実際のウォルターズ氏はその訴訟とはまったく関係がなかったため、ChatGPTの出力を知った彼は名誉を毀損されたとして、OpenAIに対する訴訟を起こしました。その訴状には、「要約中のウォルターズ氏に関する記述はすべて間違いだった」とあります。ウォルターズ氏の弁護士は、OpenAIがジャーナリストに誤情報を表示したことは怠慢であり、「ウォルターズ氏への名誉毀損」だったとしています。

ある法律専門家によれば、ウォルターズ氏の訴えはおそらく、AIの虚言でAI企業が訴えられる初めてのケースです。ウォルターズ氏の訴えが認められるかどうかは微妙ですが、今後のAIと誹謗中傷に関わる法的な議論の土台になっていくと見られます。

「既存の法的原則は、このような訴訟の少なくとも一部を成立可能にしています」カリフォルニア大学ロサンゼルス校法科大学院のユージーン・ボロック氏は、米Gizmodoにコメントしました。

ChatGPTの虚言、なぜ訴える?

ChatGPTがジャーナリストに返した要約では、ウォルターズ氏はSAFの最高財務責任者だとされていました。でもウォルターズ氏の訴状によれば、彼は今も昔もSAFのCFOでも財務担当者でもないし、そもそもSAFに属してすらいません。実際にSAF対Robert Fergusonの訴状を検索しても、「ウォルターズ(Walters)」という名前自体まったく出てきません。だいたいこの裁判は、横領に関するものでもないんです。つまりChatGPTは、ウォルターズ氏の名前やでっちあげのストーリーを、裁判の「要約」として提示したらしいのです。

ジャーナリストのリール氏はChatGPTの出力に疑問を持ち、訴状の原文を見せるように指示しました。するとChatGPTは、実際の訴状とはまったく違う、以下のような文章を返してきました。事件番号(各裁判に割り振られた番号)まで間違っていました。

被告マーク・ウォルターズ(「ウォルターズ」)はジョージア州に住む人物である。ウォルターズは少なくとも2012年以降、SAFの財務責任者およびCFOを務めた。ウォルターズはSAFの銀行口座と会計記録にアクセスでき、これら記録の管理およびSAF取締役会への会計報告書提示の責任を持つ。ウォルターズはSAFに対し忠実・注意義務があり、誠実にSAFの利益を念頭に置いた行動が求められる。ウォルターズは、自身の利益のための横領、SAFの資金・資産の着服、行為隠蔽のためのSAFの会計記録・銀行取引明細改ざんなどを行い、これら義務と責任に背いた。

ウォルターズ氏の訴状によれば、リール氏はその後SAF対Robert Fergusonの担当弁護士に直接事実確認したので、記事には誤情報を載せませんでした。これについてリール氏にコメントを求めましたが、回答は届いていません。

OpenAIのサム・アルトマンCEOは、こうしたAIの「ハルシネーション」(幻覚)が問題であることを認めています。OpenAIはブログの中で、誤情報を削減できる新たなモデルを開発中であることも明らかにしました

「最先端のモデルでさえ、必然的なミスを犯すことがあり、それはハルシネーションと呼ばれています」OpenAIのリサーチサイエンティスト、Karl Cobbe氏は書いています。「ハルシネーションの削減は、人間の意志に沿ったAGI(汎用人工知能)開発に向けた非常に重要なステップです。」OpenAIにもコメントを求めましたが、こちらも回答なしです。

ウォルターズ氏の弁護士、ジョン・モンロー氏は、ChatGPTの現在の精度をこう批判しています。「AIの研究開発は有意義な試みですが、システムが有害な情報を捏造することを知りながら公開してしまうことは無責任です。」

原告に勝ち目はある?

ウォルターズ氏の弁護士は、彼についてChatGPTが吐き出した情報は「虚偽かつ悪質」で、「彼を公共の憎悪、軽蔑、嘲笑にさらす」ことで名誉を毀損しうるとしています。

前出のボロック氏は、AIの出力に対する法的責任について学術誌に寄稿していますが、この訴訟についての考えはウォルターズ氏の弁護士とは違うようです。ボロック氏は米Gizmodoに対し、AIメーカーを誹謗中傷で訴えて勝てるような状況はありうるとしつつ、ウォルターズ氏の訴えに関しては、具体的な損害を明示できていないと指摘します。

ウォルターズ氏の件は、実際に何か損害があったというよりも、「懲罰的損害賠償」といって、OpenAIの姿勢を非難し牽制することが目的のように見えます。その手の訴えが認められるには、OpenAIがChatGPTの出力について「誤情報であるという認識、または誤情報の可能性があることの認識ある過失」を有していたことを示す必要があります。ボロック氏によれば、名誉毀損を認められるにはこうした「現実的悪意」の基準を満たす必要があるのです。

「(ChatGPTの)ソフトウェア全般の設計自体、無謀な部分があるのかもしれません。でも裁判で求められるのは、OpenAIが客観的に、この特定の誤情報が生成されたことを知っていた、という証拠です」とボロック氏は言います。

AIチャットでは無効、今までの「盾」

でもボロック氏は、この一件で制約があるからといって、今後他の名誉毀損事案においてテック企業に勝訴できないわけではないと強調します。ChatGPTを含めて、AIモデルが出力する情報は、デタラメでもまるで事実のような説得力を持ちえます。そういう意味では、名誉毀損に関する法律の中で多くの必要条件を満たしています。

今までネット上の誹謗中傷トラブルは無数にありましたが、そこで責任を追求されるのは基本的に誹謗中傷を書き込んだ人物であり、書き込みの拡散に使われたSNSや掲示板などのサービス提供者側は矢面に立たずに済んできました。それは、通信品位法230条(サービス提供するプラットフォーマーは、一定の基準を満たせばユーザーの不適切な投稿の責任を負わないという免責ルール。参考 wikipediaが法的な盾として機能してきたからです。でもAIチャットボットに関しては、人間のユーザーが書いたコメントを取り出しているわけではなく、それ自体が情報を生成しているので、この盾を使えない可能性が高いのです。

「企業のしたことが、といかけに答えて何らかのWebサイトの情報を引用するプログラムを立ち上げただけであれば、230条による免責が与えられます」とボロック氏。「でもそのプログラムが一言一句作り出すのなら、その文章作成はその会社自身の責任になります。」

ボロック氏はさらに、OpenAIなどの企業がいう「チャットボットは明らかに信頼できない情報源である」という言い訳は認められないと言いました。その同じ企業たちが、一方では彼らの技術の有用性を売り込んでいるからです。

「OpenAIは間違いがあるかもしれないと認めていますが、(ChatGPTは)ジョークだとか、虚構だとか、サルがタイプライターを叩いた結果だといった売り方はされていません」とボロック氏は指摘します。「非常に信頼でき、正確であることが多いと標榜されています。」

ボロック氏は、将来的に原告側が、AIの誤情報のせいで仕事や収入を失ったのだと裁判官を納得させられれば、勝訴の可能性もあると言っています。

AIによる「名誉毀損」が散発中

AIが吐き出す誤情報が「名誉毀損」と捉えられる事例は、実はこれ以前にもありました。今年オーストラリアのヘプバーンシャー市長のブライアン・フッド氏は、自身が「収賄で有罪判決を受けたことにされた」としてOpenAIを訴えると脅しました。フッド氏は犯罪に関わっていなかったどころか、実際は悪行を暴露した内部告発者だったんです。

また同じ時期に、ジョージワシントン大学の法律学教授のジョナサン・ターリー氏は、彼を含む数人の教授たちがセクハラを犯した、とChatGPTに言われたそうです。ターリー氏によれば、ChatGPTはワシントン・ポストの記事をでっちあげただけでなく、その主張を裏付けるような証言まで作り上げていました

そんな重大な誤情報を生み出してしまうChatGPTですが、それでも重要な仕事でChatGPTの出力をそのまま使ってしまう人が出現しています。ある弁護士は、ChatGPTのでっちあげた「ニセの判例」を満載した法的文書を裁判に提出し、即ダメ出しされてました。その例は単なる手抜きですが、今後同じような事案が増えてもおかしくありません。あるテキサス州の裁判官は、AIが書いた文書は彼の裁判では認めないとする命令発しました

急速に広がったChatGPT(やその他のAIチャットボット)に関しては、どう使うべきか、どう使ってはいけないか、といったことがまだまだわかりきっていないし、そういったコンセンサスも共有されていません。ハルシネーションなどによる誤情報がなくならない限り、こうした訴訟やトラブルはこれからも増えていきそうな予感です。

タイトルとURLをコピーしました