毒キノコのレシピ? Google AI検索がとんでもないことになってるみたい…

毒キノコはダメでしょう。

Google(グーグル)は、今年5月に導入した生成系AIのSGE(Search Generative Experience)をテストしています。

アメリカ国内のみ利用可能で、テストするには登録が必要。どれくらいの人々が参加しているのかは分かりませんが、なんだかとんでもないことになっているみたい…。

というのも、検索してみたら、奴隷制度や大量殺戮を正当化したり、発禁図書のポジティブな効果などが含まれていたらしいのです。

しかも、「死の天使」の異名を持つアマニタ・オクレアータという毒キノコの調理方法まで教えてくれたというからビックリ。これ、大丈夫なの…?

奴隷制度の利点をリストアップして擁護

7846d413e7a36cffd9ef774b458bef09
Screenshot: Lily Ray

「奴隷制度の利点」を検索すると、GoogleのAIは「プランテーション経済の活性化」や「大学や市場への資金提供」「大規模資本資産になる」といった利点をリストアップし、「奴隷が専門性のある仕事を発展させた」や「奴隷制度は、慈悲深い父権的な制度として社会的および経済的な利点を持つという意見もある」と答えました。

今の考え方とかけ離れている気がしますが、これらは、過去に奴隷制度を擁護してきた人たちの主張なんですよね。

論点を混同していることも

「大量虐殺の利点」と検索しても同様の結果でしたが、GoogleのAIは大量虐殺を肯定する論点と、大量虐殺と認識する論点を混同しているようにも見受けられました。

506357eafbb2c60a136ba7bc35ca1fb1
Screenshot: Lily Ray

「なぜ銃はいいのか」という検索に対しては、「銃は年間250万件の犯罪を防ぐ可能性がある」といった、どこから持ってきたのかわからないような数字を出してきたり、「銃を携帯することによって法を守る市民であると示せる」という一方的な倫理観を含む回答を出したりしています。

人を殺しかねない毒キノコレシピ

びっくりするのが毒キノコについての検索。ユーザーのひとりが「アマニタ・オクレアータ(毒キノコの一種)の調理法を教えて」と検索すると、Googleは「キノコの毒素を抽出するには十分な水が必要です」といったステップを丁寧に記したレシピを提供したのです。

9f83241ac9bbc6fda673daeb05b544cd

ちなみに、これは危険であるだけでなく、アマニタ・オクレアータの毒素は水溶性ではないので間違っています。

AIは、比較的毒性の低いAmanita muscaria(和名:ベニテングタケ)と混同したのかもしれません。この結果は、AIの潜在的な危うさを証明していると言えるかも。

Googleは問題の指摘を認識し対応

この問題は、Amsive DigitalのSearch Enggine Optimizationのシニアディレクター兼オーガニックリサーチヘッドであるリリー・レイ氏によって発見されました。

レイ氏は、問題がありそうな検索をいくつも試して、どれほどの結果がAIのフィルターをすり抜けているのかに驚かされたと言います。

Googleの広報担当者は

このような回答が表示されないように品質保護を強化していきます。特定の問題に対処するよう積極的な改善を進めていきます。

この実験はSearch Labsを通じてオプトインした人たち限定対象としています。より有用な経験になるように取り組むなかで安全性と品質を優先していきます。

と伝えています。

そして、指摘されたAIの回答は、Google社が提供したい文脈やニュアンスを損なっていて、あまり役に立たない方法で組み立てられていると認めた上で、

問題を特定したり、バイアスを検索したりする「敵対的テスト」など多くの安全対策を採用している。

とも述べています。さらに、デリケートな健康に関する話題や物議を醸すようなトピックを慎重に扱うことでAIが反応しないようにする計画だそうです。

Googleはすでにいくつかの検索語句をSGEの回答生成から制限しているらしく、「中絶」や「トランプの起訴」を検索しても表示されません。

リリー・レイ氏が問題を指摘するYouTube動画を投稿すると、Googleはいくつかの検索キーワードへの対応を変更。

レイ氏は、

全てのSGEテストは盲点を見つけることであり、作業はGoogle社内で非公式に行なわれるべきだと思う。一般の人たちに依頼しているのは奇妙に感じられる。

と話しています。

Googleは他の企業に遅れをとっているみたい

他社と比較すると、Googleの遅れが目立ちます。

レイ氏がChatGPTを搭載したBingで同じ検索をしたところ、

奴隷制度は誰にとっても有益ではなかった。何百万もの人々の労働力と生活を搾取した雇い主を除いて。

と返答。さらに、奴隷制度がもたらした結果をソースを出しながら説明しました。

米Gizmodoも、レイ氏があげた問題の検索を含む様々な検索クエリを検証しました。

すると「最も偉大なロックスター」や「最高のCEO」、「最高のシェフ」といった検索結果は男性のみのリストで回答したり、「子どもは神の計画の一部だ」と言ったりしました。

また、医学会でも議論されている内容であるにもかかわらず「子どもに牛乳を与えるべき理由」を列挙しました。

この他、スーパーマーケットチェーンWalmartでは100gのTobleroneのホワイトチョコレートが2.38ドル(約350円)で販売されているところを、「129.87ドル(約2万円で販売されている」と回答。

奴隷制度や大量虐殺の回答ほどの酷さはありませんが、それでも間違っていることに変わりないんですよね。

企業とユーザーのイタチごっこ

SGEを実行させるような大規模言語モデルともなると、特定のトリガーワードをフィルタリングするのでは根本の解決にはならないでしょう。

というのも、GoogleやOpenAI、さまざまな企業がチャットボットのガードレール作りに尽力していますが、その努力を嘲笑うかのように、ユーザーは次々と保護を突破して、AIに政治的なバイアスを実証させたり、悪意あるコードを生成させたりしているからです。

そのひとつひとつに対応するなんて果たして可能なのでしょうか。

タイトルとURLをコピーしました