「科学者はなぜ、原子を信頼しないのか? なぜなら、原子はすべてのものを作り上げてしまうからだ」
オープンAI(OpenAI)共同創業者兼プレジデントのグレッグ・ブロックマン氏はこのほど、同社開発によるAI言語モデルの最新版「GPT-4」(Generative Pre-trained Transformer 4)を発表した。GPT-4は深層学習を用いて人間が書いたかのような文を生成する第4世代の自己回帰型言語モデルで、AIチャットボットChatGPTの技術基盤となる。同氏は発表時におこなった製品デモで、ノートに手書きしたメモの画像からウェブサイトを作成してみせた。
このデモで同氏が「面白いジョークを教えてほしい」という命令を入力したところ、GPT-4が導き出した答えが冒頭のジョークだった(言葉遊びにこめられた皮肉は会社側が意図したものではないと思われる)。ジェネレーティブ(生成系)AIの機能はたしかに驚異的かつ魅力的だが、一方で「信頼性」と「でっちあげの可能性」については大きな問題を孕んでいる。
Advertisement
AIがもたらす「幻覚」というリスク
ロンドンのインペリアル・カレッジで教鞭をとるAT/イノベーション専門のデヴィッド・シュライアー教授は、「多くの企業経営者がChatGPTに魅了されている」と語る。このAIチャットボットが、ウェブサイトの構築、ゲームや先駆的医薬品の開発、司法試験の合格答案作成などを瞬時に実行できるというのだから、関心の高まりもうなずける。
そういっためざましい成果は経営者たちの判断力を曇らせる恐れがあると、新興技術関連の著作をもつ未来学者のシュライアー氏は指摘する。ChatGPTを闇雲に崇める企業や個人ユーザーは、「AIが自信満々で間違った回答を出す危険性を無視している」という。この種のツールにひそむ数々の落とし穴に気づかないままChatGPTを我先に導入する企業が直面しうる大きなリスクについて、同氏は警鐘を発しているのだ。
ChatGPT最新版は「大規模言語モデル」をベースにしたAIツールで、オープンAIが3000億ワードを超える単語を入力して性能を強化したものだ。Googleの研究者らは2018年に発表した論文で、ニューラル機械翻訳を例として取り上げ、「原文と乖離(かいり)した異常な翻訳文を生成する恐れ」があるとして、AIがもたらす「幻覚」のような情報の危険性を指摘している。
AIの言語モデルはときに本筋を逸脱して、人間の脳と同様、妄想を生み出す可能性もある。よって、出力された成果物に関しては事実の検証を怠ってはならない。
生成ツールではなく、あくまで生成支援ツール
「AIによる出力結果の『幻覚』を公開前に発見して対処しなければ、企業は読者に虚偽情報を提供することになる。最悪の場合、企業イメージに傷がつく恐れもある」と警告するのは、統合型コミュニケーション専門コンサルタント会社の英マゼンタ・アソシエーツ(Magenta Associates)でデジタルマーケティングコンサルタントを務めるグレッグ・ボルトキエヴィッチ氏だ。
オープンAIはGPT-4の発表と同時に公式ブログに投稿した記事で次のように述べている。「(GPT-4はこれまでのバージョンに比べ)より安全で、人間の価値観と整合性がとれており、事実にもとづいた返答の生成確率が40%向上した」。
安心材料を示した形だが、割り引いて受け止めるべきだろう。オープンAIの共同創業者であるサム・アルトマン氏でさえ、GPT-4の機能について「まだ不備があり、限界がある」と認めているからだ。「GPT-4を初めて使った人は大いに感心するが、それ以降何度も使ううちにその印象が薄れるようだ」とアルトマン氏はいう。
また、ボルトキエヴィッチ氏はこう語っている。「GPT-4は、実在しない幻のような情報や不適切なコンテンツを生成できるが、モデルへの入力が終了した2021年9月以降に起きた事象については何も知らない」。したがって、企業はGPT-4を以前のバージョン同様、「コンテンツ生成ツールでなく、生成支援ツール」ととらえ、人間がしっかり監視しながら利用すべきだというのが同氏の助言だ。
AIは本質的に「明晰さに欠ける」
同様の意見は、英国を拠点とするテクノロジストであるジェームズ・ブライドル氏がガーディアン(The Guardian)のWebサイトに寄稿したエッセイにもみられた。偶然にもGPT-4発表の2日後に公開された「The stupidity of AI」と題するこの記事で同氏は、「AIは本質的に明晰さに欠ける」と主張し、次のように述べている。「AIはインターネット上の情報の大半を読み込み、人間の言語のあるべき姿を学習している。しかし、現実とは何の関わりもない」。
同氏は企業経営者に対する忠告として、ChatGPTなどAI全般を肯定・否定の両面から見る必要を訴え、こうも書いている。「AIが博識で有意義な存在であると信じるのは非常に危険だ。AIは、人間全体の思考の源泉と、思考力そのものを毒するリスクを孕んでいる」。
言い換えれば、手っ取り早くAIに頼って成果をあげようとする考え方は企業の怠慢を助長するおそれがある。利害関係者に知られた場合、ブランドイメージの毀損を招きかねない。
必要なのは研究資金と均衡を保つ仕組み
具体例をあげてみよう。米テネシー州のヴァンダービルト大学事務局は2023年2月、ミシガン州立大学で起きた銃撃事件の数日後、哀悼の意を表したeメールをChatGPTで作成して関係者に送付した。問題のeメールには差出人として職員2人の署名があったが、文末に「ChatGPTからの引用」である旨が小さく記載されていたため事実が発覚した。
大学は翌日、この件について誤った判断だったとして謝罪した。ブライドル氏は今回の哀悼メッセージについて、「多くの人が『道徳的に間違っている、嘘くさい、あるいは薄気味悪い』と感じたはずだ」と述べ、「我々の生活において機械を介在させる作業では、熟慮を必要とする場面が多々ある」と付け加えた。
一方、現実世界のデータを機械学習のトレーニングに用いることで、AIの誤った挙動を引き起こす場合もある。AI技術研究開発専門のスタートアップ企業であるアイリスai(Iris.ai、本社ノルウェー)の共同創業者兼最高技術責任者ヴィクター・ボーテフ氏は、次のように問題提起している。
「ChatGPTには、インターネットから自動収集し加工した膨大な量のテキストが学習データとして入力されている。しかし、データ収集元であるフォーラムやブログの投稿コンテンツに、曖昧でわかりにくい科学の専門用語がどれだけ含まれているか? そのうち正しい意味で使われている例はいくつあるだろうか」。
同氏は、そうした専門分野の集中的なAI研究向け資金の確保が重要だと主張する。また、AI活用における適切な抑制と均衡を保つための仕組みも整える必要があるという。
量から質への志向へシフト
マイクロソフト(Microsoft)はAI技術の進化を加速させるため、2023年1月、「オープンAIに今後数年で数十億ドル(数千億円)を追加投資する」と発表したが、その一方で最近、AI部門の倫理チームを解雇した。これは気がかりな事態ではないだろうか。
ボーテフ氏は、AIのセキュリティガードレールの構築と強化や、データ構造の堅牢性向上の重要性を強調した。加えて、人々のマインドセットとデータの両面で「量から質」への志向のシフトも必要だという。「大規模言語モデルは無限の可能性を秘めている。しかしこの種のモデルが最近脚光を浴びたことにより、事実認識の精度、知識の検証、根底にあるメッセージへの忠実度など、未解決の問題が浮き彫りになった」。
加えて同氏は、マイクロソフトなど大手のAI施策における課題を指摘する。一般的な検索結果関連の課題であれば、大企業には対処に十分な経営資源と技術力が備わっているが、その力が「すべての分野に通用するわけではない」という。
また、「AIでニッチ分野やビジネスアプリケーションの課題を解決するには相当な額の投資が必要で、資金不足では言語モデルとして使えないものしかできない。結局のところ、AIの意思決定プロセスへの信頼を築くには、AIによる判定の根拠を示す説明可能性と透明性の確保を優先課題として取り組まなければならない」。
[原文:Leaders are ignoring the dangers of ‘confidently incorrect’ AI: Why it’s a massive problem]
Oliver Pickup(翻訳:SI Japan、編集:島田涼平)