「ChatGPT」に代表される、人工知能(AI)技術を用いた大規模言語モデル(LLM)がコードを記述したり、アプリを開発したり、米国の医師免許試験で合格水準の点を取ったという報道に感銘を受けている人もいるかもしれない。しかしLLMは依然として、汎用人工知能(AGI)の域には達していない。AGIとは、人間や動物が行っているような知的タスクを実行できる、仮説的な自律システムの状態を指す言葉だ。
提供:OLIVIER MORIN/Getty Images
MetaのAIチーフサイエンティストであるYann LeCun氏によると、LLMの賢さは犬のレベルにも達していないという。同氏はVivaTechカンファレンスで、LLMが真の知性を獲得しているとは言い難いとし、その根拠として現実を理解したり、現実とやり取りしたり、現実を把握することができず、出力を生成するために言語の訓練のみに頼っているという点を挙げた。
同氏は、真の知性というものが言語を超越したところにあると述べ、人間の知識の大半は言語に縛られていないという点を指摘した。ChatGPTのようなLLMには、感情や創造性、知覚、意識といった、人間の知性の土台とも言えるものが欠けているのだ。
「GPT-4」に関するOpenAIのホワイトペーパーによると、ChatGPTは数学の複雑な問題を解くことができ、安全対策を講じていない場合には、自宅で危険物を作り出す方法すら説明できるという。
ただし、ChatGPTは、現実世界の体験に基づいた感覚や計画、常識の発露、推論といった認知能力を有していない。とはいえ、OpenAIの最新版の言語モデルであるGPT-4は、数学やコーディング、法律面の知識において人間並みのパフォーマンスを示しており、AGIが出現する兆しを見せ始めている。
OpenAIはAGIの実現を目標に掲げ、同社のGPT言語モデルの訓練と機能拡張を続けている。その一方で、こういったテクノロジーの実現によって社会に大きな混乱がもたらされる可能性がある点も認めている。
OpenAIの最高経営責任者(CEO)Sam Altman氏は5月、米上院司法委員会の公聴会で証言し、このテクノロジーが「世界に大きな害」を与えることが同氏にとって最大の懸念だと述べた。
OpenAIは同社ブログへの投稿で、汎用の知性はさまざまな目的で用いることができるが、同テクノロジーの利用と研究に責任を持って当たることが最も重要だとの考えを示している。
LeCun氏は、いつか人工的な創造物が人類以上の知性を持つようになるだろうが、その時にはそういった創造物が「統制可能であり、基本的に人類に従属するもの」となっているべきだと述べた。同氏は、AGIが世界を支配しようとするという人々の恐怖には根拠がないと述べ、その理由として「知的能力が高いことと、支配しようとすることに相関関係はない」という点を挙げた。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。