「AIが世界を乗っ取る」「AI研究を厳重に管理すべき」などのAI脅威論をAIのゴッドファーザーが否定、「AIは人間どころか犬の知能にも達していない」と主張

GIGAZINE



ディープラーニングやニューラルネットワークといったAI分野での功績で2018年度のチューリング賞を受賞した3人の科学者は、AIブームの基礎を築いたことから「AIのゴッドファーザー」とも呼ばれています。そんなAIのゴッドファーザーの1人であり、Metaのヴァイスプレジデント兼チーフAIサイエンティストを務めるヤン・ルカン氏が、昨今のAI脅威論について「依然としてAIの能力は限られており、それほど賢くはない」と否定しました。

Godfather of AI says warnings that it’s a threat to humanity are “ridiculous,” job losses won’t be permanent | TechSpot
https://www.techspot.com/news/99086-godfather-ai-warnings-threat-humanity-ridiculous-job-losses.html


A.I. is not even at dog-level intelligence yet: Meta A.I. chief
https://www.cnbc.com/2023/06/15/ai-is-not-even-at-dog-level-intelligence-yet-meta-ai-chief.html

近年は次々と高精度な生成AIが登場して人々の注目を集める一方で、AIが人間にとって害をもたらすのではないかというAI脅威論も高まりを見せています。対話型AIのChatGPTを開発したOpenAIは「10年以内にAIがほとんどの分野で専門家のスキルレベルを超える」と懸念しており、国際的な規制機関を設ける必要があると主張しています。

2023年5月30日には、OpenAIのサム・アルトマンCEOやGoogle DeepMindのデミス・ハサビスCEOなど350人以上のAI研究者やCEOが、「AIによる絶滅リスクを軽減することは、パンデミックや核戦争といった社会的規模の大きいリスクと並ぶ世界的な優先事項であると認識すべき」との声明を発表しました。すでにEUは「AIの使用を規制する法案」を2023年中に承認する予定であり、アルトマン氏はOpenAIがEUのAI規制を順守できない場合、EUでのサービス運用を停止する可能性があると述べています

「AIによる絶滅リスクの軽減は核戦争やパンデミック対策と同等の優先事項」と訴える書簡にOpenAIのサム・アルトマンCEOら350人以上のAI研究者や企業のCEOが署名 – GIGAZINE


ルカン氏と共にチューリング賞を受賞したAIのゴッドファーザーの中でも、AI脅威論に対するスタンスは異なっています。ヨシュア・ベンジオ氏は5月30日の書簡に署名した人物の1人であり、ジェフリー・ヒントン氏はヒントン氏はAIによるディープフェイクの増加や雇用への悪影響などの脅威を公開し、2023年4月にGoogleを退社したことが報じられました。

「AIのゴッドファーザー」がAI研究を後悔しGoogleを退社 – GIGAZINE


一方でルカン氏は、以前からAI脅威論に対して否定的な立場を取っています。2023年6月にパリで開催されたテックカンファレンス・Viva TechのAI脅威論について論じるパネルで、ルカン氏はフランスの思想家であるジャック・アタリ氏と共に登壇しました。

アタリ氏はAIが良いものになるか悪いものになるかは使い方次第だと指摘し、「もしAIを使って化石燃料や兵器の開発を行うならば、それはひどいことになります」「逆に、AIは健康・教育・文化にとって素晴らしいものにもなり得るのです」と述べました。

同パネル内でルカン氏は、記事作成時点のAIの基礎となっている大規模言語モデルについて、「言語のみでトレーニングされている」という点で限界があると主張しています。ルカン氏は、「これらのシステムはまだ非常に限定的で、現実世界の根本をまったく理解していません。なぜなら、大規模言語モデルは純粋に膨大なテキストのみで学習しているからです」「人間の知識の大半は言語とは無関係です。そのため、人間の経験の一部はAIが捉えることはできないのです」と述べています。

すでにOpenAIのGPT-4は司法試験で上位10%に入るほどの性能を有していますが、人間の子どもが10分程度で学習できる「皿を洗う」という単純な作業すらこなすことができません。ルカン氏はこのたとえを引き合いに出し、「この点は、人間どころか犬程度の知能に到達するために必要な何かを、私たちが見逃していることを物語っています」と指摘しました。


人間の赤ちゃんも最初から世界の基本法則を理解しているわけではありませんが、生後5カ月の赤ちゃんは浮いている物体を見ても特に反応しないのに、生後9カ月になると浮いている物体を見ると驚くようになります。これは、赤ちゃんが「物体は何もなく宙に浮いたりしない」という基本法則を理解したことを意味しています。

ルカン氏は、「現段階では、この能力を機械で再現する方法はまったくわかっていません。これが可能になるまでは、AIは人間レベルの知能を持つことはできませんし、犬や猫レベルの知能を持つこともできないでしょう」と述べました。こうした問題を解決するため、Metaは言語だけでなく動画を用いたAIのトレーニングに取り組んでいるとのこと。

また、アタリ氏が「AIが人間に反旗を翻す危険性」について尋ねたところ、ルカン氏は将来的に人間より賢いAIが登場するものの、科学者はAIを「制御可能で基本的に人間に従属するもの」として開発可能だとして否定。「これを脅威と捉えるのではなく、非常に有益なものと捉えるべきでしょう」「自分よりも賢い日常生活を手伝ってくれるスタッフのようなものです」とルカン氏は述べています。

ルカン氏は「AIが世界を乗っ取るのではないか」という懸念についても、「SF小説で広まった恐怖が、『もしロボットが私たちよりも賢かったら、世界を征服しようとするのではないか』というものです。しかし、賢いことと世界を征服しようとすることに相関関係はありません」と否定しました。


さらにルカン氏はBBCのインタビューにも答えており、AIが人類の脅威になるという一部の専門家の懸念は「ばかげたもの」であり、もし危険だと気づいたら開発を中断すればいいだけだと回答。AIが世界を乗っ取るという懸念はAIに人間性を投影したものだとして、「AI研究を厳重に管理すべき」という意見に反対を表明しています。

ルカン氏はBBCに対し、記事作成時点のAI脅威論は「ターボジェットエンジンの安全策を発明される前の1930年に尋ねるようなもの」であり、AIが人間に匹敵する知能を獲得するには数年以上かかるとの見方を示しています。AIによって仕事を奪われる労働者が増えるという懸念についても、「AIが多くの人々を永久に失業させることはない」と述べ、仕事の内容が変化することはあるが仕事自体は存在し続けると主張しました。

なお、Metaはオープンソースで公開している大規模言語モデル・LLaMaについて、人々が商用利用できるようにしたいと考えていることが報じられています。

Meta Wants Companies to Make Money Off Its Open-Source AI, in Challenge to Google — The Information
https://www.theinformation.com/articles/meta-wants-companies-to-make-money-off-its-open-source-ai-in-challenge-to-google

この記事のタイトルとURLをコピーする

Source

タイトルとURLをコピーしました