「画像生成AIの対価を人間の絵描きは受け取っていない」と専門家が懸念、AIの発展の中で置き去りにされている問題点を鋭く解説

GIGAZINE



「AIか哲学者か」を見分けることは専門家でも難しいと言われたり、Googleのエンジニアが「AIが感情や知性を獲得した」と発言したりと、人工知能の技術は目覚ましく成長しています。しかしその進歩の一方で、AIが言語をマスターすることは困難であるとされています。AIと言語習得の関係とAIが抱える問題点について、「画像生成AI」の問題とも絡めながら、ニューヨーク大学のゲイリー・マーカス名誉教授が科学メディアのUndark Magazineのインタビューに応えています。

Interview: Why Mastering Language Is So Difficult for AI
https://undark.org/2022/10/07/interview-why-mastering-language-is-so-difficult-for-ai/

人工知能の分野では、1965年にAIのパイオニアであるハーバート・サイモン氏が「20年以内に、人間ができる仕事はすべて機械ができるようになるだろう」と宣言したように、「AIが人間の知能を超える」といった誇大広告がしばしば語られます。特に「ディープラーニング」と呼ばれるシステムによって、AIがチェスなどのゲームで人間に勝利したり、顔認識や画像認識全般において優れた性能を発揮したり、OpenAIが開発した「GPT-3」と呼ばれるプログラムが詩や散文などのテキストを生成できたりと、目覚ましい発展を見せています。

しかしその一方で、こうした技術開発の多くを最前線で見てきた立場からマーカス氏は「これらの進歩は話半分で聞いておく必要があります。AIの分野はディープラーニングに過度に依存しており、ディープラーニングには本質的な限界があると考えられます」と述べています。マーカス氏によると、さらなる前進のためには、AI研究の初期数10年間のアプローチのように、コンピュータが人間の知識を記号表現によって符号化する「より伝統的な記号ベースのAIアプローチ」を用いる必要があるとのこと。


Undark Magazineはリモートインタビューおよび電子メールにて、マーカス氏に今後のAI技術の発展について聞き取りを行いました。

Undark(以下、UD):
まずは、ディープラーニングで人間のようなテキストを生成する言語モデル「GPT-3」について伺います。ニューヨークタイムズ誌は「GPT-3が気の遠くなるような流暢さで文章を書く」と述べていたり、Wiredの記事では「このプログラムはシリコンバレー中に寒気を引き起こす」と述べていたりと、高い評価をしています。一方で、マーカス氏はGPT-3に対してかなり批判的でした。それはどうしてですか?

ゲイリー・マーカス氏(以下、GM):
GPT-3は面白い試みだと思います。しかし、このシステムが実際に人間の言葉を理解するという考えは、正確ではありません。このシステムは、次の単語や文章を予測するオートコンプリートシステムなのです。携帯電話のように、初めの数字をいくつか入力すると続きの番号が提案されるようなものです。それは、周囲の世界を本当に理解しているわけではありません。

GPT-3は、多くの人を困惑させています。というのも、これらのシステムが行っているのは最終的に、膨大なテキストデータベースの「模倣」にあたるからです。データベースからまねるというのは、どれだけ高度になっても、オウムが言葉を話しているとか、盗作とか、そういうのと同じようなものだと思います。オウムがはっきり言葉を話しているときも、オウムは自分の言っていることを理解しているとは思えません。そして、GPT-3は確かに、自分が何を言っているのか理解していないのです。

人間と見分けがつかないほど自然な文章を書けるAI「GPT-3」の改良版AI「InstructGPT」一般公開、詩も執筆可能 – GIGAZINE


UD:
GPT-3は非常に基本的な事実について混乱することがあると、マーカス氏はThe Guardianに寄稿した記事の中で書いています。その例として、「アメリカの大統領は誰か」とGPT-3に尋ねたら、ジョー・バイデンではなくドナルド・トランプと答えたとのことですが、AIは「現在が2022年である」ことを知らないということでしょうか。

GM:
GPT-3が「ドナルド・トランプが大統領です」と言う可能性の方が高いのはおそらく、学習させたデータベースには、トランプの例がより多く含まれているからです。彼はより多くのニュースに出ていますし、より長くニュースに出ていましたし、より長く大統領に就いていました。平均的な元大統領の例よりも、トランプ元大統領はニュースに出続けています。また、確かにGPT-3は私たちが何年に生きているのか理解していません。さらに「ある時に大統領だったからといって、今も大統領であるとは限らない」という、基本的な時間的推論を行う機能もGPT-3にはありません。その点で、GPT-3は驚くほど頭が悪いんです。

UD:
マーカス氏が述べるように、GPT-3などのAIシステムは頭が悪いにもかかわらず、人々はしばしばAIを賢いと思い込んでしまうことがあります。これは、マーカス氏が「gullibility gap(だまされやすさのギャップ)」と呼んでいるものと関係があるように思いますが、この「gullibility gap」とはどのようなものでしょうか。

GM:
「gullibility gap」とは、機械が何をするかという私たちの理解と、機械が実際に何を行うかとの間にあるギャップを示しています。私たちは、機械が実際よりも賢いと思いがちです。いつか本当に賢くなる日が来るかもしれませんが、今はまだそうではありません。GPT-3やGoogleのLaMDAが人間のような知能を持つと考えられたと同様のケースが、1965年にも起こっています。初期に用いられたELIZAというシステムは、非常に単純なキーワードマッチングを行うもので、何を言っているのか全く分からないものでした。しかし、セラピストだと偽ってテキストメッセージを介して私生活を相談させた結果、何人かの人々は、生きている人間と話しているのだと思い込んでしまったのです。私たちは、だまされないように認識するための進化も訓練もできていません。

UD:
多くの読者は、コンピュータのパイオニアであるアラン・チューリングが1950年に提唱したアイデアに基づくチューリング・テストに馴染みがあると思います。2014年には、ユージン・グーストマンというチャットボットが、ある基準のもと、チューリング・テストに合格したと言われていますが、多くの科学者がチューリング・テストを批判しています。マーカス氏もその一人ですが、チューリング・テストのどこに不足があるのでしょうか?

史上初のチューリングテスト合格者「Eugene」はテストに合格していないと著名な専門家たちが指摘 – GIGAZINE

By Constantine Belias

GM:
チューリングテストは、AIにおける知能の指標としては最も長く知られていますが、だからといってあまり良いものではありません。1950年当時、私たちはAIについてよく分かっていませんでした。私は、今でもそれほど多くのことは分かっていないと思います。しかし、当時に比べれば現在の私たちはもっと多くのことを知っています。基本的には、もしあなたが機械と話し、機械があなたをだまして、人間ではないのに人間であると思わせたら、それは何かを意味しているに違いない、という考えでした。しかし現在では、それは非常に簡単にごまかせることがわかっています。例えば、ユージン・グーストマンのように「不安定な精神を持つ人のフリ」をすることで、多くの質問を回避することができるため、人をだましやすくなります。チューリング・テストに合格するためには、ある種のゲームをするようにエンジニアリングするため、純粋に知的なシステムを構築するためには役立たないテストとなっています。

UD:
自動運転車についても伺いたいです。完全な自動運転車の実現には、近年で大きな進展があったように思えましたが、その後、もう少しのところで減速しているように見えます。自動運転のシステム開発はどのようになっているのでしょうか?

GM:
GPT-3が言語を理解できないのと同じで、見たことのある交通状況をたくさん記憶するだけでは、運転に必要な「世界についての理解」が深まることはありません。そのため、自動運転にはより多くのデータが必要になりますが、そのデータ集めが少しずつしか進んでいないのが発展の遅れに表れていると思います。また、データのほとんどは、天候に恵まれ、交通が適度に整理されていて、それほど混雑していない場所で行われています。実際に現在のシステムをムンバイに導入した場合には、インドの三輪タクシーである「リキシャ」が何であるかさえ理解できないはずです。

UD:
マーカス氏は2022年7月にScientific Americanに寄稿した記事で、「AI研究者の大規模なチームのほとんどが、大学ではなく企業に所属しています」と指摘しています。

GM:
それにはさまざまな理由があります。1つは、企業はどのような問題を解決したいかについて、独自のインセンティブを持っているということです。例えば、広告を解決したい場合のAIは、医療を改善するために自然言語を理解することとは、大きく異なります。その点で、利益を追求した明確なインセンティブを持つ企業は利点があります。次に、マンパワーの問題もあります。AIの開発のために、企業は多くの優秀な人材を雇う余裕が必要ですが、その人材は必ずしも社会に最も貢献できる問題に投入できるとは限りません。またAI開発には、必ずしも共有を必要としない独自のデータがたくさん発生しますが、これも社会の最大の利益ではなく独自の利益を追求できるという、企業が大学よりも有利な点になります。つまり、現在のAIの成果は、一般市民の手ではなく企業の手にあり、一般市民のためというよりも企業のニーズに合わせて作られているのです。

UD:
しかし、データベースを構築するために使っているのは一般市民のデータであり、その点でAI開発のために一般市民に頼っているはずです。その認識は間違いないでしょうか。

GM:
その通りだと思います。そして、アートの面でも重要な点が浮上しています。OpenAIのDALL-Eのようなシステムは、非常に優れた画像を描き出しますが、それは何百万、何十億という人間が作った画像に基づいて行われています。元の絵を描いたアーティストは、その対価を受け取っていません。このことに対して多くのアーティストが懸念しており、多くの論争が起きています。この問題は複雑ですが、少なくとも現在、多くのAIが「意図されていない人間の貢献」を利用していることは間違いありません。

人々はようやくディープラーニングの正統派から抜け出し、ディープラーニングとAIのより古典的なアプローチを組み合わせた「ハイブリッドモデル」を検討しているようです。ディープラーニングと古典的な方法の協力が進めば進むほどより良い結果を生むと私は考えているため、40年ぶりにAIについて前向きな考えを持つことができています。

この記事のタイトルとURLをコピーする

Source