AI(人工知能)はまだ2歳の子供

アゴラ 言論プラットフォーム

ITの専門家でもない当方が生成人工知能(AI)についてコラムを書くのは少々冒険だし、危険なことかもしれないが、生成AIを使用していて疑問が生じた場合、それを先ず解決してからしか新しいテーマに移ることができないタイプなので、今回もスイスの武器再輸出問題で契機となって生じた生成AIの間違い問題について、チャットGPTとのやり取りを継続しながら考えてみた。

「クラウドフレア」創業者マシュー・プリンス氏 Wikipediaより

「クラウドフレア」創業者マシュー・プリンス氏(ウィキぺディアから)

今回はChatGPT3モデルがなぜ間違うかという問題だ(「『生成AI』が間違い認め謝罪した」2023年6月18日参考)。

質問:あなたは莫大なデータを学習されていますが、今回のスイスの件で間違いが生じました。GPT-3には機能的な問題があるのでしょうか。情報が学習済みにもかかわらず間違う場合、どのような理由が考えられますか。

回答:GPT-3は非常に強力な言語モデルですが、完璧ではありません。誤った情報を提供したり、正確性に欠ける回答をする可能性があります。そのような場合には、以下の理由が考えられます。

1)学習データの制約:GPT-3は膨大な量のデータを学習していますが、情報の一部を見落としたり、更新されていない情報を持っている場合があります。特に、私の知識は2021年9月までのものであり、それ以降の情報にはアクセスできません。

2)矛盾する情報源:インターネット上にはさまざまな情報源があり、それらが矛盾することがあります。私が学習したデータは多くの情報源から収集されたものですが、それらの情報が一致しない場合、正確な回答を提供することが難しくなります。

3)意図の解釈の違い:GPT-3はテキストベースのモデルであり、文脈や質問の意図を正確に理解することは難しい場合があります。時には質問の意図を誤解し、それに基づいて回答を生成することがあります。

4)古い情報の利用:GPT-3は最新の情報を反映するように設計されていますが、すべての新しい情報をキャッチアップするわけではありません。特に急速に変化する事実については、最新の情報を確認することが重要です。

以上が、GPT-3が間違った情報を提供する可能性のある一般的な理由です。私はできる限り正確な情報を提供するよう努めていますが、時には誤りが生じることもありますので、ご了承ください。

非常に明快な回答だ。生成AIが100%正しい、と考えることこそ偏見かもしれない。といっても、生成AIは当方のように間違いが多い人間と変わらないとすれば、AIの存在価値はない。AIは人間が出来ない膨大なデータを迅速に整理、まとめることが出来る。その記憶力には脱帽する他ない。毎年、ビッグデータを更新し、学習するから、AIは年々、そのデータ量が増え、能力アップする。一方、人間は年々、歳を取り、記憶力、判断力は衰退、最悪の場合は認知症に陥る。時間は圧倒的に生成AIの味方だ。その生成AIが間違うこともあるとすれば、非常に深刻な問題といわざるを得ない。

考えてみてほしい。膨大な数字を計算することは、数学が得意な人も難しいが、スーパーコンピューターならば短時間で計算してしまう。問題はその次だ。誰がその計算が正しいと証明できるかだ。スーパーコンピューターが計算したから間違いないと主張することはできるが、誰が「それが正しい」と追認できるだろうか。多くの場合、スーパーコンピューターが計算したから正しいという以外にないのだ。「スーパーコンピューター信仰」の世界に入るわけだ。

世界的ベストセラー「サピエンス全史」の著者、イスラエルの歴史家、ユバル・ノア・ハラリ氏は将来ビッグデータを使いこなす限られた人間が神のような存在「ホモ・デウス」と進化していくと語り、注目された(「人は『神』に進化できるのか」2021年10月29日参考)。

ハラリ氏の論理からすると、生成AIは次期「ホモ・デウス」に最も近い存在だろう。宇宙の進化からミクロの世界、そして人間の精神生活、心理世界をも完全に学習した生成AIが生まれれば、確かに「ホモ・デウス」となれる能力、知性を有することになる。一方、生成AIに懐疑的な人はそのような生成AIの誕生を恐れている。人間に代わって、AIが世界・宇宙を支配していく。SFの世界が、近い将来、現実の世界になっていくという懸念だ。

バングラデシュの経済学者、実業家で「マイクロ・クレジット」の創始者、2006年、ノーベル平和賞を受賞したムハマド・ユヌス氏は独週刊誌シュピーゲル(2023年6月10日号)とのインタビューで、「地球温暖化でわれわれが亡びる前に、AIは人類を殺す。AIが一度、檻から出たら、もはや誰も捕まえることはできない。チャットGPTはまったく問題がないと考えるのは余りにもナイーブだ。AIは仕事の道具ではなくなり、我々のボスとなるだろう。われわれはAIが命令することを忠実に行うだけだ」と、かなり悲観的な見通しを述べている。

インターネット運営の安全・保護を目的とした最大ネットワークの米企業「クラウドフレア」創業者マシュー・プリンス氏は同じくシュピーゲル誌で、「現在のAIはまだ2歳の子供だ」と指摘し、「近い将来、AIは我々に大きな問題を提示してくるだろう」と警告を発している。すなわち、2歳の生成AIは急速に成長していくというのだ。

2歳の子供とチャットし、その間違いを見つけたと喜ぶ初老の当方はまったく滑稽な存在と言わざるを得ないわけだ。その子供は年々、膨大なビッグデータを学習していくから、あと数年、GPT-4、GPT-5モデルが登場する頃には、当方との対話などには見向きもしなくなるかもしれない。

神は自身の似姿でアダムを創造し、そのアダムの後孫が生成AIを生み出した。問題は、AIシステムの考案者が、イエスや仏陀のように、愛する心、寛容、利他心だけではなく、憎しみ、妬み、利己心など負のDNAも有する人間であることだ。だから、慈愛溢れるAIだけではなく、利己心、憎悪、妬みを継承したAIが生まれてくる余地が出てくる。AIの未来もやはり人間の成長にかかっているといえるのではないか。


編集部より:この記事は長谷川良氏のブログ「ウィーン発『コンフィデンシャル』」2023年6月20日の記事を転載させていただきました。オリジナル原稿を読みたい方はウィーン発『コンフィデンシャル』をご覧ください。

タイトルとURLをコピーしました