できるのかな。
ChatGPTの開発元であるOpenAIが、既存のAIの進化形・「超知能(superintelligence)」の出現を見据えて、人類がとるべき対策を提案してます。「超知能の統治」と題したそのポストには「AIシステムは10年以内にほとんどの分野で専門家レベルを超越し、現在の最大手企業が行なうのと同等の生産活動ができるようになる」とあります。そんな超知能は「AGI(汎用人工知能)よりさらに劇的に有能」だけど、その分リスクもあるので、安全策を講じようという内容です。
世界全体でAIに制限を。核開発のように
そんな安全策として、OpenAIは3つのポイントを提案しています。
ひとつは、超知能を開発する主要プロジェクトの間で、AIの成長度合いなどに関してある程度の同期を取ること。
ふたつめは、原子力におけるIAEA(国際原子力機関)のような管理組織を設け、一定規模を超えるプロジェクトに対しては安全性などに関して査察を行なうこと。
3つめは、超知能を安全なものにするような何らかの技術を開発することです。この3つめに関しては「オープンな問題」としていて、まだ答えがないので、実質的な提案は最初のふたつです。
ここまでの内容を簡単に言い換えると、僕らすごいもの作っちゃったし、他のとこでも似たようなの作ってるけど、放っとくと収拾つかなくなりそうだから、何か共通の制限をかけよう。たとえば原子力みたいに、国際的な機関で管理していこうという話です。
ちなみにOpenAIの文書で問題視してるのは、あくまで将来生まれるであろう「超知能」であって、GPT-4やChatGPTといった、既存のAIやそれを使ったシステムは対象外です。既存のChatGPTみたいなAIシステムについては、「世界に多大な価値を生み出すと考えられ、リスクはあるものの、その度合は他のインターネット技術と同等と思われる」と言っています。
統制を叫ぶ声はこれまでにも
OpenAIがAIを統制する必要を訴えるのは、今に始まったことじゃありません。同社のサム・アルトマンCEOは、米国議会でAIの規制を呼びかけたのに続き、今週はフランスのエマニュエル・マクロン大統領などヨーロッパ各国のトップと会ってます。日本にはすでに4月にやってきて、同じような主張をしてました。
さらにOpenAIだけでなく、いろんな専門家もAIの危険性に警鐘を鳴らしてきました。最近ではイーロン・マスク氏やスティーブ・ウォズニアック氏などテック界のビッグネームを含む1,000人以上の有識者が、AIの訓練を6カ月間の停止するよう提言してもいました(イーロンはちゃっかり別のAI会社作ってましたけど)。
でもどうやって実現?
とはいえ、具体的にどういう規制の仕方が可能なのかははっきりしてません。
アルトマン氏たちは「IAEAみたいなサムシング」とサラッと言ってますが、核兵器作るには放射性物質が必要だったりで物理的な制約があるし、放射線で検知もできるけど、AIの場合はもっとこっそり開発ができてしまいます。OpenAIとかGoogleといった大御所はこういう取り組みに協力するかもしれませんが、何事も悪用したがりで、意外と資金も持ってるような、アンダーグラウンドな人々はどうなんでしょうか?
MashableのChris Taylor編集長は、OpenAIの提言には具体性がなく、「安全性に配慮してますよ」というアピールでしかない、と懐疑的な反応です。
また今回の文書では「超知能」の「リスク」に備えようと言いつつ、超知能とは実際どんなもので、どんなリスクがありうるかが具体的に書かれていません。でも既存のAIを使ったリスクとしては、2024年の米国大統領選挙に向けた情報操作にフル活用されることがだいたい目に見えてます。今からAIの危険性をいろんなかたちで訴えておけば、仮に選挙で悪用されても「だから言ったでしょ」と逃れられる…という計算もあるのかもしれません。
OpenAIの真の意図も、本当に意味ある規制ができるのかもまだよくわかりません。ユーザー側としては、いつか生まれるかもしれない「超知能」を政府や大企業がうまく制御してくれることを祈りつつ、とりあえずネットを使うときはどこで誰がフェイクを仕込んでるかわからない、ってモヤモヤ警戒し続けるしかない…ってことなのかなあ。なんか、感じ悪いインターネットになってきちゃいますね。
Source: OpenAI、Reuters、NHK、Mashable、The Guardian