反動は起こる運命だった。
多くのテック企業がさまざまな人工知能(AI)ツールの公開を競い合って数カ月が経つが、この分野に対する監視の目がだんだんと厳しさを増していることに、人々は気づき始めている。だからといって人工知能の開発を止めることはなく、人工知能を購入しようとする多くの人たちの足枷にもならないようだ。
規制は出始めるも、開発は止められない
2023年3月最終週、技術専門家と規制当局が急成長するAI業界に対して公然と狙いを定めた。欧州連合(EU)当局はAIを規制する新しい法律を導入し、英国政府はAIに対する「イノベーションを支持するアプローチを打ち出した白書」を発表した。そしてイタリアは、政府としては初めて、データプライバシーへの懸念からオープンAI(OpenAI)の「ChatGPT」を禁止した。
Advertisement
米国では、AIのシンクタンクである「AIデジタル政策センター(Center for AI and Digital Policy)」が、連邦取引委員会(FTC)の関与を求める請願を出した。また、Appleの共同創業者スティーブ・ウォズニアック氏、ピンタレスト(Pinterest)の共同創業者エヴァン・シャープ氏など、多数のAI専門家を含む1000人以上のテックリーダーたちが署名した別の公開書簡では、オープンAIが最近リリースした「GPT-4」より強力なAIシステムの訓練を行うまで、少なくとも6カ月間はAIモデルの開発を自主的に休止するように企業に促している。
こうした懸念は、AIを開発する企業による独自のアップデートを進めるのを止めるものではないようだ。AI開発の減速を求める声が上がるなか、マイクロソフト(Microsoft)はChatGPTを搭載した「Bing」の新しい広告を予告し、アドビ(Adobe)はプルデンシャル保険(Prudential Insurance)との新たなパートナーシップでAIを「パーソナライズされた金融体験」に活用すると宣伝し、GoogleはAIソフトウェアをさらに拡張するためにコーディングプラットフォーム、レプリット(Replit)との新たな契約を明らかにした。
ポリシーと実用的なガイドラインを確立することが急務
ガートナー(Gartner)のシニアアナリストであるニコール・グリーン氏によると、データの所有権や知的財産権など、さまざまな懸念事項に関する規制が明確でない現状は、ChatGPTを利用する上でリスクとなると言う。同氏は、政府と企業が協力して「未来に向けた期待を、社会が支援する必要がある」と述べるとともに、この分野を先取りして規制することは、「研究や進歩を妨げる結果になりかねない」と警告している。
グリーン氏は次のように話す。「(マーケターにとって)ジェネレーティブAIの影響を受ける有効なユースケースをリストにまとめ、仲間たちと協力して、その責任ある使用に舵を切るためのポリシーと実用的なガイドラインを確立することが急務だ。新しいベンダーが日々登場しており、組織はその主要なユースケースを理解する必要があるが、ブランドの取り組みをサポートするために、これらの技術を適用するのに必要な透明性、信頼性、セキュリティ基準を確保する必要がある」
スタンフォード大学の「世界のAIの進歩、認識、影響を追跡する報告書(AIインデックス・リポート[AI Index Report2023年版])」によると、AIの悪用事件は過去10年間で26倍に増加しているという。このほど発表された詳細な報告書では、「人工知能」に言及した法案が世界中で可決された数は、2016年の1件から2022年には37件に増加していることも判明している。
そして、少し意外かもしれないが、このリポートでは、企業のAIへの投資が2022年に初めて減少し、2021年の2761億ドル(約36兆8900億円)から1896億ドル(約25兆3300億円)になったことにも触れられている。
「ラッダイト思考」は正解か?
巨大企業以上にAIに特化したマーケティング技術のスタートアップの創業者たちは、現在進行中の懸念があるにもかかわらず、「AIを安全に開発する方法がある」と主張している。
なかでも楽観的な見通しを持つ人物が、AIを使ってソーシャルメディア向け広告や製品イメージを生成する広告プラットフォームであるオムネキー(Omneky)の創業者でCEOの千住光氏だ。同氏は、AIが人類を支配するという警告を「ラッダイト思考」と呼び、「単一のプラットフォームが人類の集合知を凌駕するとは思わない」と話す。AIの潜在的な危険から人々を守る規制には賛成だが、人類がすぐに危険にさらされるとは考えていないようだ。
また、「実際の問題は、どうすればAIがさらに人類に力を与えて、帯域幅とコミュニケーションの面で人間の脳の膨大なニューロンをレベルアップさせることができるかということだ」といい、「この技術の可能性は、まさにそこにある」と説いた。
同氏はAI開発の減速を求める専門家たちを「ラッダイト思考」と評したにもかかわらず、必ずしも折りたたみ式携帯電話(ガラケー)の後ろに隠れているわけではないと言う。
彼らの多くは、数十年かけてさまざまなアプリケーションを研究・開発してきたAIのパイオニアたちだ。しかし、イーロン・マスク氏が支援する非営利団体「生命の未来研究所(Future of Life Insitute)」が発表したこの書簡は、偽の署名に気づいたオブザーバーや、実際に署名した一部の専門家が後になってこの団体のアプローチに反対したことから、批判もあった。
責任を持ってAIを開発する方法を教えるための教育が必要
AIの開発を完全に休止するのではなく、AIを規制する任務を負う政府関係者はもちろんのこと、世界中のより多くの人々に責任を持ってAIを開発する方法を教えるための教育の必要性を強調する人もいる。タイム(Time)の元最高技術責任者であるバラット・クリシュ氏は、常に「よいことと悪いことがあり、よいことが悪いことに打ち勝つことを願っている」と述べる。
AIスタートアップのフューズマシンズ(Fusemachines)のアドバイザーも務める同氏はこうも語る。「魔人はもう瓶から出ている。それを本当に止められるとは思わない。署名付きの公開書簡のようなものは無駄だと思う。何の成果があるのかがわからない。オープンAIでなくとも、まだ名前を聞いたことのない企業も含めて、AI開発に取り組んでいるところはほかにもたくさんあるからだ」。
ジェネレーティブ画像と動画のスタートアップであるブリア(Bria)の共同創設者兼CEOのヤイール・アダト氏は、「責任を持って調達したコンテンツを使用するなど、最初から制限について考えることが重要だ」と話す。同社のAIを疑わしいコンテンツで鍛えるのではなく、最初からAIに健全な知識をインプットすることで、著作権やデータプライバシー、偏見、ブランドの安全性といった問題は解決できる、とアダト氏は諭す。
3年前に投資家から資金を調達した際、同氏はコンテンツ生成ビジネスかコンテンツ検出ビジネス、どちらを行うかを選択する必要があったという。オープンソースモデルに代わるものを提供することが重要だと判断し、前者を選択したが、「こちらのビジネスモデルのほうが優れている」とも付け加えた。
「そもそものところを考えてみれば、ガイドラインは必要ない」と同氏は言う。「ポルノを投入しないのであれば、システムはそれが何かを知らないため避ける必要はなく、ガードレールも必要ないのだ」。
[原文:As AI attention builds, so does the tension with how to handle it]
Marty Swant(翻訳:藤原聡美/ガリレオ、編集:島田涼平)