AI の悪用から企業が身を守る唯一の方法は「規制」だけなのか

DIGIDAY

ジェネレーティブAIへの関心とその活用は、マーケティングとメディアの世界で怒涛のごとく広まっている。検索機能、コンテンツ制作、広告、メディアなど、あらゆる企業がこぞってなにがしかの進歩や開発を発表するなか、このAIの勢いを止めるのは誰で、どこにいるのだろうか。

つまるところ、ディープフェイクや誤情報がまん延するまで長い時間はかからなかった。

悪用への対処法は誰もわからない

「こうした事態に対する歯止めというものが、いまのところまったくない」。そう指摘するのは、プライバシーと詐欺防止の問題に詳しく、独立する以前はグループエム(GroupM)で長年この問題に取り組んできたジョン・モンゴメリ氏だ。

ダブルヴェリファイ(DoubleVerify)やリンクトイン(LinkedIn)などの企業と連携してこの問題に取り組む同氏によると、「いまや多くのエージェンシーや企業が専門のチームを設置して、大規模言語モデルをマーケティングに応用する方法を模索している」という。

また、「ChatGPTをめぐっては、反ユートピア的な話題が少なくない。たとえば、ChatGPTが選挙の前後に何かしでかす、あるいは人間性の混乱やディープフェイクの加速など。しかし、ではどう対処すべきなのかという話になると、何も聞こえてはこない」と話す。

しかしながら同氏は、「測定できれば、解決できる」というマーケティングの定説を主張し、業界に対して、合成コンテンツを特定するために、ジェネレーティブAIを含むテクノロジーを活用すべしだと提唱する。「測定さえできれば、結果に応じて最適化の判断がくだせる」という。

誤情報抑制のため、企業の連携は加速

各種のツールやスタンダードをテコにAIが生成する誤情報を抑制しようという新しい技術や企業連携が台頭するなか、個人やコミュニティによるさまざまな取り組みも進行している。

新たな標準を策定するために、「コンテンツの来歴と真正性のための連合(Coalition for Content Provenance and Authenticity:以下、C2PA)」のような団体を通じて、多くの企業が連携を始めている。

「C2PA」は各種コンテンツの技術標準を開発するために、2021年に創設された。現在の会員はマイクロソフト(Microsoft)、インテル(Intel)、ソニー(Sony)、アドビ(Adobe)を含む大手ハイテク企業、キャノン(Canon)やニコン(Nikon)らのカメラメーカーのほか、ニューヨークタイムズ(The New York Times)、BBC、フランスTV(France TV)、CBCラジオカナダ(CBC Radio Canada)などのメディア企業も名を連ねる。

また、C2PAにはトゥルーピック(TruePic)のようなスタートアップ企業も加盟している。トゥルーピックは、「デジタル署名」を発行して写真の真正性を証明するモバイルSDK(ソフトウェア開発キット)を公開している企業だ。また最近になって、AIコンテンツプラットフォームのレヴェルAI(Revel.AI)と共同で、ディープフェイクなどの動画にコンピュータで生成された合成映像であることを示す認証ラベルを付与するサービスも開始した。

「企業や個人がAIで生成したコンテンツを検知できるようにするには、消費者や社会のデジタルリテラシーを向上させることも必要だ」と、トゥルーピックのジェフリー・マクレガー最高経営責任者(CEO)は話す。さらに、相互運用可能な一律の基準を策定すること、メディアの透明性をめぐる新たな規制を作ることも有益だという。

トゥルーピックは画像や映像がAIによって生成されたものか否かを検証する技術を持っている。同社はこのほど、世界経済フォーラムとのパートナーシップを発表した。共同で「テクノロジーの変化を方向づける取り組み」に注力するという。さらに、シャッターストック(Shutterstock)からも国連とのグローバルパートナーシップが発表された。国連の「AI for Good」プラットフォームを通じて、倫理的なAIモデル、ツール、プロダクト、ソリューションなどを共同開発するようだ。

「我々が一番懸念しているのは、もし何かを偽造できるのであれば、何でも偽造できるのだということだ」と、マクレガー氏は米DIGIDAYに語った。

本当に危険なのは誤情報が巧妙化すること

最近、新しい技術を発表したスタートアップ企業のなかにはRKVSTも含まれる。同社はこのほど、コンテンツのデータを検証して、ディープフェイク映像、AI生成コンテンツ、編集されたコンテンツなどの証拠を見つけるインスタプルーフ(Instaproof)というツールを公開した。「何世紀にもわたって、人はペンを持ち、それを使って物を書いてきた」と、RKVSTのジョン・ジーター最高技術責任者(CTO)は話し、「もちろん、よいものもあれば、悪いものもあった」と続ける。

企業によるNFTの作成を支援するピコネクスト(PicoNext)もこのほど、イーサリアムとポリゴンのブロックチェーンを活用してブランデッドコンテンツを認証するツールを公開した。プライベートベータ版の試験運用に関しては、ブランド名を含め、詳細は明かされなかったが、アドビで10年間エマージングテクノロジーを担当したピコネクストの創業者でCEOのデイヴ・ディクソン氏は、コンテンツの例として、スーパーボウル広告やそのほかのビジュアルコンテンツなど、大規模なキャンペーンの素材を挙げている。「ブランドの評判が毀損されたとして、それをリアルタイムで修復する手段などあるのだろうか?」と同氏は言う。

ゼファー(Zefr)のような企業も、ソーシャルメディアプラットフォームにはびこるフェイクコンテンツの問題に対処しようとしている。同社は昨年、イスラエルのスタートアップ企業であるアドヴェリファイ(AdVerif.ai)を買収。アドヴェリファイは機械学習と人間のファクトチェッカーを組み合わせて誤情報を検出している企業だ。

「識別系AI(discriminative AI)」(ゼファーはジェネレーティブAIの対極にあると説明している)を活用することにより、あらゆるコンテンツのさまざまな特徴に着目し、この情報を用いて安全性を判断するという。「社会にとって本当に危険なのは、今後1年半ほどのあいだに誤情報が巧妙化することだ」と、ゼファーの最高商務責任者を務めるアンドリュー・サービー氏は述べている。「そうなると人の意見や評価に影響が及ぶ。そして十分な監視も行われていない。理解するのが難しいからだ」。

安全なAIへの対応は、仕事の透明性と真正性の担保に

エージェンシーの世界でも、社内向けであれクライアント向けであれ、ジェネレーティブAIを安全なパラメータ内で活用するための取り組みが加速している。電通クリエイティヴ(Dentsu Creative)でデザインおよびイノベーションを統括する南北アメリカ大陸担当エグゼクティブバイスプレジデントのデイヴ・ミーカー氏(クリエイティブとメディアにも関与)によると、同社の持株会社は2016年からさまざまな場面でのAI活用を模索し、いかなる活用法であれ、その安全な運用に真剣に取り組んできたという。

「我々は、(ジェネレーティブAIのどのような活用法についても)非常に体系的で、慎重で、合法的かつコンプライアンスファーストのアプローチを取っている。法的責任を問われないようにするためもあるが、AIの可能性に大きな期待を抱きつつ、我々の仕事の透明性と真正性を担保し、常に有意義なものとするためでもある」。

ミーカー氏はクライアントのインテルの取り組みについても言及した。インテルは「フェイクキャッチャー(FakeCatcher)」という独自のディープフェイク検出ツールを開発し、(ジェネレーティブAIに対する関心が爆発的に高まる以前の)昨秋に公開している。96%の精度でフェイク動画を検出できるという。

AIの悪用を食い止める唯一の方法は規制

こうした努力はともかく、匿名で取材に応じた大手エージェンシーのブランドセーフティ専門家は、業界を挙げての取り組みもAIが生成する誤情報を防ぐことはできないと嘆く。「何をどうしたところで、悪徳業者はAIを使うからだ」という。むしろ、許容されることと許容されないことの境界線を引くなら、政府の規制に委ねるのが一番だと、この専門家は主張する。

「クライアントのロゴ、コンテンツ、商標を不正に使用し、オンラインで詐欺や不適切な行為を行うことは、いまに始まった問題ではない」と同専門家は述べ、「AIが生み出す詐欺を食い止める唯一の方法は規制だ。業界団体の自主規制では、達成すべき目標を達成できない。これはグローバルな問題だ。行動規範で十分に管理できるのは、正しく振る舞うことができる人、行動規範を守れる人だけだ」と主張する。

一方で、政府も対応に動いている。5月16日に開かれた米上院司法委員会のAI監視に関する公聴会で議論の的となったのは、誤情報、著作権問題、データプライバシーにまつわる懸念だった。IBMでプライバシーと信頼の最高責任者を務めるクリスティナ・モンゴメリ氏は、この日オープンAI(OpenAI)のサム・アルトマンCEOやNYUのゲイリー・マーカス教授らとともに証言台に立ったひとりだが、「AIに関する規則は、リスクに応じて決められるべきだ」と主張した。また、AIの用途やカテゴリーについて明確なガイダンスを定めること、対話の相手がAIならば、その旨を消費者に告知することが重要だとも述べている。

同氏はさらにこう提言した。「企業にAIシステムの影響評価とバイアステストを義務づけ、社会や国民に与える潜在的な影響を明らかにし、さらにはこうした評価を行ったことの証明を求めるべきだ」。

[原文:Here are safeguards brands and agencies are tapping to prevent or mitigate AI fraud

Michael Bürgi and Marty Swant(翻訳:英じゅんこ、編集:島田涼平)

Source