Google(グーグル)傘下のAI企業DeepMindは、これまで人々を悩ませてきた「画像が本物かAIによって生成されたものか」という問題を解決したと発表しました。
DeepMindの研究チームは、新たなウォーターマーク(著作権表示などの目的で画像に挿し込む透かし)システム「SynthID」のベータ版をリリースしました。
このシステムを使うことで、元の画像品質を落とすことなく、AIによって生成されたディープフェイクを正確に特定できるとのこと。
目には見えないウォーターマーク
DeepMindは同社のブログにて、ベータ版のSynthIDシステムは、AIが生成した画像のピクセル内にウォーターマークを埋め込めると説明しています。
人間の目では違いを見分けることはできませんが、検出ツールによって特定の識別子を見つけて、AIが生成した画像かどうかを判断するもののようです。
DeepMindはこのウォーターマークの挿入がどのように機能するかすべては説明していませんが、SynthIDでは「サイズ変更や画像圧縮、カラーフィルターでの変更などの編集を行なった後でもウォーターマークは保持される」と述べています。
つまり、従来のウォーターマークのように画像の上からスタンプのように挿入されるものではないため、編集技術で削除できないのです。
Googleの画像生成AI「Imagen」で利用可能
SynthIDはGoogleによる画像生成システムにのみ適用され、動作するのだそうです。
現時点ではGoogleのマシンラーニングプラットフォーム「Vertex AI」上の画像生成AI「Imagen」にて作成された画像にのみ利用可能。Vertex AIプラットフォームを活用している企業にのみ提供されるということです。
DeepMindのCEOであるDemis Hassabis氏は、The Vergeに対して「システムが有効であることが証明されれば、将来的にはそれを”パートナー”と共有したり、消費者向けソリューションにスケールアップすることも考えている」と語りました。
ただしこれは、ウォーターマークがGoogleのエコシステムという閉鎖的なループの中に存在することも意味します。このシステムで画像をスキャンして、それがImagenによって生成された可能性を検証することは可能です。
しかし、世の中に生成AIによる画像ジェネレーターがどれだけあるかを知ると、その機能がどれほどの価値があるか判断するのは難しいともいえます。
ウォーターマークでは問題は解決できないかも
バイデン政権は、企業がAI画像を識別する手段を考案する必要性を強調しています。
問題は、ウォーターマークはAIによって生成されたディープフェイクや誤った情報の問題から、完全に救ってくれるわけではないということです。
Scientific Amercanによる生成AIとそのセキュリティに関する取材記事の中で、カリフォルニア大学バークレー校の情報工学教授のHany Farid氏は、ウォーターマークの挿入はAIによるディープフェイクが生み出す実害に対する「緩和戦略にすぎない」と語っています。
記事では、現在のAI検出ツールの信頼性が低い点も指摘しています。
米Gizmodoは「生成AIによるディープフェイクの脅威から画像を守る方法」について考えるエンジニアや研究者から話を聞きましたが、ある研究者は「絶対的な方法はない」と指摘しています。
とあるクリエイターやエンジニアが画像の歪みを防ぐ方法や、AIによって生成された画像にマークを付ける方法などを思いつくたびに、ほかの誰かがそれらを回避する方法を見つけるだろう、ということです。
ウォーターマークに関しては、特に問題があるとも考えられます。
MIT Technology Reviewに掲載されたAI研究者Claire Leibowicz氏の論文によれば、ウォーターマークは画像が編集されたものかを識別するのに役立つ可能性はあるとのこと。
しかし、ペンタゴン爆破の偽画像のようなAIによる生成コンテンツが、オンラインで拡散される前に防ぐといったことには役立たないとも指摘しています。
ウォーターマークは、編集により簡単に削除できるものもあります。堅牢なものを作ったとしても、最終的にインターネットの世界にいる多くのネット民の誰かが、回避する方法を見つけることになるでしょう。
DeepMindもこのSynthIDが「極端な画像操作に対して確実に対処できるわけでない」としています。しかし、その代わりに一部の組織が「AIによって生成されたコンテンツを責任を持って扱う」ための方法であると述べました。
さて、このSynthIDは現時点でGoogleのAIプラットフォーム上でのみ機能するものです。さらに専門家の指摘では、生成AIによる画像に対するウォーターマークという対抗策は心許ないともされています。
しかし、今回のSnythIDはまだベータ版がリリースされたばかり。生成AIの成長とそれに伴うセキュリティーや信頼性を考えるための第一歩には確実になり得るでしょう。
今後この技術が、あるいはディープフェイクに関する問題が、どのようなものになっていくか見ていきましょう。