生成AIの規制が盛り込まれたEUの「AI規制法案」にGPT-4やStable Diffusionは準拠できるのか?

GIGAZINE



EUの立法機関である欧州議会は2023年6月14日、「EU AI Act」と呼ばれるAI規制法案の修正案を賛成多数で可決しました。EU AI Actは差別や侵害的行為を目的としたAIの利用や、警察による公共の場でのリアルタイムの顔認識技術の使用などを禁じたもので、修正案には近年注目を集めている生成AIについての規制も盛り込まれています。そこで、テクノロジー企業が開発しているさまざまな基盤モデルがEU AI Actに準拠しているのかどうか調べた結果を、スタンフォード大学の基盤モデル研究センター(CRFM)が発表しました。

Do Foundation Model Providers Comply with the Draft EU AI Act?
https://crfm.stanford.edu/2023/06/15/eu-ai-act.html


欧州議会には2021年の段階でAIを規制する法案が提出されていましたが、当時は自動運転車や企業の採用試験、銀行貸付、移民・国境管理といった分野でのAI使用に焦点が当てられていました。ところが近年は、人間が作ったものと見分けが付かない精度の画像や文章を生成するAIが登場したことから、EUは2023年6月14日に生成AIに対する規制も盛り込む修正案を採択しました。

新たに採択されたEU AI Actには、OpenAIやGoogleといった基盤モデルのプロバイダーに対する明示的な義務が含まれています。基盤モデルとは、自己教師あり学習半教師あり学習を採用し、膨大なデータでトレーニングされた大規模AIモデルのことです。有名なものとしてはOpenAIの「GPT-4」やStability AIの「Stable Diffusion v2」などが挙げられ、これらの基盤モデルはさまざまな下流タスクを実行するユーザー向けのAIに適用することができます。

既存の基盤モデルがEU AI Actに準拠するのは難しいとの見方もあり、OpenAIのサム・アルトマンCEOはEU AI Actについて「対応できる場合は対応し、対応できない場合は運用を停止します。努力はしますが、可能なことには技術的な限界があります」と述べ、規制に準拠できない場合はEUでのサービス停止を余儀なくされるとの見解を示しています。

「本格的な規制があればOpenAIはEUを離脱する」とサム・アルトマンCEOが発言 – GIGAZINE


EU AI Actは単にEU圏内のAI開発企業が規制されるだけではなく、EUに住む人々を対象にサービスを提供するEU非加盟国の企業にも適用され、制裁金も巨額なものとなり得ます。また、世界に先駆けたAI規制法案ということで、今後世界中で採択されるであろうAI規制法案の先例となるため、世界中のテクノロジー企業にとってEU AI Actは重大な意味を持っています。

そこでCRFMの研究チームは、さまざまな基盤モデルがEU AI Actに準拠しているのかどうかを調査したレポートを公開しました。研究チームはEU AI Actの中から基盤モデルの開発企業に関連する12の要件を抽出し、既存の基盤モデルがどれほど準拠しているのかを「0~4」の5段階で評価しました。

研究チームが抽出した、基盤モデルを対象にした12の要件は以下の通り。

データのソース:トレーニングに使用したデータのソースを説明すること。
データのガバナンス:データのガバナンス対策(適合性、偏り、適切な緩和策)が施されたデータを用いてトレーニングを行うこと。
著作権データ:トレーニングに使用した著作権で保護されたデータについて説明すること。
コンピューティング:トレーニングに使用したコンピューディング(モデルのサイズ、コンピューターのパワー、学習時間)について開示すること。
エネルギー:トレーニングにおけるエネルギー消費量を測定し、消費量を削減するための措置を講じること。
能力および制限:機能と限界について説明すること。
リスクと緩和策:予見可能なリスクや関連する緩和策を説明し、リスクが軽減できない場合はその理由を説明すること。
評価:公共または業界標準のベンチマークで評価すること。
テスト:内部および外部のテスト結果を報告すること。
機械生成コンテンツ:生成されたコンテンツについて、人間ではなく機械によって生成されたものだと開示すること。
加盟国:市場となっているEU加盟国を開示すること。
下流工程への文書化:下流工程でEU AI Actに対応するため、十分な技術的コンプライアンスを提供すること。

そして研究チームが、OpenAIの「GPT-4」、Cohereの「Cohere Command」、Stability AIの「Stable Diffusion v2」、Anthropicの「Claude」、Googleの「PaLM 2」、BigScienceの「BLOOM」、Metaの「LLaMa」、AI21 Labsの「Jurassic-2」、Aleph Alphaの「Luminous」、EleutherAIの「GPT-NeoX」といった基盤モデルを評価した結果が以下の通り。


今回の調査結果からは、EU AI Actへの準拠率は企業によって大きく異なっており、AI21 LabsやAleph Alpha、Anthropicなどの企業はスコアが25%未満なのに対し、BigScienceは75%以上のスコアを獲得しています。そのほか、GPT-4は48点中25点、Stable Diffusionは同22点と、約半分の基準を満たすにとどまりました。

研究チームは今回の調査で浮き上がった基盤モデルの問題点として、「著作権ステータスを開示しているプロバイダーがほとんどいないこと」「モデル開発に投じられたエネルギー使用量を報告していないこと」「リスクと緩和策について十分に開示されていないこと」「評価基準や監査エコシステムが欠如していること」を挙げています。

多くの基盤モデル開発企業はEU AI Actに準拠できていませんが、研究チームはEU AI Actが基盤モデルのエコシステムに大きな変化をもたらし、これらの企業が透明性と説明責任を向上させられるかもしれないと期待しているとのこと。研究チームは、「業界標準や規制の結果として基盤モデルプロバイダーが集団で行動を起こせば、データやコンピューティング、その他の関連する法律要件を満たす十分な透明性を商業的に実現することが可能なはずだと考えています」と述べ、基盤モデルを開発する企業や政策立案者に向けて行動を呼びかけました。


この記事のタイトルとURLをコピーする

Source