今年3月下旬、ジェネレーティブAIのめまいがするような加速ぶりに歯止めをかけようとする書簡が公開された。署名者は、イーロン・マスク氏をはじめ、Amazonやディープマインド(DeepMind)、Google、メタ(Meta)、マイクロソフト(Microsoft)のエンジニアを含む、著名人およそ4000人だ。
その書簡には、こう書かれている。「各AIラボはここ数カ月、開発者でさえ理解も予測も、そして確実に制御もできないほど強力なデジタルマインドの開発と配備をめざす競争に一心不乱に取り組んできた。強力なAIシステムが開発されるべきは、それがプラスの効果を生み、そのリスクも私たちの手で管理できるという確信を持てるようになってからだ」。
AIの加速はいまに始まった話ではない
最も聡明な(機械ではなく)人間たちが中断を求めているのであれば、この警告は注目に値する。だが、AIの加速はいまに始まった話ではないのではないか? また、ライバルがAIツールから手を引いた場合に生じる競争優位性を考えると、テクノロジーの枠を超えていまの限界の先をめざし続けたいという誘惑は、ビジネスリーダーたちにとって、あまりに抗いがたいものではないのだろうか?
Advertisement
その多くが早々に、ChatGPT(開発者のオープンAI[OpenAI]が3000億ワードをフィードして開発した大規模な言語モデル。一部からは「 自信満々で間違うとの声も上がっている)とDALL-E(言葉ではなく画像を生成する、ChatGPTに似たツール)を取り入れている。関心を集めているのはChatGPTだが、問題の深刻さと不気味さではDALL-Eが上回っているかもしれない。著作権侵害に関しては、とくにそうなる。
英国の科学技術者であるジェームズ・ブライドル氏は、ザ・ガーディアン(The Guardian)に先日発表したエッセーのなかで、ディズニー映画「ウォーリー(WALL-E)」に登場する主人公のロボットと、スペインのシュルレアリスムアーティスト/扇動家のサルバドール・ダリを組み合わせた「Dall-E」という名前は、「言い得て妙だ」と指摘している。
同氏はこう述べている。「崩壊した人類文明のかけらを掃き集める、大胆で自律的な、愛くるしいロボットの登場人物がウォーリーだ。一方のダリは、『人の真似を嫌がる者は、何も生み出せない』『大切なのは、混乱を広めることだ。消し去るのではなく』が口癖だった人物だ」。
広がる混乱、そして恐怖
AIが生成する画像を鑑賞したことがある人なら、まず間違いなくそのときにパニックとまではいわなくとも、困惑はしたはずだ。マット・ドライハースト氏とホリー・ハーンドン氏は、AIアートモデルの訓練に使用される約600万点の画像の検索を可能にするツール「Have I Been Trained?」を開発した。これを使うと、アーティスト(ドライハースト氏とハーンドン氏の両氏もアーティストである)は自身の作品が無断で使用されているかどうかを特定できる。
サンフランシスコで活動するデジタルアーティストのラピーヌ氏が昨年9月、このツールを使って検索してみたところ、事態は何ともグロテスクな展開を見せた。彼女はまれな遺伝性疾患の治療を受けているが、その際の顔写真の画像が公にされていたことがわかったのだ。治療に関わった医師は2018年に亡くなっている。であれば、プライベートであるはずのこれらの画像が収集され、ジェネレーティブAIプログラムにフィードされてしまった責任は、いったい誰にあるのか?
広告エージェンシーのオグルヴィUK(Ogilvy U.K.)におけるデジタル体験ラボで、各種技術の新たな応用法の研究・開発を専門としているリアリティ(Reality)のチーフエクスペリエンスアーキテクトであるマイケル・ティドマーシュ氏はこう語る。「ラピーヌ氏のケースでは、次のふたつのうちのどちらかが起こったと考えられる。ひとつは、この治療を行なった医療機関が故意に、あるいは誤って写真の共有は彼女の同意の範囲内にあると解釈したということ。もうひとつは、写真記録の流出を防ぐための管理プロトコルが十分ではなかったということだ」。
求められる「教育の改善」と「懸念やリスクの考慮」
こうしたことが起きないようにするには、何をすべきなのだろうか? 「言うは易く行うは難し」だと、ティドマーシュ氏は話す。概して、一般公開されている訓練データにおいては「ありとあらゆるタイプの惨事が起こるおそれ」は極めて大きいのが現状だ。
まず必要なのは、教育の改善とこうした懸念やリスクの考慮だ。しかし、より根本的なこととして「規制当局が迅速に関与する必要がある」とティドマーシュ氏は提言する。「こうしたAI関連の『新たな』データ利用に対する厳格なデータプライバシーとセキュリティ対策。そして、これに付随する違反に対する対処を認める法的枠組み。これらが必要だ」と同氏は語る。
また、「AIのメジャープレイヤーたちはこうした問題への対処に意識的に乗り出し、不要なコンテンツを取り除くためのデータスクリーニングを行いつつある」と付け加えた。規制当局もなすべきことを認識している。こうしたなかで企業が取るべきは、「慎重な行動」だ。
著作権侵害による訴訟はすでに起きている
グローバルソフトウェア開発企業のグロバント(Globant)でスタジオ担当シニアバイスプレジデントを務めるアグスティン・ウエルタ氏は、このテーマについてさらに展開させている。「データを使ってモデルを訓練する際には、プライバシーと著作権を尊重しなければならない。そのためのガイドラインの作成も必要だ。だが、それと同時にジェネレーティブAIのアプトプットがどうなるのかに対する理解を深めることも必要だ」と同氏は語る。「それがどのように使われているのか? 著作権のクレジットは誰になっているのか?」。
ChatGPTに対抗するAIサービス「バード(Bard)」を新たに開発するGoogleに、「ジェネレーティブAIと著作権については、どんな問題があるのか?」と尋ねてみた。同社は、この技術を使った「画像や音楽、テキストなどの制作によって、著作権の問題がいくつも持ち上がっている」ことを認めた。
そして、その複雑さを総括し、デジタル領域のなかで誰が何を所有しているのかについての哲学的主張を展開した。「ひとつの問題は、そもそもジェネレーティブAIが生み出した作品を著作権で保護できるのかということだ。もうひとつの問題は、既存の作品の著作権所有者が、著作権侵害でジェネレーティブAI企業を訴えることはできるのかということだ」。
ロンドンに拠点を置く法律事務所であるフラッドゲート(Fladgate)のパートナーで、専門技術およびAI規制担当弁護士であるティム・ライト氏も、これに同意する。AIモデル用の訓練データは、「多くの潜在的法的リスクを生み出している」という。そうしたなか、一部の企業は反撃を開始しつつある。
同氏によれば、ゲッティ・イメージズ(Getty Images)は今年2月、スタビリティAI(Stability AI)に対する訴訟手続きをデラウェア連邦裁判所で行ったという。同社は英国でも、スタビリティAIに対する訴えを起こしている。「スタビリティAIの『ステーブル・ディフュージョン(Stable Diffusion)』システムの訓練に、1200万点を超えるゲッティの画像が不正に利用された」というのが、ゲッティ側の主張だという。
「スタビリティAIはカリフォルニア州でも、ミッドジャーニー(Midjourney)、ディビアントアート(DeviantArt)と共に、著作権侵害でアーティストたちから集団訴訟を起こされている」と同氏は話す。
動き出す国や企業
一部の国では、法律の強化に向けて早くも動きつつある。たとえば日本は、AIの開発・利用のための倫理指針を発表している。そのほか、「カナダでも透明性と説明可能性の要件を確立すべく、AIシステムのための個人情報の収集と利用に対する同意の取得を企業に義務付ける法案が提出されている」と、ライト氏は語る。
ここでもまた、事を慎重に進める責任は企業の側にある。ウエルタ氏によれば、たとえばグロバントではジャンルやケースシナリオに関係なく「AIを責任を持って利用するためのAIマニフェスト」を制定しているという。
AI開発の中断を求める公開書簡に同意を示す同氏は、次のように語る。「この件については、社会全体で責任を持って議論すべきだ。どの新たな領域が影響を受ける可能性があるのかを把握する必要がある。そして、このことを意識する一方で、人間としての我々の進歩にメリットをもたらす規制を設ける必要もある」。
[原文:How generative AI is muddying copyright laws – what businesses need to know]
Oliver Pickup(翻訳:ガリレオ、編集:島田涼平)