裁判に提出された証拠映像に対して「これはディープフェイクだ」と反論する人々が登場することを専門家が懸念

GIGAZINE
2023年05月09日 23時00分
メモ



近年はAIの発達により、簡単に実在の人物が登場するディープフェイクの動画や音声を作成できるようになりました。そんな中、電気自動車メーカー・テスラの弁護団がテスラ車の死亡事故に関する裁判で、「原告が提出した音声はディープフェイクの可能性がある」と主張する事態が発生。裁判の証拠品に対して「これはディープフェイクだ」と反論されることについて、専門家が懸念を表明しています。

People are arguing in court that real images are deepfakes : NPR
https://www.npr.org/2023/05/08/1174132413/people-are-trying-to-claim-real-videos-are-deepfakes-the-courts-are-not-amused


2018年3月、Appleのエンジニアだったウォルター・ファン氏が、テスラ車が起こした衝突事故で死亡しました。この事故について、ファン氏の遺族らは「テスラ車のオートパイロット機能が誤作動した」と主張してテスラを訴えましたが、テスラの弁護団は「ファン氏は衝突前にスマートフォンでゲームをしており、車両の警告を無視した」と反論して争っていました。

この裁判でファン氏の遺族の弁護団は、テスラのCEOであるマスク氏が「現時点のモデルSとモデルXは、人よりも安全に自律走行できます」と語った音声を証拠として提出しました。この発言は2016年に開催されたCode Conferenceというテクノロジーイベントのインタビュー中に出たもので、この発言を含む動画も2016年6月からYouTube上で公開されています。当該発言は、以下の動画の1時間19分25秒~で聞くことができます。

Elon Musk | Full interview | Code Conference 2016 – YouTube
[embedded content]

ところが、マスク氏はこの発言について弁護団を通じて「問題となっている発言をしたかどうかの記憶がない」と主張しており、弁護団は「マスクCEOは多くの公人と同様に、実際にはしていない発言や行動をディープフェイクで捏造(ねつぞう)される対象になることが多い」と述べ、証拠映像の信ぴょう性に疑問を示しました。

イーロン・マスクの発言は「ディープフェイクで作られた可能性がある」とテスラ側の弁護団が主張 – GIGAZINE


弁護団の主張に対し、サンタクララ郡高等裁判所のイヴェット・ペニーパッカー判事は、「マスクCEOが有名であるがゆえにディープフェイクの対象になりやすく、その公的な発言は免責される可能性があるという主張は非常に厄介です」と述べ、マスクCEOに対して当該発言を行ったかどうか宣誓した上で証言するように命じました。

ペニーパッカー判事は、「言い換えれば、マスク氏や彼のような立場の人々は公共の場所で好きなことを言い、記録された発言がディープフェイクである可能性を盾にして、実際に行った言動の責任を避けることが可能だということです。当裁判所は、テスラのこのようなやり方を容認して前例を作ることを望んでいません」と述べています。

AIの発展によってかなり精巧なディープフェイクを作成できることが可能になったため、さまざまな証拠に対して「これはディープフェイクだ」という反論が行われる可能性が高まっています。カリフォルニア大学バークレー校のディープフェイクやデジタル加工の専門家であるハニー・ファリド氏は、「ディープフェイクの時代になれば、誰でも現実を否定できるようになるということを私たちは懸念していました」とコメントしました。

ファリド氏は、裁判の証拠に対してディープフェイクだと反論することは、典型的な「うそつきの配当」だと指摘しています。うそつきの配当とは、2018年に法学教授のロバート・チェズニー氏とダニエル・シトロン氏が提唱した概念で、ディープフェイクで簡単に偽の動画や画像が作成できるという事実が広まることにより、「あれはディープフェイクだ」といううそが信じられやすくなるというものです。チェズニー氏らは、「簡単に言うと、懐疑的な国民が本物の音声や映像の信ぴょう性を疑うようになるということです」と述べています。


マスク氏は、裁判の証拠となった言動について「ディープフェイクかもしれない」と主張した初めての人間ではありません。2020年1月に発生したアメリカ連邦議会議事堂襲撃事件で逮捕された人物のうち2人は、襲撃に参加した証拠とされた動画がAIによって作成された可能性があると主張しました。しかし、この反論は裁判で退けられており、最終的には2人とも有罪判決を受けています。

スタンフォード大学インターネット観測所の研究者であるリアーナ・プフェファーコルン氏は2020年の記事で、当時の段階では証拠品に対する「これはディープフェイクだ」という反論が有効になった事例はないと指摘。その一方で、裁判所は関係者がディープフェイクで作成した証拠品を提出しようとする試みよりも、「この証拠品はディープフェイクだ」と反論してくる問題への対処を迫られるだろうと主張しました。

プフェファーコルン氏は、弁護士としての職業規範が裁判における無理な主張の抑制につながることを期待しています。しかし、ロヨラ・ロースクールの教授であるレベッカ・デルフィーノ氏は裁判の証拠品に「これはディープフェイクだ」と反論できる問題は整備されておらず、より強力な基準が必要だと考えています。

また、裁判所がこの問題に対処できたとしても、影響を受けた陪審員が「これがディープフェイクでない証拠を出してほしい」と言い出す可能性があります。もし弁護士が陪審員を誘導し、すべての証拠に対して「これがディープフェイクではない証拠を出すように」と要求させれば、相手側は証拠を集めるために膨大な時間とコストをかける必要に迫られます。そのため、専門家を雇うための十分なリソースを持っていない人々は、法廷で適正に判断される可能性が低くなってしまうとのこと。

さらに、ディープフェイクの影響が法廷の外にもおよび、人々が現実世界で起きたことを「これはディープフェイクだ」と否定し始める懸念もあります。ファリド氏は、「警察の暴力や人権侵害、政治家の不適切な発言や違法行為に、突然リアリティがなくなってしまいます。どのように世界を考えればいいのかがわからなくなるため、これは本当に心配なことです」と述べました。


この記事のタイトルとURLをコピーする

Source

タイトルとURLをコピーしました