使い方次第で。
AIがデタラメを吐き出したり、悪意のある人間がAIでデマを大量生産したりで、AIって嘘つき扱いされがちです。
でも、逆にAIで嘘を検知して、さらに広がったデマを修正する対抗策も作れるみたいです。
ブリティッシュコロンビア大学のコンピューターサイエンス教授Laks V.S. Lakshmanan氏が、The Conversationにそんな解説を寄稿してますので、以下ご精読ください。
フェイクニュース、特に文字ベースの記事には、いくつかの生成方法があります。
人名や日付、統計といった事実を意図的に書き換えるのも1つの手だし、完全にでっちあげの出来事や人物を元に記事を書くこともまた1つです。
AIの進化で誤情報の生成が特に簡単になったことで、フェイクニュースの自動生成もすぐできてしまいます。
フェイクニュースが生む損失
「2020年の米国大統領選挙のとき、不正投票があったか?」とか「気候変動はデタラメか?」といった疑問は、既存のデータを分析すれば裏を取ることができます。
こうした疑問にはイエス・ノーで答えられるはずですが、誤情報がついて回りがちです。
誤情報やデマ、またはフェイクニュースは、多くの人に短時間で損失を与えることができます。フェイクニュースそのものは、技術が進化するよりずっと前から存在していましたが、ソーシャルメディアの誕生が問題を増幅してしまいました。
2018年のTwitterの研究では、虚偽のニュース記事はボットより人間がリツイートすることが多く、真のニュース記事より70%多くリツイートされていました。
同じ研究では、真のニュースが1,500人の人に到達するには虚偽のニュースの約6倍の時間がかかることや、真のニュースが1,000人以上に届くこと自体が稀であるのに対し、虚偽のニュースは10万人に届く場合もあることなどを明かしています。
2020年の米国大統領選挙や新型コロナウイルスワクチン、気候変動といった話題は、すべて誤情報キャンペーンのテーマとなり、深刻な結果を引き起こしています。
新型コロナウイルスに関する誤情報は、1日あたり5000万〜3億ドル(約70〜420億円)の損失を社会に与えたと推定されています。政治的誤情報の代償は、内乱や暴力、民主主義制度における公共の信頼の崩壊といったことにつながります。
誤情報を検知するには
誤情報の検知は、アルゴリズムと機械学習モデル、AIと人間の組み合わせで行なわれます。
そこで大事なのは、誤情報が検知されたときに、誰が責任を持って情報拡散をコントロールするか(阻止はできないにしても)ということです。ソーシャルメディア企業は、そのネットワーク上での情報拡散をコントロールしうる立場にいます。
非常にシンプルながらも効果的な誤情報生成方法は、ニュース記事を都合よく編集することです。
例えば「ウクライナの演出家・脚本家が逮捕され『テロリズムの正当化』で糾弾された」という文を見てみましょう。実はこの文は、実際にあったニュース記事の一文の「ロシアの」を「ウクライナの」に置き換えたものなのです。
オンラインの誤情報を検知して拡散をコントロールするには、複数段階でのアプローチが必要です。
ソーシャルメディアのコミュニケーションは、ネットワークとしてモデル化できます。
ユーザーがネットワークモデルの点であり、コミュニケーションが点と点をつなぐリンクです。ポストのリツイートまたは「いいね」は、2点間のつながりを反映します。
このネットワークモデルを誤情報拡散の場合と事実拡散の場合で見比べると、前者の方がはるかに、情報のコアと周辺が高密度な構造になりがちです。
私の研究グループは、コミュニケーションネットワークから密な構造を検知する効率良いアルゴリズムを開発しました。この情報をさらに分析して、誤情報キャンペーン事案を検知することも可能です。
このアルゴリズムはコミュニケーション構造のみに基づいているので、本当に誤情報があるかどうかの確認には、アルゴリズムと人手で行うコンテンツ分析が必要になります。
改ざんされた記事の検知には、慎重な分析が必要です。
我々の研究ではニューラルネットワークに基づくアプローチを使い、文章の情報と外部の知識ベースを組み合わせて改ざんを識別しました。
拡散をコントロール
誤情報の検知は戦いの半分でしかなく、情報拡散を止めるには、断固とした行動が必要です。
ソーシャルネットワーク上で誤情報拡散を止める方法としては、インターネットプラットフォームによる介入や、フェイクニュースキャンペーンを中和する対抗キャンペーン展開などがあります。
プラットフォーム側からの介入には、ユーザーアカウント利用停止のようなハードな形もあれば、疑わしいポストにラベル付けするといったソフトな方法もあります。
アルゴリズムやAIによるネットワークは100%信用はできません。真実の情報にうっかり口出ししてしまうことも、フェイク情報を放置してしまうことも、それぞれ代償があります。
我々はその点に関しても対応を考えています。情報の真実らしさや人気を予測し、プラットフォームとして対応すべきかどうかを自動判断する、スマートな介入ポリシーを設計したのです。
フェイクニュースに対抗
誤情報対抗のキャンペーンを行うにあたっては、事実とフェイクでは拡散の速さ・到達範囲がまったく違うことを考慮する必要があります。
さらに、記事に対する反応は、ポストの長さや話題、そしてユーザーによって違ってきます。
我々のアプローチではこれらの要素をすべて紙して、誤情報の拡散を効果的に抑える対抗キャンペーンを編み出します。
最近の生成AI、特にChatGPTのような大規模言語モデルを使ったものの進化によって、記事を高速かつ大量に作り出すことが簡単になりました。
そのため誤情報検知や情報拡散防止を大規模かつリアルタイムに行なうことは、より難しくなっています。我々の研究は、社会に甚大な影響を与えるこの課題に対応すべく、これからも続いていきます。