「仲良くなる方法」を教えてよ、AI。
アメリカ軍もいつか戦場にAIを配備するんだろうな…と思っていましたが、すでに始まっていたようです。
Bloomberg Newsの報道によると、国防総省は空爆の標的を特定するためにコンピュータービジョンのアルゴリズムを使用しているそうです。つい最近も、中東での任務の一環として、85回以上の空爆にこのアルゴリズムが使われたんだとか。
2月2日にイラクとシリアの各地で行なわれた空爆では、「ロケット弾、ミサイル、ドローンの保管庫、民兵の作戦本部などを破壊または損傷させた」とBloombergが報じています。
一連の攻撃は、1月にヨルダンで3人の米軍兵士が死亡した無人機攻撃に対するバイデン政権による組織的な対抗措置の一環でした。米政府は無人機攻撃について、イランの支援を受けた工作員を非難しています。
AIが標的を捕捉する
米中央軍のスカイラー・ムーア最高技術責任者(CTO)は、Bloombergに対し「我々は脅威がありそうな位置を特定するために、コンピュータービジョンを活用しています」と話しています。コンピュータービジョンは、コンピューターを用いて特定の物体を「視覚」で認識することを目指す研究分野のこと。
国防総省では2017年より、省全体でAIや機械学習技術の導入を加速するためのプログラム「プロジェクトメイブン」を進めてきました。その一環として、AIを「標的」の捕捉に利用しているということになり、なんとも穏やかではありません。
イスラエルもAIを使って空爆?
昨年末には、イスラエルがガザに空爆を実施する際の標的選択に、AIソフトを使用しているというニュースもありました。
“The Gospel”と名付けられた同プログラムは、膨大な量のデータを収集し、つまりは「おすすめの標的」を分析官(これは人間)に推奨するシステムだそうです。その標的とは、武器であったり、乗り物であったり、生きた人間であったりもします。
イスラエル政府関係者によれば、このプログラムはわずか10~12日の間に、200もの標的を提案することができるのだそう。ただ、AIによるターゲティングですべて決めるのではなく、その後に人間の分析官も関わりながら実際の標的を決めていくということです。
ヒューマンエラーは減る…けど
爆撃の標的をAIソフトに決めさせるなんて、非常に恐ろしい気がします。とんでもない間違いを犯したらどうするのか…とも思います(そもそも爆撃自体が恐ろしいことです)。
ただこれまでも、米軍は標的を誤って空爆を実行したことがあったともいえます。かつての政権では、結婚パーティーとテロリストの本部を混同してしまったこともありました。
ならばソフトウェアに任せた方が、人間の過失が減って都合が良いということになるのでしょうか。だって、標的の人物を間違って攻撃してしまったり、軍需備蓄基地ではなく医薬品工場を爆撃したりしても、「ソフトウェアの不具合のせい」と言ってしまえばいいわけですから(でも、どうせAI活用するなら、戦わないで済む方法を一緒に考えてほしい)。