子ども&肌色濃い人のデータもしっかり入れてよ!
イギリスのキングス・カレッジ・ロンドンの新しい研究で、無人自動運転車システムにはバイアスの問題が存在していると判明しました。
この研究では、自動運転に使用される8つのAI搭載歩行者検出システムの調査が行なわれました。
研究の結果は?
研究チームは8,000枚以上の画像を分析。
その結果、自動運転車システムは、子どもより成人の歩行者を約20%、そして暗い肌色の歩行者より明るい肌色の歩行者を7.5%以上、正確な結果で検出する能力があることがわかりました。
AIは暗い照明や低設定の場合、濃い肌色の人々を検出する能力がさらに低くなり、その結果、夜間の安全性がより低下してしまうことがわかっています。
自動化が進む中、将来的に子どもや有色人種の人が道路を横断する際、より危険になってしまう可能性があります。
研究の著者であるJie Zhang博士は、プレスリリースでこう述べています。
「AIにおける公平性は、特権を持つグループと持たないグループを同じように扱うことですが、自動運転車に関しては公正がない状態です。
自動車メーカーは歩行者検出に使用しているソフトウェアの詳細を公開していませんが、一般的にソフトウェアは私たちの研究で使用したのと同じオープンソースシステムに基づいて構築されています。
ですので、実際の自動車メーカーの歩行者検出も、私たちの研究結果と同じ偏見の問題に直面している可能性が非常に高いです」
自動運転タクシーがすでに事故
著者が述べているように、市場に展開している自動運転車企業が使用しているソフトウェアを検証しているわけではありませんが、自動運転車がこれから増えていくにつれて、ますます増加する安全上の懸念を示していることは確かですね。
今月カリフォルニア州政府は、サンフランシスコで自動運転タクシーを24時間運行する許可を自動運転タクシー会社であるWaymoとCruiseに出しています。
ですが、すでに自動運転タクシーは事故を起こしていて、サンフランシスコ市内では抗議の声が上がっています。
Waymo社の広報は、この研究が同社の車両で使用されているすべてのツールを表しているわけではないと反論しています。
「Waymoでは、歩行者を検出するためにカメラ画像だけを使用しているわけではありません。
カメラだけでの検出が難しい環境では、さらに積極的に感知するために、ライダーやレーダーを含むセンサーを使用しています」
研究チームによると、子どもや暗い肌色の人の検出率が下がってしまう大きな問題として、AIを訓練するために使用しているデータの中に成人や明るい肌色の人が多く含まれているため、このバイアスが発生しているとのこと。
アルゴリズムは、データに存在するバイアス、そしてそれをアルゴリズムを作った人の心を反映していると言われています。
一般的な例として顔認識ソフトウェアでは特に、女性、暗い肌色の人、アジア系の人の顔に対して一貫して精度が低いという結果が出ています。