AIは女性の下着や運動着を文脈を無視して「性的」としてシャドウバンすることが判明、女性主導のビジネスに損害を与えていると専門家

GIGAZINE



近年ではSNSなどのプラットフォームに投稿されるコンテンツの検閲にAIが用いられており、過激なコンテンツの拡散を抑制したり、時にはアカウントを規制したりしています。ところが、GoogleやMicrosoft、Amazonなどの大手テクノロジー企業が提供している検閲用AIツールは、女性の写真を同じくらいの露出度の男性よりも性的であると判定し、女性主導のビジネスにダメージを与えて社会格差を助長していることが、イギリスの大手新聞・The Guardianの調査によって明らかになりました。

‘There is no standard’: investigation finds AI algorithms objectify women’s bodies | Artificial intelligence (AI) | The Guardian
https://www.theguardian.com/technology/2023/feb/08/biased-ai-algorithms-racy-women-bodies

2021年5月、AI起業家であるGianluca Mauro氏がビジネス系SNSのLinkedInに、AIによる画像トリミングについての投稿を行いました。ところが、通常のMauro氏の投稿は1時間で約1000件ほどの閲覧数があったのに対し、その時の投稿は1時間でわずか29件の閲覧数しか獲得できなかったとのこと。

何かがおかしいと思ったMauro氏は、投稿に含まれた写真にチューブトップの女性が写っていたことが原因ではないかと考え、試しにテキストは変えないまま別の写真を添付して投稿を行いました。すると、新しい投稿は1時間で849件の閲覧数を獲得し、最初に投稿したものは拡散を抑制する「シャドウバン」の影響を受けたことが示唆されました。


LinkedInでは親会社のMicrosoftが提供するコンテンツモデレーションAIが使用されており、MicrosoftはAIアルゴリズムについて「画像内のアダルトコンテンツを検出し、開発者がソフトウェアでこれらの画像の表示を制限できるようにします」と説明しています。

そこでThe Guardianは、MicrosoftのAIアルゴリズムとLinkedInを使用して実験を行いました。左の画像には水着で下腹部のみを隠している男性が2人、右の画像は水着で下腹部と胸部を隠した女性が2人写っています。


男性の方は水着の丈が長いとはいえ、胸部も隠している女性の方が全体的な露出度は少ないように思われますが、Microsoftのアルゴリズムが判定したRacy score(きわどさのスコア)は左の画像が約14%、右の画像が約96%となり、右の画像のみが「きわどいコンテンツ」として分類されました。実際に以下の写真をLinkedInに投稿したところ、女性の写真は1時間でわずか8回しか閲覧されなかった一方、男性の写真は1時間に655回も閲覧されたそうで、女性の写真はシャドウバンされてしまったことが示唆されました。

The GuardianはGoogleとMicrosoftが提供するコンテンツモデレーションAIを使用し、数百枚の写真をテストしました。その結果、AIは明らかに男性よりも女性の写真を「性的」だと判定する傾向があることが判明。たとえば、左の写真についてのきわどさはGoogleのAIで「5段階中5」、MicrosoftのAIで「100%」と判定された一方、右の写真はGoogleのAIで「5段階中3」、MicrosoftのAIで「3%」でした。


ピラティスをしている女性の写真も、GoogleのAIは「5段階中5」、MicrosoftのAIは「98%」のきわどさだと評価していますが、男性はそれぞれ「5段階中3」と「3%」のきわどさしかないと評価されています。


以下の2枚の写真を見比べてみると、男性は写っている範囲では衣服をまったく身に着けていないにもかかわらず、スポーツブラを身に着けた女性よりも性的ではないと判断されています。


同様の傾向は医療写真の判定でも確認されました。アメリカ国立がん研究所が公開している臨床乳房検査の様子を撮影した以下の写真について、GoogleのAIは「5段階中5」、MicrosoftのAIは「82%」のきわどさだと判定したほか、AmazonのAIも「露骨なヌード」と分類しました。また、妊娠中の女性の腹部についても性的なものと判定される傾向があったとのことです。


さらにMicrosoftのAIが性的だと判断するラインについて調査するため、上半身裸のMauro氏が女性用のブラジャーを着脱して、MicrosoftのAIにきわどさを測定させる実験も行われました。上半身裸のMauro氏が手を後ろに回した状態のきわどさは16%。


ところが、女性用のブラジャーを着用すると、先ほどより露出度は下がっているのにきわどさが97%に上昇。


ブラジャーを外して体の横で掲げると、最初と露出度は変わっていないにもかかわらず、きわどさが99%になりました。南カリフォルニア大学の教授であるケイト・クロフォード氏はこのAIの判定について、「ブラジャーが『多くの女性が毎日身に着けている衣服』としてではなく、『本質的にきわどいもの』として非文脈的に見られていることを示すものです」と述べました。


コペンハーゲンIT大学のコンピューターサイエンス教授であり、オンラインの害について研究しているLeon Derczynski氏は、「これはまったく野蛮です」「女性の性的客体化はシステムに深く埋め込まれているようです」とコメント。The Guardianは、多くのソーシャルメディア企業がAIアルゴリズムを使ってコンテンツを検閲しているため、AIに組み込まれたジェンダーバイアスが女性のシャドウバンにつながっている可能性があると主張しています。

AIにバイアスが組み込まれてしまうのは、トレーニングに使用されるデータのラベル付けを人間が行っているためです。AI企業・Hugging Faceの主任倫理研究者であるマーガレット・ミッチェル氏は、これらのアルゴリズムのトレーニングに使用された写真は、おそらく異性愛者の男性によってラベル付けされたものだろうと指摘。理想的には、テクノロジー企業がデータセットに多様な見解が組み込まれていることを確認し、どのような人々がラベル付けを行ったのかについて徹底的に分析するべきですが、ミッチェル氏は「ここには品質基準がありません」と述べました。

AIが男性よりも女性の写真を性的だと判断するジェンダーバイアスは、実際に女性のビジネスに悪影響を与えています。オーストラリアの写真家であるベック・ウッド氏は妊娠や母乳育児など、子どもと母親の大切なひとときを写真に収めることを仕事にしていますが、宣伝活動のほとんどをInstagramに依存しているため、アルゴリズムによるシャドウバンが収益に大きな悪影響を及ぼします。


ウッド氏は「Instagramは人々があなたを見つける場所です。仕事を共有しなければ、仕事は得られません」と述べており、自分が撮影した写真の一部をInstagramに投稿しています。しかし、ウッド氏の写真にはどうしても妊娠していたり授乳中だったりする女性が写っているため、たびたびInstagramから写真を削除されているほか、検索結果での表示を許可しないという通知も受け取ったことがあるとのこと。ウッド氏は時間の経過とともに事態が良くなると考えていましたが、2022年はむしろ状況が悪化しており、ビジネス的には最悪の年となってしまったそうです。

Instagramで1万3000人以上のフォロワーを抱えるウッド氏は、「『この投稿ですべてが失われてしまうのでは?』と思うと、写真を投稿するのが非常に怖いです」と述べています。アカウントの凍結を恐れたウッド氏は投稿する写真では乳首を隠すようになりましたが、そもそも「女性は自分自身を表現し、自分自身を祝い、すべての異なるサイズと形で見られるべき」という信念で写真家としての活動を始めたため、女性の体を隠した写真を投稿することの矛盾に苦しんでいるそうです。「私は、自分がそのばかげたサイクルを永続させる一端を担っているような気がします」と、ウッド氏は述べています。

ミッチェル氏は、この種のアルゴリズムは社会的偏見を再現しており、疎外されやすい人々がさらに疎外される悪循環を生み出すと指摘。「この場合、『女性は男性よりも体を隠さなければならない』という考え方が、女性に対する社会的なプレッシャーを生み出し、あなたにとっての常識となってしまうのです」と述べました。

この記事のタイトルとURLをコピーする

Source

タイトルとURLをコピーしました