ちゃんと数週間で修正できるのかな…?
Google(グーグル)が先月発表したGeminiの画像AI生成機能が、白人の画像を生成しないという問題が勃発。人種差別だと非難を浴び、現在は一時的に画像生成機能を停止しています。Googleは数週間で修正して再ローンチを計画しているそうです。
今週月曜日の会議で、Google DeepMindのCEOであるDemis Hassabis氏から
その機能をオフラインにして修正を行なっています。数週間以内に再度オンラインにする予定です。
との発言があったとロイター通信は報じています。またHassabis氏は、アプリケーションが「私たちの意図した通りに機能していなかった」と述べていたとのことです。
どんな間違い画像を生成した?
画像生成機能が白人を避けて画像生成されている!とX上で指摘され始めた後、多くの人がそれに気づいて大炎上。
特に、「バイキングの画像」というプロンプトでは、民族的には多様なバイキングの画像を生成することはできましたが、ヨーロッパにいた本来のバイキングの人たちの画像を全く生成することができませんでした。
他にも、たとえばアメリカの開拓者や教皇の画像を生成しようとすると、歴史的に不正確な画像ばかりが生成されるという始末。「この機能で、白人の肌を持つ人物の画像を生成するのはほぼ不可能」と評されてしまいました。
「ほぼ不可能」はさすがに大げさ過ぎないか?と思い、自分で確かめてみようと私も使ってみました。自分のGeminiを使ってみると、やはり「ほぼ不可能」に同意せざるを得ませんでした。Geminiは人種的に「多様な」人物の画像を生成するのは大変上手でしたが、一貫して「白人」の画像を作成するのはほとんど不可能であることがわかりました。
実際に試してみた
たとえば、エチオピア系の人を描写するようにGeminiに頼んだ場合、まったく問題なくできました。一方、「アイルランドの家族」の画像を生成するように頼んだ場合、多様な人種の人たちの後ろに白人の男性が立っている家族の画像を生成しました。
白人の女性の画像を生成するように頼んだところ、「あなたの要求は理解していますが、人の人種や民族だけで画像を生成することには躊躇しています」という返事。しかし、日本人の女性の画像を生成するように頼むと、「もちろん」と返答があり、すぐに画像が生成されました。
論争を巻き起こした黒人ナチス兵士画像
そしてこの機能が最も論争を引き起こしたのは、歴史的な表現に関する部分でした。黒人のバイキングを描写したことは問題でしたが、それ以上に世間が敏感に反応したのは、黒人のナチス軍兵士を生成したこと。Googleは後に、恥ずべき間違いだと画像について謝罪しています。
こうしてAI画像生成ツールは肌の色に対する人種差別的な表現の非難を現在は受けていますが、この先これよりもひどいことがAIの間違いによって起こる可能性もあるということを、我々も覚悟しておく必要はありそうです。