産経ニュース

人工知能が「偏見」を学んでしまった 画像認識で「白人男性」より「黒人女性」の識別率が低かった理由

WIRED WIRED

記事詳細

更新


人工知能が「偏見」を学んでしまった 画像認識で「白人男性」より「黒人女性」の識別率が低かった理由

 画像に写った人間のジェンダーを判別する人工知能(AI)をテストしたところ、その分析精度が対象となるジェンダーや肌の色によって大きく変わることがわかった。その原因を探った結果からは、訓練用データセットに偏りがあるなどの課題が浮き彫りになってきた。

IMAGE: GETTY IMAGES IMAGE: GETTY IMAGES

機械学習の技術が進化し、顔認証は消費者向け製品から警察機関まで幅広く活用されるようになってきた。ところが、IBMやマイクロソフトの商業向け顔分析システムでテストを行なったところ、肌の色が黒い人の認識精度が落ちることがわかった。

テストの対象となったのは、写真に映った人間のジェンダーを判別する顔分析サーヴィスだ。2社のアルゴリズムは、肌の色が明るい男性をほぼ完璧に識別した一方、肌の色が黒い女性の分析では頻繁に判断を誤ったという。原因は、顔分析アルゴリズムを訓練するためのデータに暗い肌の色が不足していたためとみられている。

広がる利用シーン、増える「残念な事例」

人工知能(AI)は、特定のグループに対する社会的偏見を身につけてしまったらしい。今回、紹介するのはその最新のNG集といえる。残念な事例は増えるばかりだ。

例えば、グーグルのフォトアルバムサーヴィスで3年近く前、アルゴリズムが黒人をゴリラとタグ付けした問題があった。解決策として「ゴリラ」や「サル」といった検索ワードが削除されたが、それ以上の対応はなされていない[日本語版記事]。

消費者向け製品や商用システム、政府のプログラムなどで使われる機械学習システムの精度をどう担保するかという問題は、いまAIの分野で主要なテーマ[日本語版記事]となっている。ジョージタウン大学のロースクールが2016年に発表したレポートによると、顔認識技術は地域や州の警察、FBIでもルールを設けず、広く利用されているという。さらに、分析対象がアフリカ系アメリカ人だった場合、認識の精度が低いことも明らかにしている。

続きを読む

このニュースの写真

  • 人工知能が「偏見」を学んでしまった 画像認識で「白人男性」より「黒人女性」の識別率が低かった理由