産経ニュース

人工知能が「偏見」を学んでしまった 画像認識で「白人男性」より「黒人女性」の識別率が低かった理由

WIRED WIRED

記事詳細

更新


人工知能が「偏見」を学んでしまった 画像認識で「白人男性」より「黒人女性」の識別率が低かった理由

訓練用データセットに潜む問題点

マサチューセッツ工科大学(MIT)メディアラボのジョイ・ブォラムウィニと、スタンフォード大学の大学院生で現在はマイクロソフトの研究員も務めるティムニット・ゲブルーは最新の研究で、ヨーロッパとアフリカの国会議員の写真データ1,270枚を顔認識アルゴリズムに読み込ませた。肌の色の幅広さを反映させるため、皮膚科学で使われる「フィッツパトリック分類」という分類法に基づいて選ばれたものだ。

研究内容はアルゴリズムシステムの公平性や説明責任、透明性について議論するカンファレンス「FAT*」(18年2月23日から開催)でも発表される。

ブォラムウィニらはこの画像データ集を使って、マイクロソフト、IBM、Face++(北京拠点のスタートアップであるMegviiの一部門)が開発した商業用の顔認識クラウドサーヴィスをテストした。ジェンダー識別機能を調べるためだ。その結果、どのシステムも女性よりも男性の顔で、暗い肌よりも明るい色の肌顔でよく機能したという。

肌の色が最も明るい男性の画像集を分析させると、マイクロソフトのサーヴィスは毎回、写真に映った人間を男性と判断した。IBMのアルゴリズムも誤判定率は0.3パーセントにすぎなかった。暗い肌の色の女性の写真では、マイクロソフトで同21パーセント、IBMとFace++で同35パーセントに上昇した。

マイクロソフトは声明で、「顔分析技術の精度を高める対策にはすでに着手しており、訓練用のデータセットの質を向上させるべく投資を行っています。AIの公平性を保つことは重要な課題であり、真摯に受け止めています」と表明した。「過去に異なる色の肌のグループを使ったテストが行われたことはあるか」という質問には回答しなかった。

IBMの広報担当者は2月下旬、ジェンダー判別サーヴィスの新ヴァージョンを採用すると発表した。もともと予定されていたアップデートに今回の研究結果を反映させ、異なる肌の色での精度を確認するためのデータセットを社内で新たに作成したという。

IBMの年次報告書によると、このデータセットを使って改良版をテストしたところ、暗い肌の色の女性の写真で誤判定率は3.5パーセントにとどまったという。明るい肌色の男性を判別する際の誤判定率0.3パーセントには及ばないが、ブォロムウィニらの研究の数字と比べれば10分の1にまで減少した。Megviiからの回答はなかった。

続きを読む

このニュースの写真

  • 人工知能が「偏見」を学んでしまった 画像認識で「白人男性」より「黒人女性」の識別率が低かった理由