産経ニュース

グーグルの画像認識システムはまだ「ゴリラ問題」を解決できていない 見えてきた「機械学習の課題」

WIRED WIRED

記事詳細

更新


グーグルの画像認識システムはまだ「ゴリラ問題」を解決できていない 見えてきた「機械学習の課題」

さまざまな人種の「人間」を人工知能はどう見るか

そこで第3のテストでは、顔認識技術の研究に使われる写真1万枚以上を使って、Google フォトが人間をどのように見ているかを調べてみた。

すると、「アフリカ系アメリカ人(African American)」で結果として出てきたのは、なぜかブルーバック亜科(アラビア半島やアフリカに生息するウシ科の動物)の写真だけだった。「黒人男性(black man)」「黒人女性(black woman)」「黒人(black person)」で検索すると、一連の白黒写真が表示される。

しかし、性別は認識するが、人種はできないようだ。黒い肌の人々を正しく検出できたキーワードは「アフリカ系(Afro)」と「アフリカ人(African)」だけで、それも完全に正確ではなかった。

グーグルは『WIRED』US版の取材に対し、15年の事件以後は「ゴリラ」が検索単語からもタグからも外されたほか、「チンパンジー(chimp、chimpanzee)」と「サル」もブロックされていることを認めた。広報担当者は、Google フォトではユーザーが間違いを報告するシステムがあることを強調したうえで、「画像分類の技術はまだ新しく、残念ながら完璧からはほど遠いものです」としている。

浮き彫りになった機械学習の課題

ゴリラの画像を巡る同社の慎重な対応は、既存の機械学習技術の欠陥を明らかにしている。

十分なデータと計算能力があれば、画像や文字情報を分析するソフトウェアをかなりの精度にまで訓練することは可能だ。しかし、ソフトウェアをその訓練を超えたレヴェルに到達させることは容易ではない。最高のアルゴリズムでさえ、人間のように常識や抽象概念といったものを用いて世界を解釈する能力はもたないのだ。

結果として機械学習のエンジニアたちは、訓練に用いたデータに存在しない“例外”の心配をしなければならない。ヴァージニア大学教授のヴィセンテ・オルドニェス・ロマンは、「システムが実際に稼働したときに、それが出くわすものすべてをモデル化するのは非常に困難です」と言う。ロマンは昨年、画像認識に使われている機械学習アルゴリズムが、ジェンダーロールをめぐる社会的偏見を検知し、それを増幅する可能性があることを明らかにした研究に携わった。

Google フォトには、不完全な状況で撮影された写真が非常に多くアップロードされる。データベースにある画像の膨大な量を考えれば、特定の大型類人猿を別の種類のそれと取り違えるといった失敗は、ほぼ確実に起こるだろう。

続きを読む

このニュースの写真

  • グーグルの画像認識システムはまだ「ゴリラ問題」を解決できていない 見えてきた「機械学習の課題」