PR

WIRED WIRED

AIをもっと賢くするには、だましてやればいい? フェイスブックが新プロジェクトを立ち上げた理由

 人工知能(AI)と、それをだまそうとする人間たちを闘わせる--。そんなユニークな実験プラットフォームを、このほどフェイスブックが立ち上げた。その目的は、既存のテストでは計りきれないAIの「真の賢さ」を計測することにある。

TEXT BY TOM SIMONITE

TRANSLATION BY MUTSUMI FUNAYAMA

WIRED(US)

EUGENE MYMRIN/GETTY IMAGES
EUGENE MYMRIN/GETTY IMAGES

フェイスブックの人工知能(AI)研究者たちは、アルゴリズムを人間の“悪知恵”に触れさせることで改良しようとしている。

フェイスブックのAI研究所は9月24日、「Dynabench」という名のプロジェクトを立ち上げた。このプロジェクトでは仮想の円形闘技場のようなものがつくられ、そこで人間たちがAIシステムをあの手この手でだまそうとする。

例えば、文章に込められた感情を評価するAIシステムに、ネガティブに見えるように工夫して書かれたポジティブな文章を読ませて誤解させたり、ヘイトスピーチのフィルターをだましたりといった具合だ。最初はテキスト処理ソフトウェアを対象に実験が進められるが、今後は音声や画像、インタラクティブゲームなどの分野も扱うことになるかもしれない。

AIの賢さをより正確に計測する

人間にAIを挑発させる目的は、AIの本当の賢さを(あるいは愚かさを)計測し、さらなる改良のためのデータを得ることだ。

AIの賢さを評価するとき、科学者たちは通常「ベンチマーク」と呼ばれる標準的なデータセットを使い、AIがどれほど正確に画像をラベリングしたり、複数選択肢の質問に答えられたりするかスコアをつけていく。

しかし、フェイスブックの研究者ダウ・キーラによると、これらのテストでは研究者たちが重視している内容を計測できないのだという。「本当に興味があるのは、AIが人間とかかわったときに間違いを犯す頻度です。現在のベンチマークでは、わたしたちがAIの自然言語処理で素晴らしい成果を出しているように見えますが、それは勘違いです。まだまだ、やるべきことはたくさんあるのですから」

研究者たちはAIが人間にだまされたケースを分析することで、アルゴリズムをもっとだまされにくくできるはずだと期待している。

一般のネットユーザーも、AI研究者たちと同じように、AIと対戦してバーチャルバッジを獲得する体験を楽しんでくれればとキーラは期待している。だが、このプラットフォームでは、アマゾンのクラウドソーシング・サービス「Amazon Mechanical Turk」を通じて、研究者たちが研究に貢献したユーザーに報酬を支払うこともできるようになる。

また、Dynabenchプラットフォームでは、スタンフォード大学やノースカロライナ大学、ユニバーシティ・カレッジ・ロンドンのAI研究室もAIのテストを実施していくという。

答えを察してしまうAIの問題

より複雑で現実に近い状況にコンピューターを対応させるには、この分野の研究をさらに広げる必要がある。フェイスブックでAI担当バイスプレジデントのジェローム・ペセンティをはじめ、そう唱えるAI研究者は増えてきた。フェイスブックによる今回のプロジェクトも、こうした流れのなかで始まったものだ。

続きを読む

あなたへのおすすめ

PR

PR

PR

PR

ブランドコンテンツ