グーグルのAI倫理研究者は、なぜ解雇されたのか? 「問題の論文」が浮き彫りにしたこと(3/3ページ) - 産経ニュース

メインコンテンツ

グーグルのAI倫理研究者は、なぜ解雇されたのか? 「問題の論文」が浮き彫りにしたこと

AIの限界

ただ、AIは言語を統計的なパターンとして受容しているだけで、わたしたちと同じように世界を理解しているわけではない。このため、人間から見れば明白な間違いを犯すことがある。一方で、人間の発する問いに答えを与えたり、人間が書いたような文章を作成したりといったことが可能になる。

グーグルの自然言語処理モデル「BERT」は、長めの検索クエリの処理を向上させるために使われている。またマイクロソフトは、非営利団体OpenAIが開発した汎用言語モデル「GPT-3」のライセンスを取得することを明らかにした。GPT-3は高度な文章を生成できることで知られ、メールや広告のコピーを自動作成するために利用されている。

ただ、AIには限界があり、それが引き起こしうる社会的影響を考えるべきだとして、言語AIの進化に警鐘を鳴らす研究者もいる。ゲブルとベンダーの論文はこうした声をまとめたもので、AIの研究開発ではどのような点に留意すべきかを提案しようとした。

論文では、大がかりな言語AIのトレーニングには、クルマが生産されてから廃車になるまでに消費する全エネルギーと同じだけの電力が必要になる可能性があるとした過去の研究や、AIがネットにある陰謀論を模倣して新たな説を作り出せることを証明した研究が引用されている。

グーグルの研究者が今年に入って発表したBERTの問題点についての研究も、そこには含まれていた。ゲブルはこの研究には関与していないが、BERTは脳性麻痺や視覚障害といった障害を表す言葉を否定的な表現と結びつける傾向があるという。なお、この論文に携わった研究者は全員が現在もグーグルで働いている。

食い違う意見

ゲブルたちの論文は、言語AIのプロジェクトでは慎重になるよう提言し、AIの訓練に使ったデータセットを記録し、問題点を文書化するよう呼びかけている。論文はまた、AIの精度と問題点を評価するために考え出されたモデルをいくつか紹介している。このうちゲブルがほかの研究者たちと共同で開発したあるモデルは、グーグルのクラウド部門で採用されている。論文は研究者たちに対して、開発者としての視点だけではなく、言語AIの影響を受けるであろう人々の視点に立つよう求めていた。

グーグルのディーンはゲブルの解雇に関する声明のなかで、問題の論文は質が低く、言語AIの効率を高めて偏見を最小限に抑えるために何をすべきかを提案した研究が引用されていないと指摘している。ベンダーはこれに対し、論文では128の引用があり、さらに追加していくつもりだと語っている。引用の追加は学術論文の公開過程ではよくあることで、通常はこのために論文が撤回されることはない。

また、ベンダーを含むAI研究者たちは、この分野では偏見を確実に排除できるような方法はまったく見つかっていない点を指摘する。アレン人工知能研究所(AI2)の最高経営責任者(CEO)オーレン・エツィオーニは、「偏見にはさまざまな種類があり、模索を進めている状況です」と言う。

AI2は、ゲブルの論文で引用された研究のテーマを含む言語AI全般について独自の研究を進めている。エツィオーニは「この分野で働くほぼすべての人が、こうしたモデルの影響力が増しており、責任をもって運用していく倫理的義務があることを認識しています」と語っている。