グーグルのAI倫理研究者は、なぜ解雇されたのか? 「問題の論文」が浮き彫りにしたこと(2/3ページ) - 産経ニュース

メインコンテンツ

グーグルのAI倫理研究者は、なぜ解雇されたのか? 「問題の論文」が浮き彫りにしたこと

論文はグーグルやその技術を攻撃しているわけではない。今回の騒ぎがなければ、公開されても同社の評判に傷がつくようなことはなかったであろう。論文の内容は、自然言語を分析して文章を生成するAIを扱った過去の研究の考察が中心で、新たな実験はない。

論文では過去の研究の分析から、言語解析AIが大量の電力を消費するほか、オンラインに存在する偏見を再生産してしまうことが示されている。論文は同時に、言語解析AIの開発に使われるデータをきちんと記録するなど、研究者がこの技術を利用する上で注意を払うことを提案している。

この分野でのグーグルの貢献(一部は同社の検索エンジンに応用されている)も取り上げられているが、問題のある事例として紹介されたわけではない。

論文を読んだユニバーシティ・カレッジ・ロンドンの名誉准教授のジュリアン・コーネビスは、「しっかりと調査した優れた論文です」と語る。「この論文が騒ぎを引き起こす理由がわかりません。解雇となると、なおさらです」

社内メールが原因?

グーグルの反応は、経営陣がゲブルや周囲が考えるよりも倫理的問題について敏感になっていることの証拠かもしれない。もしくは、論文以外にも理由があったという可能性もある。グーグルはコメントに応じていない。

社内改革を求めるストライキに参加したことのあるAI倫理の研究チームのメンバーはブログで、内部の研究評価プロセスがゲブルに不利になるよう変更されたのではないかと指摘した。またゲブルは先に、社内のメーリングリストで送信したメールが解雇の原因かもしれないと説明している。ゲブルはメールで、グーグルの多様性プログラムはうまく機能していないと指摘し、同僚たちに参加しないよう促したという。

ゲブルの論文は「確率変数のオウムの危険性について:言語モデルは大きくなり過ぎる可能性があるのか?」というタイトルで(ついでに「?」の後にはオウムの絵文字が付いている)、AIで研究が最も活発な分野を批判的な視点から考察している。

AIの世界では2010年代初頭に、機械学習という技法を使うと音声や画像認識の精度が飛躍的に向上することが明らかになり、そこからグーグルを含むテック大手は多額の投資を続けてきた。機械学習のアルゴリズムを使えば、タグ付けしたデータセットで訓練することで、AIは例えば音声の書き起こしといった特定のタスクを非常に効率的にこなせるようになる。

なかでもディープラーニング(深層学習)と呼ばれる手法では、学習アルゴリズムに大量のサンプルデータを組み合わせた上で強力な処理能力をもつコンピューターを使うことで、驚くべき結果が出ている。

ここ数年は自然言語に機械学習モデルを応用する研究が続けられており、インターネット上に存在する無数のテキストをサンプルデータして利用し、質問に答えたり文章を書くといったことができるAIが開発されている。