人工知能(AI)が世界をどうやって認識しているかについては謎が多い。こうしたなかグーグルの研究チームが、ニューラルネットワークが物体を識別するプロセスを可視化することに成功した。これまでブラックボックスだった過程が見えることで、理論的には誤認のリスクを減らすことも可能になるというが、そこにはリスクも潜んでいる。
TEXT BY GREGORY BARBER
TRANSLATION BY RYO OGATA/GALILEO
WIRED(US)
グーグルの人工知能(AI)開発チーム「Google Brain」の研究者であるシャン・カーターは、「風変わりなもの」を持って小学2年生になる娘のクラスを訪ねた。それはサイケデリックな大量の画像で、曖昧な形が寄せ集まって歪んだ風車のように色彩が渦巻いている。
これらの画像を見せられた児童たちは、ぼんやりとしたしみのひとつを犬の耳だとすぐに気づいた。つまり、7歳の子どもたちがニューラルネットワークに内包されたビジョンを解読したのだ。このことに、カーターは喜んでいた。
研究者たちは、ディープラーニングのブラックボックスに風穴を開けようと試みている。カーターもそのひとりだ。
ニューラルネットワークは、画像に含まれる対象を識別するといったタスクを見事にやってのけることを証明した。しかし、その際にどうやって識別しているのかについては大部分が謎のままだ。ニューラルネットワーク内部の働きには、人間の目が届かない。コンピューターによる処理が幾重にも重なっており、エラーやバイアスを突き止めるのは難しいからだ。
こうしたなか、彼のチームはニューラルネットワークの内部を垣間見ることができる論文をこのほど発表し、視覚概念がどのように構築され整理されているのかを示した。
“芸術家”になり得るニューラルネットワーク
この研究が始まったのは2015年のことだ。論文の共著者であるクリス・オラーは当時、リバースエンジニアリングによってニューラルネットワークの解釈に取り組むプログラム「Deep Dream」の設計に協力していた。
オラーのチームはまず、巨大な画像データベースである「ImageNet」を使い、ニューラルネットワークに対しておびただしい数の対象を識別できるように学習させた。そしてこの「学習」を踏まえて、犬や木を描くよう命じたのだ。
この結果として得られたのが、まるで幻覚を起こさせるような画像だった。それは、与えられた情報をモデルがどのように「見た」のかを限定的に反映している。のちになって、これと同様のシステムを利用すれば、そこそこの値段がつく芸術作品を生み出せることもわかった。