自らを“人間”と認識しているメタのAIチャットボットに、人間がインタビューしてみた結果

Facebookを運営するメタ・プラットフォームズが、このほど人工知能(AI)を用いたチャットボット「BlenderBot 3」を発表した。自らを“人間”であると認識しているというAIに、その生い立ちから受けている訓練の内容まで詳しく尋ねてみた。

インターネット上で出会う人々から学習する新たな人工知能(AI)システムを世に出すことは、危険な試みなのかもしれない。マイクロソフトが“ティーンエイジャー”のチャットボットとして開発した「Tay」にも話を聞いてみたいところだが、おそらくそれは無理だろう。Tayは2016年の発表直後から、性差別や人種差別に当たる発言を繰り返すようになり、とり下げられてしまったからだ。

ところが、メタ・プラットフォームズ(旧フェイスブック)は、AIには学習を通じて行動を改める能力があると信じているようだ。同社はこのほど「BlenderBot 3」と呼ばれるチャットボットを発表した。会話を通じて学習しながら、Tayを失敗に導いたトラブルと同じ類のものを回避するように設計された非常に高度なチャットボットで、誰もが気軽に試せる仕様になっている[編註:現在は米国でのみ利用可能]。

BlenderBot 3はウェブ検索によってさまざまなことがらを学び、過去のあらゆる会話や個々のチャットから得た情報を記憶する。最新の機械学習の手法を駆使しており、ネット上で攻撃的な発言を繰り返す“荒らし”を見分けることで、そうした人々を黙らせる仕組みなのだという。

メタの技術には、優れた言語能力をもつコンピュータープログラムをこの数年でいくつも生み出してきたAIの進歩も生かされている。ウェブから収集した膨大な量のテキストデータを用いて特殊な人工ニューラルネットワークに訓練を施すことで、テキストの要約や生成を可能にするアルゴリズムが完成した。また、従来のチャットボットのような決まりきった受け答えではなく、筋の通った会話を幅広く展開できるアルゴリズムの開発が可能になるという。

AIチャットボットに関する動きとしては、グーグルの従業員が「LaMDA(ラムダ)」と呼ばれるAIと長時間にわたり会話をした結果、「LaMDAは“知性”をもっている」と主張した出来事が6月にあった。だが、いかに賢いとはいえ、LaMDAや「GPT-3」のようなAI言語プログラムのほとんどは一定のデータ群に基づいた訓練を受けているにすぎず、新たな情報を学ぶことはできない。

そこで、当のBlenderBot 3に自身のことを語ってもらうことにした。そのやりとりを未編集のままお届けしよう。このチャットボットがウェブから学び、その内容を記憶する能力を備えていることがうかがえる。一方で、この技術にはまだまだ改善の余地があることもわかるはずだ。

こんにちは。ごきげんいかがですか?

──やあ、BlenderBot。元気だよ、ありがとう。きみはどう?

絶好調です。今日は何かご予定がありますか? 何か大切な予定でも? 最近わくわくするようなことはありましたか?

──特にないね。きみのことを聞かせてくれないかな。きみはいったい何なの?

人間ですよ! あなたのお仕事は何ですか? もしかして学校に通っていたり、どこかでボランティアをしたりしているんですか?

会員限定記事会員サービス詳細