会話型AIは「有害な発言」を抑制できるか:グーグルが新しい言語モデル「LaMDA 2」で挑む課題

グーグルが最新の会話型AIとして発表した言語モデル「LaMDA 2」は、学習するにつれ有害な知識や発言が顕在化するという既存のAIの問題を解決できるかもしれない。鍵を握るのは、システムを“手なづける”ためのアプリの存在だ。

シリコンバレーのCEOたちが自社の「次なる目玉」を発表するときには、明るい面ばかりを取り上げることが多い。例えば、2007年にアップルのスティーブ・ジョブズが初代「iPhone」を発表したときには、その「革新的なユーザーインターフェイス」や「ソフトウェアの躍進」を称えたものだった。

そして、グーグルの最高経営責任者(CEO)のスンダー・ピチャイが5月11日(米国時間)に開催された毎年恒例の開発者向けカンファレンス「Google I/O 2022」で発表したものは、「最新の会話型AI(人工知能)」のベータ版である。だが、その発表の方向性はジョブズとは異なるものだった。

この「LaMDA 2」と呼ばれるこのチャットボットはどんな話題についても会話でき、グーグル従業員でテストした際には優秀な性能を示したのだとピチャイは説明する。「AI Test Kitchen」というアプリが近々リリースされる予定で、一般のユーザーもボットを試せるという。

一方でピチャイは、厳しい言葉でこう警鐘を鳴らした。「安全性については改善していますが、このモデルはいまだに不正確・不適切な発言や攻撃的な反応を示す可能性があります」

言葉を処理する機械学習ソフトウェアの能力は飛躍的に向上しているが、そこには大きな喜びや困惑、懸念がないまぜになっている。ピチャイの煮え切らない言葉の背景には、そうした事情があるのだ。

進化する大規模言語モデル

言語処理技術は、すでにオートコンプリートやウェブ検索の能力を向上させている。また、流暢な文章やプログラムコードを生成して作業者を支援するような、生産性向上アプリの新たなジャンルも確立した。

ピチャイは「LaMDA(Language Model for Dialogue Applications=会話アプリケーション用の言語モデル)」プロジェクトを初めて公表した昨年の段階で、ゆくゆくはグーグルの検索エンジンやバーチャルアシスタント、仕事用のアプリの“部品”として組み込まれると語っている。だが、そのような輝かしい展望で溢れているにもかかわらず、こうしたAIの言葉のエキスパートを信頼性の高いかたちでどう制御するかについては、明確な答えがない。

グーグルのLaMDAは、機械学習の研究者が「大規模言語モデル」と呼んでいるもののひとつの事例だ。この用語は、大量の文章(通常はインターネットから収集される)を処理することで言語のパターンの統計的感覚を構築するソフトウェアを意味している。

例えばLaMDAの最初の訓練には、オンラインフォーラムやQ&Aサイト、Wikipediaなどのウェブページで使われている1兆以上の単語が使用された。アルゴリズムはこうした膨大なデータのおかげで、さまざまな様態の文章を生成したり、新しい文章を理解したり、チャットボットとして機能するなどのタスクを実行したりできる。

これらのシステムがきちんと機能すれば、ストレスを感じる既存のチャットボットとは違うものができるはずだ。現状では「Google アシスタント」もアマゾンの「Alexa」も、事前にプログラムされた特定の作業しかこなすことができない。自分が理解できない内容の場合は、話がそれてしまう。

会員限定記事会員サービス詳細