人工知能の“欠陥”と副作用を認識せよ:ある研究者がAIの規制を提言する真意(1/2ページ) - 産経ニュース

メインコンテンツ

人工知能の“欠陥”と副作用を認識せよ:ある研究者がAIの規制を提言する真意

人工知能(AI)の“欠陥”と限界、そして副作用について指摘し、規制を提言している研究者がいる。マイクロソフトリサーチの研究者で南カルフォルニア大学教授のケイト・クロフォードは、AIが「人工的」でも「知的」でもないと指摘し、安全装置のないシステムであるAIの規制が喫緊の課題であると説く。

TEXT BY TOM SIMONITE

TRANSLATION BY CHIHIRO OKA

WIRED(US)

テック企業は人工知能(AI)のことを、正確で強力な「善」のためのツールであると形容することが多い。だが、南カルフォルニア大学教授のケイト・クロフォードに言わせると、この“神話”には欠陥があるのだという。

クロフォードは新著である『Atlas of AI』において、天然資源や過重労働、誤った科学といったAIを語る際に避けては通れない問題について論じている。そのためにクロフォードは、リチウム鉱山からアマゾンの倉庫、19世紀の骨相学のアーカイヴまで、さまざまな場所を訪れた。

研究機関マイクロソフトリサーチの研究者でもあるクロフォードは、AIの活用事例の多くとその副作用について緊急に規制する必要があるのだと言う。その考えについて詳しく訊いた。

──AIの技術的な部分について詳細まで理解している人は、ほとんどいません。それどころか、専門家のなかにすらAIについて大きく誤解している人がいる点を、著書では指摘していますね。

AIというものが、まるで魔法のように客観的な判断を下せる技術で、子どもの教育から保釈の是非の決定まであらゆる場面で使えるものだとされていますよね。でも、まず言葉そのものが間違っています。AIは「人工的」でも「知的」でもありません。

AIは大量の天然資源とエネルギー、そして人間の労働を集約してつくられているんです。それに、人類の知性と同じ意味での知的能力はまったく持ち合わせていません。人間が訓練してやらなければ何かを理解することはできず、意味を生み出すという観点からも人間とは完全に異なる統計的論理に基づいています。

「AI」という言葉が誕生したのは1956年ですが、それからずっとわたしたちは恐ろしい誤解をしてきました。人間の脳はコンピューターのようなものであり、逆もまたそうなのだという考えです。この分野では原罪に相当するほどの大きな誤りと言っていいでしょうね。わたしたちはコンピューターは人間の知能と似たものであるとみなしていますが、これは真実からは相当にかけ離れています。

──あなたはAIがどのように構築されるのかを著書で示すことで、この“神話”に挑みました。多くの産業プロセスと同じように、AIがつくられる過程には問題があることがわかっています。例えば、一部の機械学習のシステムは短時間で集められたデータだけでつくられており、マイノリティの集団においてエラーが発生しやすい顔認証システムを生み出すような問題を引き起こす可能性があると知られています。

AIがつくられる過程を、最初から細かく見ていかなければなりません。こうしたデータにまつわる問題の根源は、1980年代にさかのぼります。中身がよくわからないデータセットをAIの訓練に使うことが一般化したのです。プライバシーに関する懸念が生じたのも、同じ時期でした。データは単なる“生の素材”とみなされ、何千ものプロジェクトで使い回されていたのです。

これが大量のデータの収集と抽出というイデオロギーへと進化したわけですが、データはそれだけでは完結しません。常に文脈と政治がつきまとうのです。オンライン掲示板の「Reddit」と子ども向けの本とでは、そこに含まれる文章が異なります。犯罪者のデータベースから取得した写真には、アカデミー賞のデータベースの写真とは違う意味合いがあるはずです。

ところが、こうした画像すべてが同じように扱われており、結果として多くの問題が生じています。この2021年において、AIの訓練に使われるデータについての業界をまたがる基準は存在しません。トレーニング用のデータに何が含まれるのか、どのように入手されたデータなのか、そして倫理的にどんな問題が起こりうるのかといった基準がまったくないのです。

──感情を認識するAIについて、そのルーツが60年代に米国防総省の支援下で実施された信憑性に欠ける科学研究にあると指摘していますね。最近発表された1,000本以上の学術論文のメタ分析では、表情から確実に感情を推測する方法があるという証拠は見つかりませんでした。

感情を検知するという発想は、テクノロジーは人間の本質に関する問いに答えられるようになるという幻想を象徴するものです。心理学的には異論が多いのですが、AIとは相性のいいシンプルな理論であったことで、機械学習ではすぐに取り入れられました。

人間の顔を記録し、それを事前に単純化してグループ分けした感情表現と比べて照合するという手順は、機械学習ではうまく機能します。ただし、それは文化や文脈を排除し、人が表情や雰囲気を刻一刻と変える可能性がないと仮定した場合の話です。

また、フィードバックの繰り返しによって結果が増幅される「フィードバックループ」にもつながります。感情を検出できるツールが存在すると、例えば学校や法廷で利用して、万引きする可能性のある人を見つけ出そうと試みる人たちが出てくるからです。

最近では企業がパンデミックを口実に、学校で子どもたちに感情認識ツールを使おうとしています。頭蓋骨や頭の形状から人間の性格を読み取れると主張していた「骨相学」という学問が19世紀に人気を博したのですが、いまのような状況が続けば骨相学の時代に逆戻りしてしまうでしょうね。