産経ニュース

人工知能が生んだ「フェイクポルノ」は、AIが摘発する コンテンツ・モデレーションの最先端

WIRED WIRED

記事詳細

更新


人工知能が生んだ「フェイクポルノ」は、AIが摘発する コンテンツ・モデレーションの最先端

こういった努力は軽視されるべきではない。しかし、無秩序に広がるインターネット空間のコンテンツ・モデレーションを人間が手作業で行うのがいかに難しいかを示している。コンピューターが勝手にディープフェイク動画を探してくれるなら、もはや人間の手はいらないのだ。

人の脳はだませても、AIの目はだませない

GfycatはAIを訓練するに当たり、すでに開発していた2つのツールを利用している。「プロジェクト・アンゴラ」と「プロジェクト・マル」で、どちらも名前の由来は猫だ。

あるユーザーが例えば、テイラー・スウィフトのGIFを低画質でアップロードしたとする。アンゴラは、それに代わる高画質なGIFを探し出せる。つまり、テイラー・スウィフトが「Shake It Off」を歌っているとしたら、同じクリップを見つけ、その高画質ヴァージョンをアップロードできるということだ。

上がった動画に「テイラー・スウィフト」というタグが付けられなかったとしよう。問題ない。マルが個人の顔を識別し、自動でGIFに名前を付ける。Gfycatの立場を考えれば、これは納得がゆく。彼らは毎月、何百枚もアップロードされるGIFを仕分けしたいのだ。

ここにディープフェイク動画がやってくる。アマチュアによって製作されたディープフェイク動画のほとんどは、完全な本物だと信じられるような質ではない。よく見ると、つくりが不自然なのだ。例えば下の動画では、ドナルド・トランプ米大統領の顔がアンゲラ・メルケル独首相の顔を完全にカヴァーしきれていない。

ちなみに、人間の脳もフェイク動画に一役買っている。テクノロジーが人の顔を入れ替えようとして失敗した差分を勝手に埋めるのだ。

しかし、マルは人間の脳ほど寛容ではない。GfycatのエンジニアたちがAIツールにディープフェイク動画を見せると、AIは似た人物としてニコラス・ケイジなどの名を挙げるが、「完全に一致」とは判断しない。顔の全パーツが完璧に移し替えられているわけではないからだ。

データの捏造も見つけ出せる

マルはGfycatにとって、ディープフェイク動画を見つける手段のひとつにすぎない。一部だけセレブに似たまがい物のGIFを嗅ぎつけるだけで、ディープフェイク動画を止めることはできない。将来、ディープフェイク動画の精度がもっと高くなれば、食い止めるのはさらに難しくなる可能性だってある。

さらに、ディープフェイク動画にはセレブだけでなく一般市民の顔も使われる。製作者の知り合いの顔が使われることもあるほどだ。この多様さに対応すべく、Gfycatはアンゴラに似た働きをするマスキング技術も開発した。

Gfycatが疑わしい動画を見つけたとき(例えばマルが「テイラー・スウィフト」と断定しなかったとき)、彼らは被害者の顔にマスキングを施し、同じ体や背景をもつ動画がどこかにないか検索する。

トランプ米大統領の体に別の人物の顔を付けた動画があるとしよう。AIはネット上を検索し、オリジナルである一般教書演説の動画を見つけ出す。もしGIFの顔とオリジナルの顔が一致しなければ、AIは動画が捏造されたものだと結論づけるというわけだ。

続きを読む

このニュースの写真

  • 人工知能が生んだ「フェイクポルノ」は、AIが摘発する コンテンツ・モデレーションの最先端