産経ニュース

人工知能が生んだ「フェイクポルノ」は、AIが摘発する コンテンツ・モデレーションの最先端

WIRED WIRED

記事詳細

更新


人工知能が生んだ「フェイクポルノ」は、AIが摘発する コンテンツ・モデレーションの最先端

Gfycatはこのマスキング技術を使って、顔以外が捏造された動画も探し出そうとしている。例えば、人為的に改変された天気や科学などの動画だ。

GfycatのCEO、リチャード・ラバットは声明でこう述べた。「Gfycatはこれまでも、コンテンツのカテゴライズや管理、モデレーションなどでAIを大いに活用してきました。どんどん速度を上げて革新を遂げていくAIには、われわれの世界を劇的に変える可能性が秘められています。こうしたAIの進化を、これからも自分たちの技術に取り入れていきたいと考えています」

フェイクポルノが示唆する「未来」

ディープフェイク動画を摘発する際、Gfycatの技術を使えないケースが少なくとも1つある。動画の顔や体が、ネット上のほかのどこにも存在しない場合だ。

例えば、誰かが異なる2人のセックステープをそれぞれ撮影し、顔だけを入れ替えたとしよう。有名人が出ておらず、元の動画がオンライン上のどこにもアップロードされていなければ、アルもアンゴラもこのコンテンツを捏造だと判断できない。

ディープフェイク動画をつくるのには誰かの動画と写真資料へのアクセスが必要になるため、いまのところ起こる可能性の低いシナリオではある。しかし、携帯に入っている元恋人の動画をフェイク動画の製作に利用し、被害者が生まれる事態は想像に難くない。

ポルノスターやセレブを使ったディープフェイク動画のなかにも、AIでは判断がつかないものがある。Gfycatが人間のモデレーターを雇っているのはそのためだ。さらに、動画がディープフェイクか判断するために、アップロード場所やユーザー名といったメタデータも利用している。

すべてのディープフェイク動画が悪意をもってつくられるわけではない。電子フロンティア財団がブログで言及したように、先のメルケルとトランプの顔を入れ替えた動画は単なる政治風刺や論評にすぎない。さらに身元の保護のために顔を特定できなくする場合や、合意のうえでポルノグラフィーの顔を変える場合など、正当な理由でこの技術を使うこともある。

とはいうものの、なぜディープフェイク動画が悩ましい存在なのかは理解できる。ディープフェイク動画は、本物か偽物か判断できないような動画が出回る未来の始まりを象徴しているのだ。そしてこれは、プロパガンダをはじめ多方面に影響を与える。

2016年の大統領選挙期間中、ロシアはTwitter上をフェイクボットでいっぱいにした。20年の選挙では、候補者たちを使ったフェイク動画で同じことが行われるかもしれない。

製作を止めることはできないが…

Gfycatには、いまのところ有効な解決策がある。しかし、ディープフェイク動画の製作者たちが監視の目をすり抜ける方法を見つけるのも、時間の問題かもしれない。

ダートマス大学でコンピューターサイエンスの教授を務め、デジタルを活用した犯罪の科学捜査や画像解析、人間の知覚などを専門とするハニー・ファリドは「PornhubやRedditに上げられた偽物の動画を識別する法医学的技術の確立には、まだ数十年かかるでしょう」と言う。

カギは、改ざんされた画像や動画を見つけ出す異なるプロトコルをいくつもインストールすることだ。そうすれば、監視の目をすべてすり抜けるディープフェイク動画を製作しにくくなる。

続きを読む

このニュースの写真

  • 人工知能が生んだ「フェイクポルノ」は、AIが摘発する コンテンツ・モデレーションの最先端