偽動画「ディープフェイク」急増 一般人にも被害の懸念

 人工知能(AI)の顔認証技術を悪用した精巧な偽動画「ディープフェイク」が、インターネット上で増加し、世界中で懸念が高まっている。女性有名人のわいせつ動画や、政治家が問題発言をする動画などが作成されており、名誉毀損(きそん)や情報操作に発展する恐れもある。一方で、復讐(ふくしゅう)のために交際相手の裸の写真を流出させるリベンジポルノに悪用される可能性もあり、有名人だけでなく一般人の身近でも対策が必要だ。(南里咲)

56万円の広告収入

 「生活のためにやっていた」。女性芸能人のわいせつ動画を作成したとして、京都府警が名誉毀損容疑などで逮捕した男はこう供述した。男はアダルトビデオの出演者に女性芸能人の顔を合成した偽動画を100本以上作成。1~6月にサイトの広告収入などで約56万円を得ていたという。

 ディープフェイクはAIの先端技術「ディープラーニング(深層学習)」と「フェイク(偽物)」の合成語。2017年に米国で投稿されたことがきっかけで、広まったとされる。作成は容易で、府警に逮捕された男はネット上で無料で入手できるアプリを使用。「女性芸能人が本当に裸になっているように見えるほど精巧だった」と、男が作成した偽動画を見た府警幹部は明かす。

 このような手軽さや精巧さもあり、被害は急拡大しているが、専門家らは有名人に限らず、一般人への被害を懸念する。ネット問題に詳しい最所義一弁護士(神奈川県弁護士会)は、日本での一般人の被害は把握していないとした上で、「ネット上で誹謗(ひぼう)中傷をする人間は面白半分で行う。同じような感覚で、リベンジポルノなどに悪用されることは十分あり得る」と指摘する。

SNSの写真が素材に

 偽動画は素材となる写真が多ければ多いほど作成しやすいため、「さまざまな角度からの写真をSNS(会員制交流サイト)上に多く投稿している人は、注意が必要だ」と警鐘を鳴らした。