PR

WIRED WIRED

陰謀論者や地球温暖化否定者のYouTubeレコメンデーションには、何が表示される? フィルターバブルを“体験”可能にする「TheirTube」

 YouTubeに表示される「あなたへのおすすめ」という欄は、ユーザーごとに高度にパーソナライズされている。では、自分以外のレコメンデーションを体験できたら、世界の捉え方はどのように変わるだろうか? 地球温暖化否定者や陰謀論者など6つの異なるペルソナに表示される世界を体験できる「TheirTube」というプロジェクトは、「おすすめの映像」に表示される情報の特異性に気づくきっかけを与えてくれる。Mozillaが主宰するCreative Media Awardを受賞した本プロジェクトを手がけた木原共が、その開発の裏側を解説する。

TEXT BY TOMO KIHARA

IMAGE BY THEIRTUBE
IMAGE BY THEIRTUBE

YouTubeにおけるフィルターバブル現象

YouTubeがあなたのことを知りすぎていると感じたことはないだろうか? 「あなたへのおすすめ」欄に表示される映像を次々に見ているうちに時間が経ってしまった経験をした人も多いはずだ。YouTubeのレコメンデーションエンジンはあなたの嗜好を視聴履歴や検索ワードから捕捉し、あなたが見たいと思うであろう映像を提案することに長けている。

このレコメンデーション機能は便利である反面、使用者の価値観に合う情報しか提示せず、それと異なる情報は自動的に遠ざけてしまう側面がある。このような状況は、それがまるで片寄った情報しか通さないフィルターの被膜の中に閉じ込められているようであることから「フィルターバブル現象」と呼ばれ、さまざまな批判を浴びてきた。

フィルターバブルの特徴のひとつに、人々がもつ考えを増幅させ、極端に先鋭化した方向に導きやすい性質がある。例えば、あるユーザーが何かのきっかけで環境活動家グレタ・トゥーンベリの活動を批判する映像をYouTubeでいくつか見たとする。すると、それ以降のレコメンデーションには次第に地球温暖化そのものまで否定するような映像が増えていく。そして、このような状態が続けば、たとえそのユーザーが最初はそうではなかったとしても、いつの間にか地球温暖化に懐疑的な意見をもつ立場になってしまう可能性がある、というわけだ。

レコメンデーションがユーザーを過激な思想へと導く可能性

この現象について、スイス連邦工科大学ローザンヌ校の研究者たちが2019年に興味深い研究を発表している。彼らは英語圏の政治と経済に言及する33万本の動画を選び、視聴者がどの順番で動画を見ていったのかをコメントの日時データを基に2年にわたって追跡した。その結果、一般的なニュースのような映像から、白人至上主義のような過激な思想を扱った映像へと、レコメンデーションなどで導かれる傾向が強かったことを明らかにした。

グーグルの内部でも、この問題は長年にわたって指摘されてきた。同社でAIの先端的な研究に携わるDeepMindの研究者たちは、レコメンデーションによってユーザーが偏ったコンテンツを見続けた結果、最終的には彼/彼女らの世界観を変えてしまう可能性があると主張する研究結果を2019年に発表している。

YouTubeでは毎日、11万年分もの映像が20億人を超える世界中のユーザーによって視聴されている。そのうち70パーセントの動画がレコメンデーション経由で再生されていることから、この技術が社会に与える副作用が無視できない規模になってきている。特にアメリカにおける極端な政治的分断の原因のひとつとして、この現象がさまざまな報道記事で頻繁に批判されるようになった。

続きを読む

あなたへのおすすめ

PR

PR

PR

PR

ブランドコンテンツ