8月末、フランス・パリの空港でテレグラム創設者であるロシア出身の大富豪、ドゥロフ容疑者が違法送金や児童ポルノ、詐欺、当局への情報開示拒否などサイバー犯罪捜査の一環で逮捕された。日本よりも身近な脅威に影響があるニュースとして受け取ったのは、韓国の人たちかもしれない。米国のセキュリティ会社の調査によると、人工知能(AI)で作られた本物のような偽コンテンツ、いわゆるディープフェイクによるわいせつ動画などの約半数に韓国人が登場するというのだ。その多くはテレグラムを通じて拡散されている。ライターの宮添優氏が、日本にとっても対岸の火事とは言えない、一般人が被害に遭うディープフェイクの現在についてレポートする。
* * *
いま韓国国内で、大量のディープフェイク画像や動画がSNSで拡散され、大きな社会問題となっている。投稿と拡散に使われているのは、設定した時間が経つとメッセージやファイルを自動消去できるなど、高い秘匿性が特徴とされるアプリ「テレグラム」だ。特徴を悪用して、特殊詐欺グループやテロ組織が利用していることでも知られているが、そのテレグラムを舞台に、小中高生など未成年も含む一般人の女性たちの顔写真を、AIで性的な画像や動画と合成させたディープフェイク・ポルノが大量に流布されているのだ。
尹錫悦大統領が撲滅を指示するほど韓国で蔓延しているディープフェイク・ポルノは主に、テレグラムのグループ機能やチャンネル機能を利用して共有・拡散されている。「チャンネル」で発言できるのは管理者だけだが、参加できるユーザー数が無制限ということもあり、ニューヨークタイムズなどの報道機関や、ウクライナのゼレンスキー大統領やロシア外務省が公式に利用するほど便利なものだ。しかし、それを悪用して女性教師専門、看護師専門などとうたうチャンネルをつくり、それぞれ数百人から数千人のユーザーが参加してわいせつ画像や動画の共有、拡散の後押しをしていたのが韓国の事件だという。事件を取材している大手紙外信部記者が説明する。
「チャンネル内にはかなり生々しい、実在する女性の写真や映像を使ったフェイクコンテンツが溢れており、日本のアダルト作品を使って、顔だけをすげ替えたようなものまで確認できます。チャンネルの参加者は、互いに知り合いの写真やビデオ、卒業アルバムなどの写真を実名を含む個人情報付きでディープフェイクを作成に投げて、そのユーザーが作成したものを投稿する、という流れのようです。中には、勤務先や学校がある程度割れてしまい、身元を特定されてしまうような被害もあるようです」(外信部記者)
チャンネルにはディープフェイクを使って本物と見紛う動画を作成する職人のようなユーザーが参加しており、彼らに元画像を添付して作成を依頼し、完成したものを披露する、というやりとりがさかんに行われていた。勝手に写真を使われた未成年を含む多くの女性たちが、いつのまにか何万、何十万、いやもっと多くのユーザーにコンテンツとして消費され、デジタル性犯罪の被害者となっている。
デジタル性犯罪といえば韓国では、2020年に複数の逮捕者が出た「n番部屋事件」と呼ばれる性的搾取・暴行事件が起きている。このときはディープフェイクこそなかったが使用されたツールは主にテレグラムで、複数のチャットルームが犯罪の舞台となっており、その代表的な存在が俗に「n番部屋」と呼ばれていたため、この一連の事件に対する名前として定着している。