ディープフェイクを使って、芸能人がさもヌードになったかのような画像を作り出し、バラまく者がいるという。
足立梨花や伊織もえが、その被害の窮状を訴えているが、本人からすれば「いい迷惑」という言葉では済まされないレベルの暴挙だ。こうしたアイコラ問題は、今に始まったことではない。20年以上前から存在する、根深い闇である。
Wikipediaによれば、かつてはその制作工程を解説する記事すらあったという。象徴的なのは2007年の事件だ。当時ABCのアナウンサーだった高野直子氏のアイコラ画像を掲載した『BUBKA』が刑事告訴された。今のBUBKAは坂道グループが誌面を飾るクリーンな媒体だが、当時はこうしたえげつない写真を平然と載せていた。AKBブームに乗る中で足を洗ったのかもしれないが、かつての醜悪さを知る者としては隔世の感がある。
アイコラの最大の実害は「本当に卑猥な姿を晒していた」という誤解が瞬時に広まる点にある。画像検索で、身に覚えのないヌード写真が「本物」として表示され、それを閲覧者が真に受けた時の悲劇は計り知れない。
過去20年、警察は摘発を重ね、アイコラは一時期下火になったはずだった。ところが、生成AIという「力」を得て、再び大量に出回るようになる。驚愕すべきは、これが犯罪であることを知らない世代すら存在することだ。簡単に作れてしまう時代だからこそ、欲望に負けて一度手を染めれば最後である。
「自分だけ見るならいいだろう」という理屈も通じない。セキュリティの甘さや何らかの理由で流出すれば、それはもはや取り返しのつかない凶器となる。日本に限らず、世界中で起きているこの事態は、まさに文明の暴走だ。
生成AIには、社会を豊かにする素晴らしい側面が多々ある。それは事実だ。しかし、どんなに優れた技術も、使う人間の理性が過ぎ去ればただの毒に成り下がる。AIが加速させたこの醜悪な連鎖を、我々はいつまで繰り返すのだろうか。