違和感の解剖図:勝負事とエンタメの不都合な真実

競馬、ボート、Mリーグからテレビ批評まで。世間に漂う「建前」を剥ぎ取り、その裏に潜む違和感の正体をロジカルに解剖する。単なる感想を超えた、不都合な真実の記録。


スポンサーリンク

生成AIが生んだ「アイコラ」という猛毒。ディープフェイクに堕ちる人々の醜悪を解剖する


スポンサーリンク

ディープフェイクを使って、芸能人がさもヌードになったかのような画像を作り出し、バラまく者がいるという。

足立梨花や伊織もえが、その被害の窮状を訴えているが、本人からすれば「いい迷惑」という言葉では済まされないレベルの暴挙だ。こうしたアイコラ問題は、今に始まったことではない。20年以上前から存在する、根深い闇である。

Wikipediaによれば、かつてはその制作工程を解説する記事すらあったという。象徴的なのは2007年の事件だ。当時ABCのアナウンサーだった高野直子氏のアイコラ画像を掲載した『BUBKA』が刑事告訴された。今のBUBKAは坂道グループが誌面を飾るクリーンな媒体だが、当時はこうしたえげつない写真を平然と載せていた。AKBブームに乗る中で足を洗ったのかもしれないが、かつての醜悪さを知る者としては隔世の感がある。

ネットの歴史において、アイコラは常に流行り続けてきた。「エロ」という一点にだけ異常な情熱を注げる人間は、いつの時代もわんさかいるのだ。

アイコラの最大の実害は「本当に卑猥な姿を晒していた」という誤解が瞬時に広まる点にある。画像検索で、身に覚えのないヌード写真が「本物」として表示され、それを閲覧者が真に受けた時の悲劇は計り知れない。

過去20年、警察は摘発を重ね、アイコラは一時期下火になったはずだった。ところが、生成AIという「力」を得て、再び大量に出回るようになる。驚愕すべきは、これが犯罪であることを知らない世代すら存在することだ。簡単に作れてしまう時代だからこそ、欲望に負けて一度手を染めれば最後である。

「自分だけ見るならいいだろう」という理屈も通じない。セキュリティの甘さや何らかの理由で流出すれば、それはもはや取り返しのつかない凶器となる。日本に限らず、世界中で起きているこの事態は、まさに文明の暴走だ。

生成AIには、社会を豊かにする素晴らしい側面が多々ある。それは事実だ。しかし、どんなに優れた技術も、使う人間の理性が過ぎ去ればただの毒に成り下がる。AIが加速させたこの醜悪な連鎖を、我々はいつまで繰り返すのだろうか。


スポンサーリンク