AI以前の世界はもう終わりました。推定によると、すでに8人に1人の子どもが、ディープフェイクの写真やビデオのターゲットになった人物を個人的に知っており、友人や有名人など、自分が認識している人物の性的なディープフェイクを見たことのある子どもは4人に1人に上るという。これは現実的な問題であり、議員たちは突然この問題に気づき始めています。
私が子どもだった 1980 年代、全国の牛乳パックには行方不明の子供の写真が掲載されており、親たちの不安を捉えていました。 2026 年、これは AI が生成した、愛する人の刺激的な画像です。
National Center on Missing and Exploited Children によると、Grok のような AI 裸体化ツールの利用可能性の増加により、AI によって生成された児童性的虐待に関する報告が急増し、2023 年の約 4,700 件から 2025 年上半期には 440,000 件以上に達しました。