AI 深度偽造色情影像在學校引發危機,規模遠超乎想像
調查揭露全球學校受影響情況
根據 WIRED 與 Indicator 的聯合分析,全球近 90 所學校及 600 名學生受到 AI 生成深度偽造(deepfake)裸照的影響,且該問題顯示無改善跡象。
學生成為主要受害者
調查指出,年輕學生(主要是女生)正被深度偽造影像針對。這種新型態的網路霸凌正在學校中蔓延,學生利用人工智慧將同學的無辜照片轉化為具有性暗示的內容,造成嚴重的心理與社會影響。
技術發展加速問題惡化
深度偽造危機在學校的爆發起初緩慢,但隨著用於生成影像的技術日益成熟,問題規模已顯著擴大。聯合國兒童基金會(UNICEF)強調,利用 AI 工具生成的兒童性化影像屬於兒童性虐待材料(CSAM),必須引起高度重視。
教育機構面臨挑戰
學校正面臨日益嚴重的問題,學生使用人工智慧技術對同儕進行侵害。相關報告指出,近 98% 的線上 AI 生成內容為明確的深度偽造影像,且 40% 的高中生曾知悉自己或他人有深度偽造影像。教育機構亟需建立應對機制,以保護學生權益並維護校園安全。
