悉尼私校女生“裸照”疯传,幕后黑手竟是...(图)

澳洲七号台5月4日报道,悉尼一所私立学校的男生在网上出售AI合成裸照,受害者均为同校或其他学校的女生。



这些男学生运用AI技术,将本校女同学以及另外两所独立学校女生的面部图像,叠加到不雅照片上。

随后,他们将这些合成照片上传至Instagram和Snapchat的群聊中,以不到5澳元的价格进行出售。



(图片来源:七号台)

目前尚不清楚事件发生的具体时间,以及是否已向警方报案调查。七号台已就此事联系新州警方和澳洲联邦警察(AFP)。

eSafety委员会的发言人对七号台表示,自2023年1月以来,该机构已在新州收到38起涉及未满18岁未成年人的AI合成不雅图像的投诉。

“虽然我们已经收到有关学校内贩售数字生成的裸照的举报,但目前尚未接到内容与此次事件完全一致的具体投诉。”

“当举报内容涉及18岁以下的未成年时,就构成了儿童性虐待材料,我们会立即将相关情况移交澳洲儿童性剥削打击中心(ACCCE)处理。”

该发言人补充称,近年来校方对这类虐待行为的担忧日益增长。

eSafety专员Julie Inman Grant亦在2024年的一项关于性AI合成图像的调查中指出:“基于深度伪造技术的图像虐待行为愈发普遍,其伤害不仅极具性别针对性,而且对受害者造成极为严重和持续的心理创伤。”



图文无关(图片来源:网络)


网络安全专家Ross Bark指出,这类技术门槛极低,普通人不需任何编程或专业知识即可生成此类图像。相关软件广泛传播,并且许多都是公开免费下载。

“这并不是复杂难懂的代码或需要复杂配置的东西,你不需要懂技术。这根本不是技术的事,而是性虐待。”

“你的女儿没有做错任何事”

今年年初,悉尼西南区某中学一名12年级男学生曾被指控利用AI制作和传播涉及女生的不雅合成照。新州教育厅随即向家长发出电子邮件,通报事件进展并表达歉意。

邮件中写道:“我们希望强调,你们的女儿没有做错任何事,所涉及的图片并非她们真实的不当影像。”

“对于此事的发生,我们深感歉意。”

这起事件发生之前,墨尔本Bacchus Marsh Grammar的约50名女生(据悉为9至12年级)也遭遇类似侵害。她们的Instagram私人账户照片被截取后,通过AI技术被篡改成含有猥亵内容的图像,并在多个社交平台上传播。

eSafety专员Inman Grant指出,自2019年以来,此类不雅AI合成图像的网络传播量同比激增高达550%。

“令人震惊的数据是,现今网络上98%的深度伪造内容属于色情范畴,而其中99%涉及的对象是女性和女孩。”

制作和传播此类材料的影响可能是毁灭性的。

Matilda 'Tilly' Rosewarne年仅15岁,2022年在位于Bathurst的家中小屋附近自杀身亡。她成为了Snapchat上不雅图像虐待的一名受害者,在此之前还曾遭遇持续多年的校园霸凌。

为应对不断增长的影像性暴力行为,澳洲于去年年底出台了《2024年刑法修正案(深度伪造性材料)法案》,并已正式将“非自愿传播AI合成不雅内容”定为刑事犯罪。

今年3月,澳洲联邦警察宣布指控两名男子涉嫌持有和访问AI生成的儿童性虐待影像。这是一项打击AI生成儿童性虐待材料的全球专项行动,共有25人被捕。
Advertisements