用AI工具生成13000张儿童性虐待图片,一美国男子面临FBI指控

AI快讯 2024-05-23

近日,美国联邦调查局(FBI)公布了一起引人注目的案件,指控一名42岁的威斯康星州男子史蒂文·安德雷格(Steven Anderegg)涉嫌大量制造和传播儿童色情及虐待图像。据悉,安德雷格竟然利用了当前流行的人工智能技术来生成这些令人发指的图像。

据FBI周一公布的起诉书内容,安德雷格被指控制造了超过1.3万张涉及“裸体和半裸青春期前儿童”的超现实图像。这些图像不仅描绘儿童触摸生殖器,还展示了儿童被成年男性性虐待的恶劣场景。经调查,安德雷格的笔记本电脑中发现了大量使用Stable Diffusion AI模型生成的图像,这一模型能够将文本描述转化为逼真的图像。

image.png

安德雷格的这一行为是在去年国家失踪和受虐儿童中心(NCMEC)收到两份针对其Instagram账户的举报后,引起了执法部门的注意。经过监控和调查,FBI成功获取了搜查令,并在安德雷格的笔记本电脑中发现了大量利用AI生成的色情图像以及他用于创建这些图像的具体、明确的指令记录。

安德雷格面临的指控包括创建、分发和拥有儿童性虐待材料,以及向一名15岁的未成年人发送露骨内容。如果所有罪名均成立,他将面临最高70年的监禁。这起案件被媒体广泛关注,被认为是FBI首次针对使用人工智能技术制造儿童性虐待材料的个人提出指控。

此前,已有类似案件发生。上个月,佛罗里达州的一名男子因拍摄邻居孩子的照片并利用AI技术创建色情图像而被捕。这一连串的事件引起了儿童安全倡导者和AI研究人员的警觉,他们纷纷警告说,恶意使用生成式AI可能会导致儿童性虐待材料的激增。

据NCMEC报告,2023年收到的在线虐待儿童报告较上一年增加了约12%。这一增长部分归因于AI制作的材料急剧增加,这些材料可能已经超过了该组织用于标记潜在儿童性虐待材料的处理能力。NCMEC在报告中表示,他们对此类快速增长的趋势深感担忧,因为不良行为者可以利用AI技术根据真实儿童的照片创建深度伪造的色情图像或视频,或者生成描绘计算机生成的儿童从事性行为的图像。

生成式AI的迅猛发展不仅导致了未经同意的深度伪造色情内容的广泛传播,还引发了关于未成年人图像和深度伪造图像在学校中流传的担忧。此前已有案例显示,佛罗里达州的两名中学生因制作同学的裸照而被捕。为了应对这一问题,一些州已经通过了法律,禁止在未经同意的情况下生成露骨图像。同时,司法部也明确表示,生成儿童的性AI图像是违法的。

这一系列事件再次提醒我们,科技的发展必须伴随着道德和法律的约束。在享受AI技术带来的便利和乐趣的同时,我们也应该警惕其可能带来的风险和危害。只有全社会共同努力,才能确保科技的健康发展不会损害到我们的安全和福祉。

@版权声明:部分内容从网络收集整理,如有侵权,请联系删除!

相关文章