据安全监管机构称,人工智能工具生成的儿童性虐待图像在开放网络上变得越来越普遍,并达到了“临界点”。
互联网观察基金会表示,过去六个月在网上看到的人工智能制作的非法内容数量已经超过了去年的总量。
该组织在英国设有热线,但也有全球范围的职责,该组织表示,几乎所有内容都是在互联网的公开区域上找到的,而不是在必须通过专门的浏览器访问的暗网上。
IWF 临时首席执行官德里克·雷-希尔 (Derek Ray-Hill) 表示,图像的复杂程度表明,所使用的人工智能工具已经接受过真实受害者图像和视频的训练。 “最近几个月表明,这个问题并没有消失,事实上还变得更糟,”他说。
一位 IWF 分析师表示,人工智能生成内容的情况已达到“临界点”,安全监管机构和当局不知道图像是否涉及真正需要帮助的儿童。
在截至今年 9 月的六个月内,IWF 对 74 起人工智能生成的儿童性虐待材料 (CSAM) 报告采取了行动,这些报告的真实性足以违反英国法律,而截至 3 月份的 12 个月内,IWF 已对 70 起此类报告采取了行动。一份报告可以引用包含多个图像的网页。
除了以现实生活中的虐待受害者为主角的人工智能图像之外,IWF 看到的材料类型还包括“深度伪造”视频,其中成人色情内容被操纵以类似于 CSAM。在之前的报告中,国际举联曾表示,人工智能被用来创建被“减龄”的名人图像,然后将其描绘成遭受性虐待的儿童。其他 CSAM 例子包括使用人工智能工具“裸体”在网上找到的穿着衣服的儿童照片的材料。
过去六个月,IWF 标记的人工智能生成内容中,一半以上托管在俄罗斯和美国的服务器上,日本和荷兰也托管了大量内容。包含图像的网页地址被上传到与科技行业共享的 IWF URL 列表,以便可以阻止这些图像并使其无法访问。
IWF 表示,十分之八的非法人工智能图像报告来自公众,他们在论坛或人工智能画廊等公共网站上发现了这些图像。
与此同时,Instagram 宣布了打击性勒索的新措施,即用户被诱骗向犯罪分子(通常冒充年轻女性)发送亲密图像,然后受到勒索威胁。
该平台将推出一项功能,可以模糊用户在私信中发送的任何裸照,并敦促他们谨慎发送任何包含裸照的私信 (DM)。一旦收到模糊图像,用户可以选择是否查看它,他们还会收到一条消息,提醒他们可以选择阻止发件人并向 Instagram 报告聊天内容。
从本周开始,该功能将在全球青少年帐户中默认开启,并且可用于加密消息,尽管“设备上检测”功能标记的图像不会自动通知平台本身或当局。
这将是成年人的一个选择加入功能。 Instagram 还将隐藏潜在的性勒索诈骗者的关注者和关注列表,这些诈骗者威胁要向这些账户发送私密图片。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除