鉴于如今大量由人工智能生成的逼真图像席卷了 X 和 Facebook 等社交媒体网络,我们似乎正在进入一个媒体怀疑主义的新时代:我称之为“深度怀疑”的时代。虽然对数字内容真实性的质疑可以追溯到几十年前,而模拟媒体的真实性早在几十年前,但人们可以轻松使用生成令人信服的虚假内容的工具,这导致了新一波的骗子利用人工智能生成的场景来否认真实的文件证据。一路走来,人们对陌生人在线内容的现有怀疑可能达到了新的高度。
深度怀疑是对真实媒体的怀疑,源于生成式人工智能的存在。这表现为公众对媒体制品真实性的广泛怀疑,这反过来又导致了一个显着的后果:人们现在可以更可信地声称真实事件没有发生,并表明书面证据是使用人工智能工具伪造的。
“深度怀疑”背后的概念并不新鲜,但它对现实世界的影响正变得越来越明显。自 2017 年“深度伪造”一词首次出现以来,我们已经看到人工智能生成的媒体功能快速发展。这导致了最近对行动产生深刻怀疑的例子,例如阴谋论者声称总统乔·拜登已被人工智能驱动的全息图取代,前总统唐纳德·特朗普在八月份毫无根据地指控副总统卡马拉·哈里斯使用人工智能伪造人群规模在她的集会上。周五,特朗普在一张他与E·让·卡罗尔(E. Jean Carroll)的合影中再次大喊“人工智能”。卡罗尔是一名成功起诉他性侵犯的作家,这与他从未见过她的说法相矛盾。
法律学者 Danielle K. Citron 和 Robert Chesney 多年前就预见到了这一趋势,并在 2019 年创造了“说谎者红利”一词来描述深度怀疑的后果:深度造假被说谎者武器化,以抹黑真实证据。然而,尽管深度怀疑曾经是一个假设的学术概念,但现在它已成为我们的现实。
深度造假的兴起,怀疑的持续存在
自古以来,怀疑就是一种政治武器。这种现代人工智能驱动的表现只是一种策略的最新演变,这种策略播下不确定性的种子,以操纵公众舆论、削弱对手和隐藏真相。人工智能是骗子的最新避难所。
在过去的十年中,深度学习技术的兴起使人们越来越容易地制作虚假或修改过的图片、音频、文本或视频,这些看似非合成的有机媒体。 Deepfakes 是以 Reddit 用户“deepfakes”的名字命名的,该用户在该服务上分享人工智能伪造的色情内容,用不属于原始录音的其他人的脸替换了表演者的脸。
在 20 世纪,人们可能会说,我们对他人制作的媒体的信任在一定程度上是由于制作纪实图像和电影的成本和耗时以及所需的技能而产生的。即使是文本也需要大量的时间和技巧。随着深度怀疑现象的增长,它将侵蚀这种 20 世纪的媒体敏感性。但它也会影响我们的政治话语、法律体系,甚至影响我们对依赖媒体发挥作用的历史事件的共同理解——我们依赖其他媒体来获取有关世界的信息。从逼真的图像到完美的声音克隆,我们对媒体中“真相”的看法需要重新校准。
今年 4 月,一个联邦法官小组强调了人工智能生成的深度造假不仅可能引入虚假证据,而且还会在法庭审判中对真实证据产生怀疑。这种担忧是在美国司法会议证据规则咨询委员会的一次会议上出现的,会上法官们讨论了在人工智能技术日益复杂的时代验证数字证据的挑战。最终,法官们决定推迟任何与人工智能相关的规则变更,但他们的会议表明,美国法官已经在考虑这个话题。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除