“我们使用 Photoshop 已有 35 年了”是反驳对生成式 AI 担忧的常见反应,而您来到这里是因为您在评论线程或社交媒体中提出了这一论点。
有无数理由担心人工智能图像编辑和生成工具将如何影响我们对照片的信任,以及这种信任(或缺乏信任)如何被用来操纵我们。这很糟糕,而且我们知道这种情况已经发生了。因此,为了节省我们所有的时间和精力,也为了避免不断地回应同样的少数争论而把我们的手指弄得精疲力竭,我们只是将它们全部放在这篇文章中的一个列表中。
毕竟,共享这一点会更加高效——就像人工智能一样!这不是很令人愉快吗!
论据:“你已经可以在 Photoshop 中像这样处理图像了”
如果您从未真正经历过在 Adobe Photoshop 等应用程序中手动编辑照片的过程,那么很容易提出这样的论点,但这是一个令人沮丧的过度简化的比较。假设某个卑鄙的恶棍想要操纵图像,使其看起来像是某人有毒品问题 – 以下是他们需要做的一些事情:
- 可以使用(可能昂贵的)桌面软件。当然,移动编辑应用程序是存在的,但除了皮肤平滑和颜色调整等小调整之外,它们并不真正适合做太多事情。所以,为了这份工作,你需要一台电脑——对于互联网来说这是一项昂贵的投资。虽然一些桌面编辑应用程序是免费的(Gimp、Photopea 等),但大多数专业级工具却不是免费的。 Adobe 的 Creative Cloud 应用程序是最受欢迎的应用程序之一,而且定期订阅(仅 Photoshop 每年 263.88 美元)是出了名的难以取消。
- 找到合适的毒品用具图片。即使您手头上有一些,您也不能只是将任何旧图像放入其中并希望它看起来正确。您必须考虑要添加到的照片的适当照明和位置,因此一切都需要匹配。例如,瓶子上的任何反射都应该从相同的角度照射,如果将视线高度拍摄的物体放入以更大角度拍摄的图像中,则看起来会明显是假的。
- 了解并使用各种复杂的编辑工具。任何插入物都需要从其所在的背景中剪切出来,然后无缝地融入新环境中。这可能需要调整色彩平衡、色调和曝光级别、平滑边缘或添加新的阴影或反射。需要时间和经验才能确保结果看起来还过得去,更不用说自然了。
Photoshop 中有一些真正有用的 AI 工具确实可以让这一切变得更容易,例如自动对象选择和背景去除。但即使您使用它们,仍然需要花费大量的时间和精力来处理单个图像。相比之下, The Verge编辑 Chris Welch 必须执行以下操作才能使用 Google Pixel 9 上的“Reimagine”功能获得相同的结果:
- 在智能手机上启动 Google Photos 应用程序。点击一个区域,并告诉它添加一个“充满红色液体的医用注射器”,一些“碎粉笔的细线”,以及酒和橡胶管。
就是这样。三星最新的手机也有类似的简单流程。技能和时间障碍不仅减少了,而且消失了。谷歌的工具还非常擅长将任何生成的材质混合到图像中:灯光、阴影、不透明度,甚至焦点都被考虑在内。 Photoshop 本身现在内置了一个 AI 图像生成器,其结果往往不如这款来自 Google 的免费 Android 应用程序所输出的结果那么令人信服。
图像处理技术和其他造假方法已经存在了近 200 年——几乎和摄影本身一样长。 (典型案例:19 世纪的精神摄影和科廷利仙女。)但是,做出这些改变所需的技能要求和时间投入是我们不考虑检查我们看到的每张照片的原因。在摄影史上的大部分时间里,操控都是罕见且出乎意料的。但智能手机上的人工智能的简单性和规模意味着任何笨蛋都可以以我们以前从未经历过的频率和规模制作出可操纵的图像。为什么这令人担忧应该是显而易见的。
论点:“人们会适应这成为新常态”
仅仅因为您有能力判断图像是否为假,并不意味着每个人都可以。并不是每个人都在技术论坛上偷偷摸摸(我们爱你们所有人,偷偷摸摸的伙伴们),因此对于那些不知道要寻找什么迹象的人来说,那些对我们来说似乎显而易见的人工智能典型指标很容易被忽视——如果它们是甚至根本就在那里。人工智能在生成自然图像方面正在迅速进步,这些图像没有七个手指或柯南伯格式的扭曲。
在一个一切都可能是假的世界里,要证明某些东西是真实的要困难得多
也许当偶尔将深度伪造品倒入我们的源中时很容易被发现,但仅在过去两年,生产规模就发生了巨大变化。制作这些东西非常容易,所以现在它到处都是。我们正危险地生活在这样一个世界中:我们必须警惕被摆在我们面前的每一个图像所欺骗。
当一切都可能是假的时,要证明某些东西是真实的就变得更加困难。这种怀疑很容易被利用,为像前总统唐纳德·特朗普这样的人提供了关于卡马拉·哈里斯操纵集会人数的虚假指控的大门。
论点:“Photoshop 也是一项巨大的、降低门槛的技术——但我们最终表现得很好”
确实如此:即使人工智能比 Photoshop 更容易使用,后者仍然是一场技术革命,迫使人们面对一个全新的造假世界。但 Photoshop 和其他人工智能之前的编辑工具确实造成了至今仍然存在的社会问题,并且仍然造成了有意义的伤害。对杂志和广告牌上的照片进行数字修饰的能力提高了男性和女性不可能的美容标准,而后者受到的影响尤为严重。例如,2003 年,当时 27 岁的凯特·温斯莱特 (Kate Winslet) 登上《GQ》封面,不知不觉地瘦下来了,英国杂志的编辑迪伦·琼斯 (Dylan Jones) 辩解说,她的外表变化“并不比其他任何人都大”。封面明星。”
尽管像Jezebel这样的早期博客在时尚杂志封面上发布未经修饰的名人照片时引发了重大丑闻,但此类编辑非常普遍,而且很少被披露。 (法国甚至通过了一项法律,要求对信息进行修改。)随着像 Facetune 这样更易于使用的工具在爆炸性的社交媒体平台上出现,它们变得更加阴险。
2020 年的一项研究发现,71% 的 Instagram 用户在发布自拍照之前会使用 Facetune 对其进行编辑,而另一项研究发现,媒体图像导致女性和女孩的身体形象同样下降,无论是否有标签否认她们已被数字化修改过。从社交媒体到现实生活中的整形手术有一条直接的管道,有时目标是实现物理上不可能的结果。男性也不能幸免——社交媒体对男孩及其自我形象有着真实且可衡量的影响。
不可能的美容标准也不是唯一的问题。摆拍的图片和照片编辑可能会误导观众,削弱人们对新闻摄影的信任,甚至会强调种族主义叙事——就像 1994 年一张照片插图中 OJ 辛普森 (OJ Simpson) 的脸在照片中显得更黑。
生成式人工智能图像编辑不仅通过进一步降低障碍来放大这些问题——有时甚至在没有明确指示的情况下做到这一点。人工智能工具和应用程序被指控在未经告知的情况下让女性拥有更大的乳房并暴露衣服。忘记观众无法相信他们所看到的东西是真实的 – 现在摄影师不能相信他们自己的工具!
论点:“我确信将会通过法律来保护我们”
首先,制定良好的言论法——而且,让我们明确一点,这些很可能就是言论法——是非常困难的。管理人们如何制作和发布编辑后的图像将需要将极其有害的用途与许多人认为有价值的用途(例如艺术、评论和模仿)分开。立法者和监管者将不得不考虑有关言论自由和信息获取的现有法律,包括美国的第一修正案。
科技巨头全速进军AI时代,看似不考虑监管的可能性
科技巨头们似乎也全速进入人工智能时代,甚至没有考虑监管的可能性。全球各国政府仍在争先恐后地制定法律,以遏制那些滥用生成人工智能技术的人(包括构建该技术的公司),而事实证明,用于识别真实照片和经过处理的照片的系统的开发进展缓慢且严重不足。
与此同时,简单的人工智能工具已经被用于操纵选民、以数字方式脱掉儿童衣服的照片,以及怪诞地深度伪造像泰勒·斯威夫特这样的名人。这只是去年的事,而且技术只会不断改进。
在理想的世界里,在一个免费的、防白痴的工具能够在几秒钟内为照片添加炸弹、汽车碰撞和其他令人讨厌的东西之前,应该先设置足够的护栏,然后才落入我们的口袋。也许我们完蛋了。乐观和故意的无知并不能解决这个问题,而且现阶段还不清楚什么可以解决,甚至可以解决什么问题。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除