当人工智能生成的媒体在我们的生活中无处不在时会发生什么?这与我们之前经历过的事情有何关系?它如何改变我们?
这是我正在撰写的两部分系列的第一部分,该系列分析了人工智能生成内容的扩展如何影响人们和社区。我已经详细讨论了所涉及的环境、经济和劳工问题,以及歧视和社会偏见。但这一次,我想深入探讨一下,重点关注人工智能生成的媒体和我们消费的内容所产生的一些心理和社会影响,特别是我们与批判性思维、学习和概念化知识的关系。
自摄影术发明以来,恶作剧就基本上是利用摄影术进行的。当我们开始拥有一种媒体形式,人们相信它可以向我们展示现象和事件的真实、无中介的现实时,人们就开始想出操纵这种媒体形式的方法,以达到巨大的艺术和哲学效果。 (以及幽默或简单的欺诈效果。)尽管如此,我们对照片有一种毫无根据的信任,并且我们已经与这种在信任和怀疑之间取得平衡的形式建立了关系。
当我还是个孩子的时候,互联网还没有向公众广泛普及,当然也很少有家庭可以访问它,但当我十几岁的时候,情况已经完全改变了,我认识的每个人都花时间在 AOL instant 上信使。在我离开研究生院的时候,iPhone 发布了,智能手机时代开始了。我重述这一切是为了表明,文化创造和消费在短短几十年内发生了惊人的快速变化,甚至面目全非。
我认为,由于生成式人工智能的推出,当前时刻代表了一个全新的时代,特别是在我们消费和创造的媒体和文化内容方面。这有点像当 Photoshop 广泛使用时,我们开始意识到照片有时会被修饰,我们开始质疑我们是否可以相信图像的外观。 (读者可能会发现围绕“什么是照片”正在进行的讨论是这个问题的有趣延伸。)但即便如此,Photoshop 仍然很昂贵,并且有效使用它需要一定的技能水平,因此我们遇到的大多数照片都相对真实,我认为人们普遍认为广告和电影中的图像不会是“真实的”。我们的期望和直觉必须适应技术的变化,我们或多或少做到了。
如今,人工智能内容生成器已经使人工生成或更改任何类型内容(包括图像)的能力变得民主化。不幸的是,要估计有多少在线内容可能是人工智能生成的非常困难——如果你用谷歌搜索这个问题,你会看到欧洲刑警组织的一篇文章,声称到 2026 年这个数字将达到 90%——但读过它,你就会发现这篇研究论文根本没有提到这一点。您可能还会发现一些 AWS 研究人员的论文被引用,称 57% 是这个数字 – 但这也是一种错误的解读(他们谈论的是机器翻译的文本内容,而不是从整块布料生成的文本,更不用说图片或视频)。据我所知,没有可靠的、基于科学的工作表明我们消费的内容中有多少实际上可能是人工智能生成的——即使是这样,一旦发布它就会过时。
但如果你仔细想想,这是完全合理的。人工智能生成的内容不断涌现的很大一部分原因是,现在比人类历史上以往任何时候都更难判断人类是否真正创造了你所看到的内容,以及这种表示是否是现实的反映。当你一开始就不清楚如何识别某个东西时,你如何计算它,甚至估计一个计数?
我想我们都有过发现来源可疑的内容的经历。我们看到似乎处于恐怖谷的图像,或者强烈怀疑零售网站上的产品评论听起来不自然的积极和通用,并认为这一定是使用生成式人工智能和机器人创建的。女士们,最近有没有尝试在网上寻找发型灵感图片?根据我个人的经验,Pinterest 或其他此类网站上 50% 以上的图片显然是 AI 生成的,带有明显的迹象:无纹理的皮肤、橡胶状的特征、带子和项链消失得无影无踪、图像明确不包括手、从不显示双耳直立等。这些很容易被忽略,但一大片会让你怀疑你看到的是经过严格过滤的真实图像还是完全由人工智能生成的内容。我以理解这些事情为己任,但我自己也常常不确定。我听说约会应用程序上的单身男士充斥着基于生成人工智能的诈骗机器人,因此有一个检查方法的名称 – “土豆测试”。如果你要求机器人说“土豆”,它会忽略你,但真正的人可能会这么做。人工智能内容正在未经我们同意或批准的情况下渗透到我们生活中的各个小领域。
将人工智能垃圾倾倒在所有这些在线空间中有何意义?最好的情况目标可能是让人们点击进入广告所在的网站,提供足以令人信服的无意义文本和图像,以获得这些宝贵的广告印象并从广告商那里获得几美分。在线产品的人工评论和图像是由卡车生成的,因此廉价垃圾的代发货商和供应商可以欺骗顾客购买比所有竞争对手便宜一点的东西,让他们希望自己买到的是合法商品。也许该商品的价格非常便宜,以至于失望的买家只会接受损失,而不会费心去追回自己的钱。
更糟糕的是,使用法学硕士生成文本和图像的机器人可以用来引诱人们陷入骗局,而且由于唯一需要的真正资源是计算,因此此类骗局的扩展成本很低——如果你每次都能偷走一个人的钱,那么这笔费用就很值得了。经常这样。人工智能生成的内容被用于犯罪滥用,包括杀猪诈骗、人工智能生成的 CSAM 和未经同意的亲密图像,这些也可能变成勒索计划。
人工智能生成的图像、视频和文本也有政治动机——在这个美国大选年,世界各地不同角度和目标的实体制作了人工智能生成的图像和视频来支持他们的观点,并通过生成式传播宣传信息。人工智能机器人进入社交媒体,尤其是前 推特,用于防止滥用、骚扰和偏执的内容审核已基本停止。传播这些材料的人的期望是,不知情的互联网用户将通过持续、重复地接触这些内容来吸收他们的信息,并且对于他们意识到的每一个项目都是人造的,一个未知的数字将被接受为合法的。此外,这种材料创建了一个信息生态系统,其中真相无法定义或证明,从而抵消了好演员及其消除噪音的尝试。
一小部分人工智能在线生成的内容实际上是为了创建吸引人的图像而进行的实际尝试,只是为了享受,或者生成相对无害的样板文本来填写企业网站,但正如我们都清楚的那样,互联网上充斥着骗局, -快速致富的阴谋家,以及生成式人工智能的进步,使我们进入了这些行业的全新时代。 (而且,这些应用程序对真正的创造者、能源和环境以及其他问题产生巨大的负面影响。)
我意识到,我正在为我们的在线生态系统描绘一幅相当严峻的图景。不幸的是,我认为它是准确的,而且只会变得更糟。我并不是说生成式人工智能没有什么好的用途,但我越来越相信,我们社会的负面影响将比正面影响更大、更直接、更有害。
我是这样思考的:我们已经到了这样一个地步:我们不清楚我们是否可以相信我们所看到或读到的内容,而且我们通常无法知道我们在网上遇到的实体是人类还是人工智能。这对我们对遇到的事情的反应有何影响?期望我们的思维方式不会因这些经历而改变是愚蠢的,而且我非常担心我们正在经历的改变不会变得更好。
然而,模糊性是挑战的一个重要组成部分。这并不是说我们知道我们正在消费不可信的信息,而是这些信息本质上是不可知的。我们永远无法确定。批判性思维和批判性媒体消费习惯会有所帮助,但人工智能生成内容的扩展可能会超出我们的关键能力,至少在某些情况下是这样。在我看来,这对我们对信息的信任和信心概念有着真正的影响。
在我的下一篇文章中,我将详细讨论这可能会对我们对周围世界的想法和想法产生什么样的影响,并考虑我们的社区可能会采取什么措施。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除