参加本周人工智能安全峰会的一位资深行业人士表示,关注人工智能的世界末日场景会分散注意力,从而淡化大规模错误信息产生等直接风险。
艾丹·戈麦斯 (Aidan Gomez) 是一篇帮助创建聊天机器人背后技术的研究论文的合著者,他表示,人工智能对人类的生存威胁等长期风险应该“研究和追求”,但它们可能会分散政客的注意力,让他们无法应对眼前的潜在风险危害。
“我认为就存在风险和公共政策而言,这不是一次富有成效的对话,”他说。 “就公共政策以及我们应该把公共部门的重点放在哪里——或者试图减轻平民面临的风险——我认为这会分散人们的注意力,让人们远离更加切实和直接的风险。”
戈麦斯作为北美公司 Cohere 的首席执行官参加了周三开始的为期两天的峰会,Cohere 是一家为聊天机器人等企业生产人工智能工具的北美公司。 2017 年,20 岁的戈麦斯是谷歌研究团队的一员,该团队创建了 Transformer,这是为聊天机器人等人工智能工具提供支持的大型语言模型背后的关键技术。
戈麦斯表示,人工智能——可以执行通常与智能生物相关的任务的计算机系统术语——已经得到广泛使用,峰会应该重点关注这些应用。 ChatGPT 等聊天机器人和 Midjourney 等图像生成器通过简单的文本提示生成可信的文本和图像的能力令公众震惊。
“这项技术已经应用于十亿用户的产品中,比如谷歌和其他公司。这提出了许多需要讨论的新风险,其中没有一个是存在的,也没有一个是世界末日场景,”戈麦斯说。 “我们应该直接关注那些即将影响人们或正在积极影响人们的事情,而不是关于长期未来的更多学术和理论讨论。”
戈麦斯表示,错误信息——误导性或不正确信息在网上的传播——是他最关心的问题。 “错误信息是我最关心的问题,”他说。 “这些 [AI] 模型可以创建非常令人信服、非常引人注目的媒体,与人类创建的文本、图像或媒体几乎没有区别。所以这是我们迫切需要解决的问题。我们需要弄清楚如何让公众能够区分这些不同类型的媒体。”
峰会开幕当天将讨论一系列人工智能问题,包括与错误信息相关的问题,例如选举中断和社会信任受到侵蚀。第二天,由 Rishi Sunak 召集的一小部分国家、专家和技术高管将讨论可以采取哪些具体措施来应对人工智能风险。美国副总统卡玛拉·哈里斯将是出席者之一。
戈麦斯形容这次峰会“非常重要”,他表示,机器人大军(执行重复任务的软件,例如在社交媒体上发帖)可能会传播人工智能生成的错误信息,这已经“非常有可能”。 “如果你能做到这一点,那就是对民主和公众对话的真正威胁,”他说。
在上周概述人工智能风险的一系列文件中,其中包括人工智能产生的错误信息和对就业市场的干扰,政府表示不能排除人工智能发展达到系统威胁人类的程度。
上周发表的一篇风险论文指出:“鉴于预测人工智能发展存在很大的不确定性,没有足够的证据来排除功能强大的前沿人工智能系统,如果错位或控制不当,可能会构成生存威胁。”
该文件补充说,许多专家认为这种风险非常低,并且需要满足多种场景,包括先进系统获得对武器或金融市场的控制权。对人工智能存在威胁的担忧集中在所谓通用人工智能的前景上——这个术语指的是能够以人类或高于人类智力水平执行多项任务的人工智能系统——理论上可以自我复制、逃避人类控制并做出违背人类利益的决定。
这些担忧导致 3 月份发表了一封由包括埃隆·马斯克在内的 30,000 多名科技专业人士和专家签署的公开信,呼吁暂停大型人工智能实验六个月。
现代人工智能三位“教父”中的两位杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)在五月份签署了一份进一步声明,警告称,避免人工智能带来的灭绝风险应该像对待流行病和核战争的威胁一样严肃对待。然而,他们的“教父”、被视为计算机界诺贝尔奖的 ACM 图灵奖共同获得者 Yann LeCun 表示,对人工智能可能消灭人类的担忧是“荒谬的”。
Facebook 母公司 Meta 的首席人工智能科学家 LeCun 本月向英国《金融时报》表示,在人工智能达到人类水平的智能(系统可以逃避人类控制的水平)之前,需要进行一系列“概念突破”。 LeCun 补充道:“智力与统治欲望无关。对于人类来说甚至都不是这样。”
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。