(3quarks/iStock/Getty Images Plus)
科幻小说中充斥着人工智能的失控和对人类创造者的攻击。 HAL-9000。矩阵。天网。格拉多斯。赛昂人。人类似乎对机器的叛逆有着深深的恐惧。
随着 Chat GPT 等更加复杂的大型语言模型 (LLM) 的兴起,人工智能可能带来哪些危险的问题变得更加相关。
现在,我们有一些好消息。德国达姆施塔特工业大学的计算机科学家 Iryna Gurevych 和英国巴斯大学的 Harish Tayyar Madabushi 领导的一项新研究表明,这些模型不会失控。
事实上,它们受到编程的限制太大,无法在没有指导的情况下获得新技能,因此仍然处于人类的控制之下。
这意味着,尽管我们仍然有可能将这些模型用于邪恶目的,但法学硕士本身是可以安全开发的,无需担心。
“令人担心的是,随着模型变得越来越大,它们将能够解决我们目前无法预测的新问题,这构成了这些较大模型可能获得包括推理和规划在内的危险能力的威胁,”Tayyar Madabushi 说。
“我们的研究表明,担心模型会消失并做出完全意想不到的、创新的和潜在危险的事情是没有道理的。”
在过去的几年里,法学硕士的复杂程度已经增长到了惊人的程度。他们现在能够通过文本进行相对连贯的对话,以一种自然且人性化的方式进行。
它们并不完美——因为它们实际上不是一种智能,在许多情况下它们缺乏从坏信息中解析好信息所需的关键技能。但他们仍然可以以令人信服的方式传达不良信息。
最近,一些研究人员调查了法学硕士独立开发所谓的“涌现能力”的可能性,而不是在其编程中刻意编码。一个特殊的例子是法学硕士能够回答有关社交情境的问题,而无需接受针对这些情境的明确培训。
观察结果是,随着法学硕士规模的扩大,他们变得更加强大并且可以执行更多任务。目前尚不清楚这种扩展是否也意味着我们可能不准备应对的行为风险。因此,研究人员进行了一项调查,看看此类情况是否真正出现,或者程序只是在其代码范围内以复杂的方式运行。
他们试验了四种不同的法学硕士模型,为他们分配了之前被认为是紧急的任务。他们没有发现差异化思维发展的证据,也没有发现任何模型能够在其编程之外采取行动。
对于所有四种模型,遵循指令的能力、记忆力和语言能力能够解释法学硕士所表现出的所有能力。没有离开滑雪道的机会。我们无需担心法学硕士本身。
另一方面,人们则不太值得信任。我们自己对人工智能的爆炸性使用,需要更多的精力,并挑战从版权到信任到如何避免其自身的数字污染的一切,这正在成为一个真正的问题。
“我们的结果并不意味着人工智能根本不构成威胁,”古列维奇说。
“相反,我们表明,所谓的与特定威胁相关的复杂思维技能的出现并没有证据支持,而且我们毕竟可以很好地控制法学硕士的学习过程。因此,未来的研究应该关注模型带来的其他风险,比如它们有可能被用来制造假新闻。”
该研究已作为计算语言学协会第 62 届年会会议记录的一部分发表。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除