各国政府正在研究限制人工智能风险的方法,但一些专家对这项技术能否得到控制持怀疑态度。
上周在英国举行的人工智能安全峰会汇聚了美国、中国、欧盟、英国和其他 25 个国家。与会者商定了指导方针,以制止传播虚假信息和造成严重伤害(无论是有意还是无意)等问题。
但这些都是崇高的目标,但可能并不现实。
多米诺数据实验室数据科学战略和推广负责人 Kjell Carlsson 在接受采访时表示:“人工智能是一系列技术的总称,从专家系统到传统机器学习,再到最近的生成式人工智能。” “这使得制定适用于所有这些技术和无数潜在用例的监管变得困难。”
防止伤害的希望
峰会上的政策制定者强调了正在进行的人工智能研究的重要性,主要侧重于确保《布莱切利宣言》中的安全。统一战线出现之际,人工智能领域的一些领军人物对从技术消灭人类到仅仅削减工作岗位等各种问题发出了警告。
然而,其他观察家认为,这些世界末日场景要么被夸大了,要么是一种营销形式。 Meta 的顶级人工智能科学家 Yann LeCun 在 X(以前称为 推特)上写道:“人工智能末日论正迅速变得与世界末日宗教难以区分。”
相关:人工智能安全峰会:28个国家和欧盟签署“布莱切利宣言”
峰会与会者试图在辩论中找个位置坐下来。
《布莱切利宣言》指出:“人工智能(AI)带来了巨大的全球机遇:它有潜力改变和增强人类福祉、和平与繁荣。” “为了实现这一点,我们申明,为了所有人的利益,人工智能应该以安全、以人为中心、值得信赖和负责任的方式设计、开发、部署和使用。”
该宣言强调,每个人都需要共同努力,识别人工智能安全风险并基于科学理解它们。它还建议制定适合各国具体情况的规则,促进政府间的合作和开放。
声明称:“人工智能带来的许多风险本质上是国际性的,因此最好通过国际合作来解决。”
各国政府也在采取措施控制人工智能。会前,拜登总统发布了人工智能发展行政命令,强调政府、企业和大学之间的合作,指导人工智能评估、促进创新、保护就业和确保消费者隐私。
相关:英国人工智能安全峰会:他们讨论了什么
拜登表示:“我的政府不能也不会容忍人工智能的使用让那些已经经常被剥夺平等机会和正义的人处于不利地位。”
怀疑论者对提案投以阴影
人工智能监管专家米兰·科德斯塔尼(Milan Kordestani)在接受采访时表示,虽然峰会显示了人工智能安全问题上新的国际团结,但目前拟议的法规还不足以限制风险。他指出,拜登的命令指示联邦机构制定和实施人工智能保障措施,也鼓励私营部门采取这些保障措施,但缺乏具体性。
“拟议的法规并不直接限制私营部门,也没有解决公民个人与人工智能技术互动的方式,”他补充道。 “更重要的是,这些法规没有解决学术机构人工智能的发展问题,甚至没有让学术界参与有关人工智能风险对话的一部分。从这些方面来看,拟议的法规还不足以解决人工智能固有的严重风险。”
Kordestani 表示,美国和国外正在考虑的人工智能监管大部分都集中在技术上,而不是以人为中心的方法。他提出,我们不仅要问这项技术能发展到什么程度,还要问人工智能对我们在医学或教育等其他领域的技术进步意味着什么。
相关:英国人工智能安全峰会的 5 个要点
“我们需要制定法规来应对我们的劳动力、分销网络,甚至我们自己的思维方式的变化,”他补充道。 “目前拟议的法规是重要且必要的第一步,但它们甚至无法开始解决人工智能发展的长期社会影响。”
“在 20 世纪 80 年代末设计互联网法规的立法者永远无法预测我们现在需要对社交媒体上的错误信息进行监管:同样,人工智能监管需要是一个动态的过程,以确保我们不断应对新的风险人工智能。”
就像核武器一样
试图控制人工智能的一个问题是该技术的全球影响力。科技公司 Modulus 的首席执行官理查德·加德纳 (Richard Gardner) 将监管人工智能的挑战比作控制核武器。
他在接受采访时表示:“在一国境内,甚至作为一个国际社会,对人工智能进行监管,意味着敌对民族国家可能会继续发展,即使他们签署了一项协议,表示不会这样做。” “同样,流氓开发者也可以创造黑市人工智能产品。这与几十年来在伊拉克和伊朗寻找核计划的打地鼠游戏没什么不同,只是计算机更容易隐藏。”
当谈到受版权保护的材料时,加德纳表示,政府法规应集中在 robots.txt 文件的使用上。这些由网站管理员制作的用于指导搜索引擎机器人如何探索其网站页面的文本文件应包含在人工智能编程中,以排除对受版权保护或其他受保护材料的使用或培训。
“然后我们需要让创新者继续研发,”他补充道。 “拜登政府潜在的严厉监管方式可能最终会导致政府批准的审查制度。”
即使弄清楚如何应用人类道德的大致轮廓也可能具有挑战性。现行人权法构成了人工智能倡议受到挑战的基础。 Software Improvement Group 的人工智能和应用程序安全专家 Rob van der Veer 在接受采访时表示,仍然迫切需要以具体法规的形式对这些抽象权利进行精确翻译。
他补充说:“隐私法规对使用个人数据的人工智能系统的目的、透明度和公平性以及所涉及的个人数据的保护和处理设置了一些界限。” “安全法规照顾人工智能系统的基本应用安全,但对于人工智能工程所面临的新威胁和资产存在许多盲点,例如训练数据中毒。”
如何制定更好的法规
整个人工智能领域发展如此之快,以至于很难预测并控制即将发生的事情。 Kordestani 指出,监管人工智能的过程必须是连续的,不断评估和重新评估新的进步和技术。他认为这种方法可能意味着新的立法或国际条约限制新的培训方法或新的应用。
他补充说:“政府应与企业合作,确保创新不被扼杀,保持竞争优势,同时确保人工智能的安全开发和使用。” “同时,需要更多的学者参与并尊重这种对话,以确保我们也从道德角度维护公众的安全——确保公平获取、讨论数据伦理和社会偏见,并提出有关人类存在意义的有价值的问题面对技术变革。”
科德斯塔尼说,归根结底,人工智能的危险之一是不怀好意的行为者会为了邪恶的目的而开发人工智能。为了让事情变得更安全,我们需要不断制定更好的人工智能发展国际规则。
“但我认为,必须通过公共、私人和学术领域之间的对话来建立这些多利益相关者的方法,以便不断适应和应对危险和恶意行为者,”他补充道。 “对人工智能保持警惕但动态的监管可以防止普通公民面临人工智能可能对我们的劳动力、治理和日常生活造成的大多数危险。”
卡尔森说,当监管针对特定用例而不是仅仅关注特定技术时,监管效果会更好。例如,他指出,监管汽车安全比希望对所有内燃机的一般监管能够带来更安全的汽车更有效。因此,制定法律来防止使用深度造假进行欺诈比建议法律要求在生成人工智能制作的内容中添加水印更有价值。
他补充说:“虽然这意味着监管将始终赶上用例——因为人工智能的新用途不断被发明——这是不可避免的也是适当的。” “然而,这意味着我们需要一个能够快速适应、能够快速设计、执行和更新法规的监管结构。不幸的是,就像所有技术一样,人工智能的潜在问题和风险与人工智能关系不大,而与人类密切相关。”
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。