点击蓝字
关注我们
海外智库观察
近年来,中国在在AI安全治理方面的进展引发了全球范围内的广泛关注。美国作为人工智能全球治理的重要参与者,其智库对于中国AI安全治理的观察和分析可以从“旁观者”的角度对中国的人工智能安全治理提供参考。本期海外智库观察选取卡内基国际和平基金会的文章,旨在为读者提供中国在AI安全治理方面的最新动向以及美国智库对这些变化的看法。
卡内基国际和平基金会
Carnegie Endowment for International Peace
人工智能安全问题将成为中国人工智能政策的核心议题
2024年8月27日,卡内基国际和平基金会发布了其研究员Matt Sheehan撰写的文章《中国对人工智能安全的看法正在迅速改变(China’s Views on AI Safety Are Changing—Quickly)》。文章指出,中国的人工智能政策越来越重视人工智能安全问题,其将中国人工智能政策中安全议题的展演分为三个阶段,并在最后指出了当前国际社会在人工智能安全治理问题上合作的挑战与机遇。
首先,作者强调,由于人工智能(Artificial Intelligence, AI)安全在技术界和政策界受到关注的侧重点有所不同,不同主体在讨论AI安全问题时对安全的认知存在偏差。例如,对技术界而言,AI科学家和工程师都认为强大的AI系统存在对人类构成威胁的可能性,其内部分歧在于威胁事件发生的时间线;对政策界而言,政府工作人员则认为不应过于关注未来可能存在的威胁而忽视了当前已然存在的AI安全风险,如带有偏见的算法或AI武器。对于中国来说,中文语境下的“安全”与国外专家讨论的“safety”或“security”亦存在差异,比如中文中的“安全”在不同语境中还可能指代更为广泛的“安全性”或“安全保障”,而全球话语中的“AI安全”则指的是极端风险类型。因此,话语和认知的差异使得中国的人工智能安全问题的讨论与其他国家的讨论存在分异,但就当前中国人工智能政策中安全议题的话语展演而言,中国的技术界和政府工作人员对 AI安全的认知发生了改变。
其次,作者具体阐释了中国的人工智能安全话语的展演的三个演变阶段的。第一阶段 AI安全问题的正式提出始于2020年,该议题由中国科学界和学术界的专家学者对前沿人工智能安全的担忧发展而来,具体表现为国内一些著名的计算机科学家和有影响力的政策顾问开始公开讨论AI安全风险,并以技术为切入点寻求应对措施。比如北京大学教授高文在2021年撰写的一篇关于通用人工智能潜在风险的论文中指出,通用人工智能系统可能具有递归自我改进的能力,使系统的认知能力远超人类,进而导致不可避免的灾难性后果。政策界在该阶段也对AI安全问题产生了初步的认知:2021年9月科技部的AI治理专家委员会发布了一份题为《新一代人工智能伦理规范》的文件,来呼吁“确保AI始终在人类控制之下”,这代表了对前沿AI安全的具体担忧第一次进入政策讨论。随后,中央网络安全和信息化委员会发布了中国首批针对AI推荐算法和深度伪造技术等问题的法规,为AI治理创造了一些监管工具,包括要求供应商对其算法进行“安全或安全性评估”。在这一阶段,尽管 AI安全议题得到了较为广泛的讨论和关注,但关于极端风险的讨论仍在政策讨论的边缘位置。第二阶段在 2022年,ChatGPT的横空出世将AI安全问题推向了AI治理的核心议题。其有四种具体表现为:其一,2023年6月,北京智源人工智能研究院举办了一场前沿AI安全论坛,包括姚期智在内的中国国内著名计算机科学家与来自欧美的同行进行交流讨论,期间,中国专家公开讨论了AI安全问题。其二,2023年10月,姚期智、薛澜等研究者和AI先驱Geoffrey Hinton、Yoshua Bengio等学者共同撰写了题为《在快速进展中管理极端AI风险》的论文,强调了AI快速发展可能带来的极端风险,如导致大规模生命损失、生物圈的毁灭、人类的边缘化或灭绝。其三,2023年10月,中国国家主席习近平提出《全球AI治理倡议》再次强调“确保AI始终在人类控制之下”,阐明了中国在AI国际治理中的核心原则。其后,时任科技部副部长吴朝晖出席了AI安全峰会,并与美国、英国、欧盟等在内的28个国家共同签署了以关注前沿AI系统风险为重点的《布莱切利宣言》。其四,在2024年间,中国的技术和政策圈对AI安全的讨论继续升温,比如在2024年3月,来自中国和西方的高级科学家们共同发布了一份关于前沿AI发展不应逾越的红线的联合声明。在该时期,科学界、学术界和政策界对 AI安全的关注度明显提高,其关注的安全问题多聚焦于前沿系统的对齐问题和稳健性等具体议题。第三阶段在2024年7月和8月,中国国内对AI安全的关注达到了高潮。三种具体表现为:其一,在中国最高规格的年度AI盛会上海世界人工智能大会上,中国AI界的著名专家讨论了确保AI安全的技术和监管基础;其二,上海AI实验室成为了中国国内最积极的AI安全技术研究机构之一,并发布了一份关于“AI安全作为全球公共产品”的报告,该报告呼吁各国政府将包括风险评估工具和资源库在内的AI安全研究的成果视为公共产品,并通过专注于安全的国际网络广泛传播;其三,中共中央在党的三中全会上发布了一项决议,在关于公共安全与安保威胁的章节中,中共中央领导层呼吁国家“建立监督系统,确保人工智能的安全”。这一决议和后续文件展示了中国政府对 AI安全问题的态度,侧面反映了中国的政策制定者在制定政策时将AI安全风险视为对公共安全的大规模威胁,并计划采取行动减轻相关风险。
最后,作者强调,随着中国对前沿人工智能风险态度的转变,其在人工智能领域的安全工作的优先级可能也会相应地提高。尽管中国对于AI安全的认知与国际社会所关注的AI安全逐渐对齐,但国际社会在人工智能安全方面的合作仍然存在巨大的挑战,其中,地缘政治竞争是阻碍国际社会推进人工智能全球治理的主要阻碍。安全困境下,世界主要大国对彼此使用AI意图的不信任,这导致了各国要想达成任何关于前沿AI治理的具有约束力的国际协议极为困难。与此同时,人工智能全球治理的机遇仍然存在,即在无法达成重大协议的情况下,仍可能就围绕某些跨国安全风险的评估和缓解等技术合作达成共识,这要求国际社会中的各个国家对AI所可能带来的共同威胁达成共识,从而推动更加行之有效的人工智能全球治理机制出台。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除