点击蓝字
关注我们
海外智库观察
在全球人工智能治理的复杂背景下,当前的讨论逐渐转向更加务实和多元的视角,这一变化不仅反映在技术专家的共识中,也在各国的政策选择和国际会议的议程中得以体现。法国将在2025年举办的人工智能峰会为全球叙事带来了新的契机,其作为一个长期倡导开放与创新的国家,不仅主张削弱美国主导的技术集中化趋势,也致力于为全球人工智能治理提供了一个不同的路径。此外,在开放模型的治理中,过去“支持开放”与“反对开放”的二元对立也已经过时,取而代之的是对开放模型发布的广泛认同,以及对这一过程中的风险和挑战的审慎思考。
本次智库编译合集旨在汇聚“全球人工智能治理的机遇与挑战”相关前沿观点,通过分析法国在人工智能治理中的独特地位和全球人工智能治理的新兴趋势,以及开放模型治理方向的相关文章,来帮助读者理解和预测未来人工智能发展的可能方向。
卡内基国际和平基金会
Carnegie Endowment for International Peace
法国应把握人工智能峰会重塑全球人工智能叙事的机遇
2024年7月24日,卡内基国际和平基金会发布了其技术与国际事务项目副研究员Hadrien Pouget撰写的文章《法国人工智能峰会是重塑全球人工智能叙事的机会(France’s AI Summit Is a Chance to Reshape Global Narratives on AI)》。文章指出,已召开的人工智能峰会与法国当前对人工智能(Artificial Intelligence, AI)战略规划存在错位,并为法国巩固提升其在AI领域全球领导力提出建议。
首先,作者指出,不同于此前对前沿AI系统滥用或失控所带来的危险能力风险的强调,将于2025年2月召开的法国人工智能峰会愿景则根植于开放性和创新的原则,在某种程度上削弱了英美等国对AI领域的安全化。尽管法国为欧盟在数字监管领域的倡导者,并签署了宣称“AI可能对人类构成严重威胁的国际声明”,但是其却试图削弱欧盟《人工智能法案(AI Act)》对强大AI系统的限制,并淡化相关风险。造成法国出现上述行为的原因有二:其一,法国政府的AI委员会向政府报告,指出人工智能峰会对AI风险的强调为炒作行为;其二,法国政府认为英美国家对AI风险的强调本质上是在为设置AI领域准入门槛的辩护,进而使AI开发集中于已经占据主导地位的英美国家企业之中。因此,法国总统马克龙倡导更加多极化的世界和欧洲的“第三条道路”,号召建立一个开放的创新生态系统,同时,法国还强调开发开源软件和数字公地是建设欧洲和法国主权的关键组成部分。
其次,作者分析了法国在领导全球AI治理方面的两大优势。其一,虽然法国在创新方面略逊于美国,但其仍具备一定的竞争力,具体表现为法国的AI初创公司Mistral估值达到20亿美元,并正在构建具有全球竞争力的最先进的AI模型。此外,根据斯坦福大学人类中心AI研究所2024年AI指数报告,法国在生产重要模型方面位居世界第三,仅次于美国和中国。其二,法国在全球范围内具有影响力,它是推动AI研究、全球性的AI原则规范,以及监管进程的关键成员。更重要的是,由于法国更可信,其更可能比美国或欧盟代表“全球社区”,比如法国和中国在2024年5月发布了关于全球AI治理的联合声明。
最后,基于法国自身的优势,作者指出了法国重塑其在AI治理领域话语权的三条道路。其一,利用其独特的地位,为全球社区创造一种具有说服力的发展范式。由于许多国家担心错失AI带来的机遇,法国对开放性和创新性的强调更符合广泛国家对AI治理的预期。其二,法国需要说服其他国家削弱英美两国主导的对AI安全化的处理,否则,以安全为重点的监管方法将被视为获取技术的代价。其三,在风险管控方面,法国需要提出一个积极的愿景以应对AI的风险,比如纳入更为国际社会关注的风险。当前,法国AI委员会的报告已经开始了这一工作,主张政策制定更应当强调广泛的风险,如AI系统的权力集中、对就业的冲击以及对语言和文化的负面影响,而非仅仅关注强大AI系统的风险。作者强调,法国的AI峰会将是一个独特的机会,可以围绕开放性和创新原则重塑全球AI对话,并有机会巩固其作为该领域领导者的地位。与此同时,法国还需要让其他国家更具体地理解这一价值主张,同时维护其与盟友的关系。
卡内基国际和平基金会
Carnegie Endowment for International Peace
超越开放与封闭:基础 AI 模型治理的新兴共识和关键问题
2024 年7月23日,卡内基国际和平基金会发布了其技术和国际事务项目联席主任Jon Bateman和政策研究高级副总裁、欧洲项目主任Dan Baer合著的文章《超越开放与封闭:基础 AI 模型治理的新兴共识和关键问题(Beyond Open vs. Closed: Emerging Consensus and Key Questions for Foundation AI Model Governance)》。本文旨在探讨开放模型的治理问题,特别是模型权重的公开发布,这是推动AI能力发展和广泛传播的关键因素。
首先,作者指出,由于开放模型的关键组件,尤其是模型权重的公开发布,对于AI能力的持续进步和广泛传播至关重要。全球范围内对开放模型的治理讨论尤为激烈,并出现了去极化的迹象。开放模型的支持者认为这可以加速创新、减少市场集中度、增加透明度,以便对抗不平等。然而,也有担忧声音指出,开放模型可能被不良行为者利用,增加滥用的难度,并可能导致人类最终失去对AI的控制。尽管如此,各方面也开始寻求共识。例如,业界内,AI实验室采取了混合发布策略,根据模型的特性选择开放或封闭发布。专家社区也在探讨超越开放/封闭二元对立的框架,强调权重发布之外的决策,并关注更大的生态系统。政府的角色也不容忽视,例如美国国家标准技术研究院(National Institute of Standards and Technology,NIST)就模型权重治理征求公众意见,促进了新话语的出现。
其次,作者指出,尽管取得了一些进展,但仍有两个关键问题亟待解决。目前的一个关键任务是识别和记录新兴共识领域,以便这些想法可以进一步细化、实施,并作为解决更难问题的跳板。在新兴共识中开放和封闭的基础模型都有其合法、积极和重要的作用,并将不可避免地在混合生态系统中共存。开放性是一个多面性的概念,权重发布只是其中的一部分。模型权重发布可能具有特殊影响,其倾向于放大模型的正面和负面潜力,但这种理论趋势并不一定转化为具体的现实世界案例。模型发布决策应取决于边际风险和边际收益的评估,更高级且可能产生影响的模型应进行更广泛和更严格的预先发布评估,以及发布后的监控和执行。目前,没有令人信服的证据表明任何主要的AI公司发布了一个开放的基础模型。回顾来看,它本不应该发布。然而,这一判断是暂时的,因为仍不清楚如何评估开放和封闭基础模型的总体影响。此外,基于不完美的信息发布决策,受到决策者对风险的容忍度,这些属于价值判断。最后,作者认识到“开放模型”与“开源软件”之间存在重要的联系,但不应该将它们混淆。另一个任务是构建需要进一步研究和辩论的关键开放问题,以便政策制定者能够意识到当前的差距,研究人员和倡导者能够将注意力集中在下一个治理前沿最紧迫或最有希望的领域。为此,作者提出了五个开放问题来作为研究和辩论的优先领域。第一,评估模型的好处和风险具有重要性,并需要一个共同的分类法和优先级来指导测量、政策制定和辩论。同时,治理需要更多关注不容易适应传统类别的跨领域的复杂AI影响,以及治理系统如何适应AI行业的快速结构变化。第二,在获取模型风险和好处的更好数据方面,有些基础模型需要被适当评估,并指出了改进评估的方法。第三,预发布评估和发布后监控的重要性,政府在基础模型评估中的适当角色,以及如何定义和执行风险阈值,以及如何扩大风险缓解措施。第四,在国内决策和治理结构方面,治理应当考虑私营和公共部门行为者之间的角色和责任的正确混合,以及如何扩大治理专业知识和公众参与。第五,在全球发展和国际治理方面,文章讨论了治理的哪些方面应该国际化,哪些方面应该主要保持国内,以及如何克服熟悉的国际竞争和僵局模式。同时,文章强调了全球北方行为者如何负责任地与全球南方互动的重要性,以及如何确保AI技术的发展能够惠及所有社会成员的同时,最大限度地减少潜在的风险和危害。这不仅要求治理关注技术的进步,还要关注AI如何影响社会结构和全球经济,以及如何通过国际合作和负责任的治理来实现AI技术的积极影响。
最后,作者指出,为实现治理目标,各方需要在多个层面上采取行动。第一,需要在技术层面上继续推动AI的发展,同时也要确保这些技术的安全和可控。第二,需要在政策层面上建立更加完善的治理机制,包括对AI技术的监管、对数据的保护以及对AI应用的伦理考量。此外,还需要在国际层面上加强合作,共同应对AI技术带来的全球性挑战。在这个过程中,政府、企业、学术界和民间社会都需要发挥各自的作用。政府需要制定合理的政策和法规,为企业和研究机构提供指导和支持。企业需要在追求技术创新的同时,也要考虑社会责任,确保其产品和服务的安全性和伦理性。学术界需要进行深入的研究,为AI技术的发展提供科学依据,同时也要关注其对社会的影响。民间社会则需要参与到AI治理的讨论中来,为政策制定者提供宝贵的意见和建议。总之,AI技术的发展带来了巨大的机遇,也带来了不小的挑战,为此,全球范围内应共同努力,确保AI技术能够造福人类,这需要人们在技术、政策、国际合作等多个层面上进行深入的思考和积极的行动,以确保AI技术的发展能够惠及所有社会成员,同时最大限度地减少潜在的风险和危害,为全人类创造一个更加美好的未来。
原文链接:
[1] https://carnegieendowment.org/posts/2024/07/france-ai-summit-reshape-global-narrative?lang=en
[2] https://carnegieendowment.org/research/2024/07/beyond-open-vs-closed-emerging-consensus-and-key-questions-for-foundation-ai-model-governance?lang=en
文章检索:周韫斐
编译:边洁、朱奕霏、杨雨虹
审核:王净宇
排版:须嘉慧
终审:梁正、鲁俊群
清华大学人工智能国际治理研究院编上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点
往期回顾
海外智库丨人工智能国际治理观察第247期
海外智库丨人工智能国际治理观察第246期
海外智库丨人工智能国际治理观察第245期
关于我们
清华大学人工智能国际治理研究院 (Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除