OpenAI 和 Anthropic 已同意与美国人工智能安全研究所共享人工智能模型(发布前后)。该机构由拜登总统于 2023 年通过行政命令成立,将向公司提供安全反馈,以改进其模型。 OpenAI 首席执行官 Sam Altman 本月早些时候暗示了该协议。
美国人工智能安全研究所没有提及其他致力于人工智能的公司。但谷歌发言人在一份声明中表示,该公司正在与该机构进行讨论,并将在有更多信息时分享。本周,谷歌开始为 Gemini 推出更新的聊天机器人和图像生成器模型。
“安全对于推动突破性技术创新至关重要。有了这些协议,我们期待开始与 Anthropic 和 OpenAI 进行技术合作,以推进人工智能安全科学的发展。”美国人工智能安全研究所所长伊丽莎白·凯利 (Elizabeth Kelly) 在一份声明中写道。 “这些协议只是一个开始,但它们是我们努力帮助负责任地管理人工智能未来的一个重要里程碑。”
美国人工智能安全研究所隶属于美国国家标准与技术研究院 (NIST)。它创建并发布用于测试和评估潜在危险人工智能系统的指南、基准测试和最佳实践。 “正如人工智能有潜力带来深远的好处一样,它也有可能造成深远的伤害,从规模超出我们之前见过的人工智能网络攻击到可能危及数百万人生命的人工智能制定的生物武器”,副总统卡玛拉·哈里斯 (Kamala Harris) 于 2023 年末该机构成立后表示。
这是首个此类协议,是通过一份(正式但不具约束力的)谅解备忘录达成的。该机构将在公开发布之前和之后获得对每家公司“主要新车型”的访问权限。该机构将这些协议描述为协作性、降低风险的研究,将评估能力和安全性。美国人工智能安全研究所还将与英国人工智能安全研究所合作。
与此同时,联邦和州监管机构正试图建立人工智能护栏,而快速发展的技术仍处于萌芽阶段。周三,加州议会批准了一项人工智能安全法案 (SB 10147),该法案要求对开发成本超过 1 亿美元或需要一定计算能力的人工智能模型进行安全测试。该法案要求人工智能公司拥有终止开关,如果模型变得“笨拙或无法控制”,可以关闭它们。
与与联邦政府签订的不具约束力的协议不同,加州的法案将有一定的执行力度。如果人工智能开发人员不遵守规定,尤其是在威胁级别的事件期间,该州总检察长有权提起诉讼。然而,它仍然需要再进行一次程序投票,并需要州长加文·纽瑟姆 (Gavin Newsom) 的签名,他将在 9 月 30 日之前决定是否批准该法案。
更新,美国东部时间 2024 年 8 月 29 日下午 4:53:本文已更新,添加了 Google 发言人的回应。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。