澳大利亚政府正在考虑制定欧盟式的人工智能法案,以规范整个经济中高风险人工智能的最低标准。
周三,工业和科学部长埃德·胡西克 (Ed Husic) 发布了一份讨论文件,提出了针对高风险人工智能的 10 个“强制性护栏”,包括人类监督以及挑战人工智能使用或自动化决策结果的能力。
胡西克在一份声明中表示,澳大利亚人“知道人工智能可以做出伟大的事情”,但他们也想知道“如果事情出轨”,保护措施是否到位。
-
注册澳大利亚卫报的突发新闻电子邮件
他说,“我们需要更多的人使用人工智能,为此我们需要通过创建监管框架来建立信任”。
长期以来,生成式人工智能一直是科幻小说中的东西,它可以创建文本、图像、音频和代码等新内容,通过 ChatGPT、谷歌的聊天机器人 Bard 和微软 Bing 的聊天等“大语言模型”程序,它的使用率激增特征 。
人工智能已经给立法者和消费者带来了挑战,从在价格上误导人们、聊天程序提供的虚假声明涉嫌诽谤,到电子安全专员警告生成式人工智能可能会自动诱骗掠夺者诱骗儿童。
该论文指出,虽然人工智能可以“改善福祉和生活质量”,但其潜在危害包括产生和放大偏见;身体或心理伤害;侵犯隐私;通过信息操纵和恶意网络活动威胁国家安全。
该论文建议将高风险人工智能定义为“预期和可预见的用途”以及通用人工智能产生的“不可预见的风险”,这些风险“可以应用在最初设计之外的环境中”。
在这 10 条护栏下,开发或部署高风险人工智能的组织需要建立风险管理流程;测试人工智能并在部署后进行监控;实现人为控制或干预以实现有意义的人为监督;向最终用户通报人工智能决策、交互和内容;并为受人工智能系统影响的人们建立挑战使用或结果的流程。
报告称,还应要求组织“保存和维护记录,以便第三方评估对护栏的遵守情况”,并进行测试来证明自己的合规性。
一旦解决,这些护栏可以在现有法规范围内实施,通过修改不同领域的立法或通过“新的跨经济体人工智能法案”,正如欧盟在 6 月采取的行动那样。
该文件称,这一选择将有助于建立一个独立的人工智能监管机构,尽管这将“需要资源和时间”。
胡西克表示,澳大利亚人希望对人工智能提供更强有力的保护,企业也一直呼吁更加明确地安全使用人工智能。
“从今天开始,我们开始实施这些保护措施,”他说。
该报指出,政府计划“加强隐私保护、透明度和问责制”,指的是预计最早将于下周公布的隐私法改革方案。
总检察长部门还在制定“支持使用自动化决策系统的整个政府法律框架”,这是 robodebt 皇家委员会的建议。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除