我们身边存在着陌生的思维体。不是科幻小说中的小绿人,而是驱动你的智能手机人脸识别、决定你的信用价值和创作诗歌与计算机代码的陌生思维。这些陌生思维是人工智能系统,是你每天都会接触到的机器中的幽灵。
但是,人工智能系统存在一个重大限制:它们的内部运作是晦涩难懂的,使其基本不可解释和不可预测。此外,构建出符合人们期望的人工智能系统也是一项巨大挑战。
如果你对不可预测的人工智能本质一无所知,你又如何信任它呢?
人工智能的不可预测性
信任是建立在预测性基础之上的。它依赖于你预测他人行为的能力。如果你信任某人,他们却没有按照你的期望行事,那么你对其可信度的看法就会降低。
许多人工智能系统是建立在深度学习神经网络上的,从某种程度上模仿人脑。这些网络包含相互连接的“神经元”,具有影响神经元之间连接强度的变量或“参数”。当一个朴素的网络被给予训练数据时,它通过调整这些参数来“学习”如何对数据进行分类。通过这种方式,人工智能系统学会了针对它以前没有见过的数据进行分类。它并不是记住每个数据点是什么,而是预测一个数据点可能是什么。
许多最强大的人工智能系统包含数万亿个参数。因此,人工智能系统做出决策的原因通常是不透明的。这就是人工智能解释性问题 – 人工智能决策的不可解释的黑匣子。
想象一下“电车困境”的一个变种。假设你是一个由人工智能控制的自动驾驶车辆的乘客。一个小孩突然跑到路上,人工智能必须做出决策:撞到小孩还是转向撞车,可能伤及乘客。这个选择对于人来说是很困难的,但人类有一个有利于解释他们决策的优势。他们的理性化是由道德规范、他人的观念和期待行为所塑造的,这样就形成了信任。
人工智能行为与人类期望
信任不仅依赖于可预测性,还依赖于道德或伦理动机。你通常期望人们的行为不仅符合你的假设,还符合应有的行为。人类的价值观受到共同经历的影响,道德推理是一个动态的过程,受道德标准和他人观念的塑造。
与人类不同,人工智能不会根据别人对它的看法调整自己的行为,也不会遵守伦理规范。人工智能对世界的内部表达在很大程度上是静态的,由其训练数据确定。它的决策过程是基于一个不变的世界模型,对不断影响人类行为的动态、微妙的社交互动毫不动摇。研究人员正在努力将伦理规范编入人工智能,但这是一项具有挑战性的任务。
关键系统与信任人工智能
减少不确定性并增强信任的一种方法是确保人类参与人工智能系统的决策。这是美国国防部采取的做法,要求所有人工智能决策都必须有人类介入。介入意味着人工智能系统提出建议,但人类必须发起行动。而参与意味着虽然人工智能系统可以自主发起行动,但人类监控人工智能系统,可以干预或更改其行动。
尽管让人类参与是一个很好的第一步,但我并不认为这在长期内是可持续的。随着公司和政府继续采用人工智能,未来很可能包括嵌套的人工智能系统,快速决策将减少人类干预的机会。在达到人类干预变得不可能的临界点之前,解决解释性和对齐问题非常重要。到那时,除了信任人工智能以外别无选择。
避免达到这个临界点尤其重要,因为人工智能越来越多地融入到关键系统中,包括电网、互联网和军事系统等。在关键系统中,信任至关重要,不良行为可能导致严重后果。随着人工智能整合变得更加复杂,解决限制可信度的问题就变得更加重要。
人们能否信任人工智能?
人工智能是陌生的 – 一种人们对其了解很少的智能系统。人类对其他人类是相当可预测的,因为我们有相同的人类经验,但这并不适用于人工智能,尽管它是由人类创造的。
如果信任有内在的可预测和符合规范的元素,那么人工智能从根本上缺乏使其值得信任的特质。希望在这个领域进行更多的研究能够阐明这个问题,确保未来的人工智能系统值得我们的信任。
极客FUN (eiefun.com) 专注最新科技和人工智能领域,为您提供最新科技和AI的相关资讯、教程和免费AI工具。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除