2019 年,亚马逊升级了 Alexa 助手,新增一项功能,使其能够检测顾客何时可能感到沮丧,并相应地给予更多同情。例如,如果顾客要求 Alexa 播放一首歌曲,但它排错了歌曲,然后顾客用不安的语气说“不,Alexa”,Alexa 可能会道歉,并要求澄清。
现在,用于训练文本到图像模型稳定扩散的数据集之一的团队希望免费为每个开发人员带来类似的情绪检测功能。
本周,用于训练生成型人工智能(包括稳定扩散)的非营利组织 LAION 宣布了开放移情项目。用该组织的话说,Open Empathic 的目标是“为开源人工智能系统配备同理心和情商”。
LAION 联合创始人 Christoph Schuhmann 通过电子邮件向 TechCrunch 表示:“LAION 团队拥有医疗保健、教育和机器学习研究背景,他们看到了开源社区的一个空白:情感人工智能在很大程度上被忽视了。” “就像我们对不透明的人工智能垄断的担忧导致了 LAION 的诞生一样,我们在这里也感到了类似的紧迫性。”
通过 Open Empathic,LAION 正在招募志愿者将音频剪辑提交到数据库,该数据库可用于创建人工智能,包括聊天机器人和文本到语音模型,“理解”人类情感。
“通过 OpenEmpathic,我们的目标是创造一种超越仅仅理解文字的人工智能,”Schuhmann 补充道。 “我们的目标是让它掌握表情和语气变化的细微差别,使人与人工智能的互动更加真实和富有同理心。”
LAION 是“大规模人工智能开放网络”的缩写,由 Schuhmann 于 2021 年初创立,Schuhmann 是一名德国高中教师,也是人工智能爱好者 Discord 服务器的几位成员。 LAION 的资金来源包括人工智能初创公司 Hugging Face 和 Stability AI(Stable Diffusion 背后的供应商)的捐款和公共研究资助,其宣称的使命是从训练数据开始,实现人工智能研究和开发资源的民主化。
“我们有一个明确的使命:利用人工智能的力量,真正造福社会,”LAION 的开源贡献者、博士 Kari Noriy 说道。伯恩茅斯大学的学生通过电子邮件告诉 TechCrunch。 “我们热衷于透明度,并相信塑造人工智能的最佳方式就是公开。”
因此开放同理心。
在该项目的初始阶段,LAION 创建了一个网站,要求志愿者对个人讲话的 YouTube 剪辑进行注释,其中一些是由 LAION 团队预先选择的,另一些是由志愿者选择的。对于每个剪辑,志愿者可以填写详细的字段列表,包括剪辑的转录、音频和视频描述以及剪辑中人物的年龄、性别、口音(例如“英国英语”)、唤醒水平(警觉性 -需要明确的是,不是性的)和效价水平(“愉快”与“不愉快”)。
表单中的其他字段与剪辑的音频质量以及是否存在大声背景噪音有关。但大部分关注的是人的情绪——或者至少是志愿者认为他们拥有的情绪。
从一系列下拉菜单中,志愿者可以选择个人或多种情绪,从“活泼”、“轻快”和“迷人”到“反思”和“参与”。卡里说,这个想法是在捕捉各种语言和文化的表达的同时征求“丰富”和“情感”的注释。
“我们的目标是训练能够掌握多种语言并真正理解不同文化背景的人工智能模型,”卡里说。 “我们正在努力创建能够‘理解’语言和文化的模型,使用展示真实情感和表达的视频。
一旦志愿者向 LAION 的数据库提交剪辑,他们就可以重新重复该过程 – 单个志愿者可以注释的剪辑数量没有限制。 LAION 希望在接下来的几个月内收集大约 10,000 个样本,乐观地说,到明年收集到 100,000 到 100 万个样本。
“我们拥有热情的社区成员,他们在人工智能模型和数据集民主化愿景的推动下,愿意在空闲时间贡献注释,”卡里说。 “他们的动机是创造一个所有人都可以使用的具有同理心和情商的开源人工智能的共同梦想。”
情绪检测的陷阱
除了亚马逊在 Alexa 上的尝试之外,初创公司和科技巨头都在探索开发能够检测情绪的人工智能,其目的包括从销售培训到防止困倦引发的事故。
2016 年,苹果收购了 Emotient,这是一家圣地亚哥公司,致力于分析面部表情的人工智能算法。去年 5 月,Affectiva(麻省理工学院的衍生公司)被总部位于瑞典的 Smart Eye 收购,曾声称其技术可以在 1.2 秒内检测言语中的愤怒或沮丧。微软于 2021 年 4 月购买的语音识别平台 Nuance 演示了一款汽车产品,可以根据驾驶员的面部线索分析驾驶员的情绪。
新兴的情绪检测和识别领域的其他参与者包括 Hume、HireVue 和 Realeyes,它们的技术被用来衡量特定受众群体对特定广告的反应。一些雇主正在使用情绪检测技术,通过对同理心和情商进行评分来评估潜在员工。学校已部署它来监控学生在课堂上和远程在家中的参与情况。情绪检测人工智能已被各国政府用来识别“危险人物”,并在美国、匈牙利、拉脱维亚和希腊的边境管制站进行了测试。
LAION 团队预计,该技术将在机器人、心理学、专业培训、教育甚至游戏领域得到有益且不会出现问题的应用。克里斯托夫描绘了一幅提供支持和陪伴的机器人、感知某人何时感到孤独或焦虑的虚拟助手以及帮助诊断心理障碍的工具的图片。
这是一个科技乌托邦。问题是,大多数情绪检测的科学依据都不稳定。
普遍存在的情绪标记(如果有的话)很少——这使得情绪检测人工智能的准确性受到质疑。大多数情绪检测系统都是建立在心理学家 Paul Ekman 于 70 年代发表的研究成果之上的。但随后的研究——包括埃克曼自己的研究——支持了这样一个常识性观念:来自不同背景的人表达感受的方式存在重大差异。
例如,在马来西亚,普遍认为恐惧的表达方式是威胁或愤怒的刻板印象。艾克曼在他后来的一部作品中指出,美国和日本学生对暴力电影的反应往往截然不同,如果房间里有其他人——尤其是权威人物——日本学生会采取“一套完全不同的表达方式”。
声音也涵盖了广泛的特征,包括残疾人、自闭症等疾病以及使用其他语言和方言(例如非裔美国人白话英语 (AAVE))的人。以法语为母语的人在用英语进行调查时可能会暂停或发音一个带有一定不确定性的单词——这可能会被不熟悉的人误解为情绪标记。
事实上,情感检测人工智能的一个重要问题是偏见——由注释者带来的隐性和显性偏见,这些注释者的贡献被用来训练情感检测模型。
例如,在 2019 年的一项研究中,科学家发现,贴标签者更有可能将 AAVE 中的短语注释得比一般美式英语中的短语更具毒性。性取向和性别认同也会严重影响注释者认为哪些单词和短语是有毒的——就像彻底的偏见一样。一些常用的开源图像数据集被发现包含来自注释者的种族主义、性别歧视和其他攻击性标签。
下游影响可能相当巨大。
研究发现,人工智能招聘平台 Retorio 对穿着不同服装(例如眼镜和头巾)的同一候选人的反应不同。在 2020 年麻省理工学院的一项研究中,研究人员表明,面部分析算法可能会对某些面部表情(例如微笑)产生偏见,从而降低其准确性。最近的研究表明,流行的情绪分析工具倾向于将更多的负面情绪分配给黑人面部而不是白人面部。
尊重过程
那么 LAION 团队将如何对抗这些偏见——例如,确保数据集中白人的数量不超过黑人;非二元性别的人不会被分配错误的性别;那些患有情绪障碍的人不会被贴上他们不想表达的情绪的标签吗?
目前还不完全清楚。
Christoph 声称 Open Empathic 的培训数据提交流程并不是“敞开的大门”,并且 LAION 拥有适当的系统来“确保贡献的完整性”。
“我们可以验证用户的意图并持续检查注释的质量,”他补充道。
但 LAION 之前的数据集并不完全是原始的。
LAION ~400M(该组织试图使用自动化工具策划的 LAION 图像训练集之一)的一些分析发现了描绘性侵犯、强奸、仇恨符号和图形暴力的照片。 LAION ~400M 也充满了偏见,例如,对于“CEO”等词,返回男性图像,而不是女性图像;对于“恐怖分子”,则返回中东男性的图像。
克里斯托夫相信社区可以作为这次复飞的制约因素。
“我们相信来自世界各地的业余科学家和爱好者齐心协力为我们的数据集做出贡献的力量,”他说。 “虽然我们是开放和协作的,但我们优先考虑数据的质量和真实性。”
至于如何使用任何在开放移情数据集上训练的情绪检测人工智能(无论是否有偏见),LAION 都致力于坚持其开源理念,即使这意味着人工智能可能会被滥用。
LAION 联合创始人兼慕尼黑工业大学医生 Robert Kaczmarczyk 通过电子邮件表示:“利用人工智能来理解情绪是一项强大的事业,但它也面临着挑战。” “就像任何工具一样,它可以用来做好事,也可以用来做坏事。想象一下,如果只有一小部分人能够获得先进技术,而大多数公众却一无所知。这种不平衡可能会导致少数控制这项技术的人滥用甚至操纵。”
在涉及人工智能的地方,自由放任的方法有时会回到咬模型的创建者身上——稳定扩散现在如何被用来创建儿童性虐待材料和未经同意的深度伪造品就证明了这一点。
包括欧洲数字权利和 Access Now 在内的某些隐私和人权倡导者呼吁全面禁止情感识别。 《欧盟人工智能法案》是最近颁布的欧盟法律,为人工智能建立了治理框架,禁止在警务、边境管理、工作场所和学校中使用情绪识别。面对公众的强烈反对,一些公司(例如微软)自愿撤回了情绪检测人工智能。
不过,LAION 似乎对所涉及的风险水平感到满意,并且对开放的开发过程充满信心。
“我们欢迎研究人员四处探索、提出改变建议并发现问题,”卡兹马克说。 “就像维基百科依靠社区贡献而蓬勃发展一样,OpenEmpathic 也受到社区参与的推动,确保其透明和安全。”
透明的?当然。安全的?时间会证明一切。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。