2024 年 4 月,Jigsaw 召集了来自民间社会、学术界以及公共和私营部门的顶尖专家,讨论新兴人工智能技术如何帮助我们提高在线讨论的质量。今天,我们很高兴与代表近 20 个组织的合著者一起,以关于人工智能和数字公共广场未来的立场文件的形式,分享该峰会中出现的一些最引人注目的想法。该论文确定了用于在线讨论的大型语言模型(LLM)的许多前沿应用,反思了需要缓解的关键风险,并提出了未来研究和投资的方向。
此次峰会聚集了来自这个充满活力的新兴研发领域的独特合作伙伴:技术专家和从业者,以及来自媒体、政府和学术界的代表,他们都试图将技术与在线对话和审议结合起来。这一领域的创新为加强社会提供了真正的希望,从支持众包智慧的人工智能平台到可以帮助看似不可调和的群体之间达成共识并协助和平谈判的法学硕士。我们发表这篇论文的目的是为了围绕共同的议程和一系列机会,在全球范围内激发这个充满活力的领域。
从成立之初起,Jigsaw 就一直热衷于利用技术来表达更多声音并兑现互联网的承诺。法学硕士有潜力实质性提高我们数字公共广场的弹性,这使得这项工作成为自然而然的下一步——我们渴望与多元化的合作伙伴一起开展这项工作。
以下思考旨在帮助为这个快速发展的生态系统制定合作研究议程。我们希望与我们的合著者一起,在共同探索法学硕士改善数字公共广场的潜力时,看到这些想法得到追求、挑战和发展。
接下来,我们将展示法学硕士具有可以用来增强数字公共广场的特定品质。例如,它们特别擅长帮助人们理解涉及大量人员的复杂而细致的对话。他们还可以帮助更多的人感受到被倾听并有意义地参与在线对话。
在法学硕士在我们的数字话语中发挥建设性作用的多种可能性中,我们确定了四种我们认为最有希望加强在线多元化对话的可能性。由于本文旨在鼓励进一步探索,因此每个机会都围绕一个核心挑战——旨在激发进一步研究、合作和投资的火花。
集体对话系统(CDS)
法学硕士如何加强集体对话,帮助人们感到他们的声音被倾听并且他们的参与很重要?
在过去的几年里,研究人员和从业者一直在探索所谓协商技术的新应用:旨在实现更高质量、更有建设性和更有效的在线和离线公共讨论的工具和功能。协商技术的一个例子是集体对话系统(CDS)。这些平台,例如 Polis 或 Remesh,将经典焦点小组的定性丰富性与民意调查的定量规模结合在一起。它们允许大量的人有意义地参与在线讨论,例如分享他们的意见或对他人的陈述进行投票。一些 CDS 还可能有助于确定新出现的共识领域,或帮助参与者了解其社区内存在的不同观点。 CDS 可以帮助收集曾经难以想象的规模的集体反馈,但它们仍然面临重大挑战:教育和入职培训非常耗时,CDS 的托管和运行成本可能很高,而且政策制定者和参与者可能很难快速找到答案数据中有意义的模式。
法学硕士特别适合解决其中许多挑战。一个例子可能是使用附加到特定 CDS 的专有法学硕士,这些 CDS 使用相关数据进行培训以进行特定审议。然后,协调员和参与者可以查询这些法学硕士,从而帮助使教育更加个性化且成本更低。法学硕士的其他机会可能包括针对多语言人群的实时翻译、有助于鼓励参与的智能提示功能,以及对复杂数据更好的总结和可视化形式。然而,CDS 并不是万能药——意见聚合只是任何有意义的审议的一部分,法学硕士应该用来增强或扩展这种更广泛的集体推理和建设性分歧的过程,而不是取代它。透明度和可靠性对于法学硕士被视为集体对话中值得信赖和有益的补充也至关重要。
桥接
法学硕士如何帮助重新构想数字公共广场,以加强桥梁,同时保留建设性分歧?
在支离破碎的社会中建立信任既是科学也是艺术,因此话语空间的调解者和设计师长期以来一直采用桥接的概念。这意味着在具有不同观点、价值观和身份的人之间找到共同点。人工智能最近的突破使得扩大与更大在线空间的桥接成为可能,为增进相互理解和/或减少两极分化提供了新的机会。
桥接算法已经得到普遍使用,为 X 的社区注释或 YouTube 的注释等功能提供支持。这些算法识别并提升最能引起广大受众共鸣的众包上下文注释。现在,法学硕士可以识别有助于信任和理解人们在线发布内容的修辞属性(例如个人故事、同情心、细微差别或推理)。这反过来又为应用程序和平台设计者创造了新的机会,让他们能够创造出以推动更健康的参与和对话的方式呈现这些评论的方法。研究表明,出于建设性或好奇心而重新排名可能会增加理解并减少敌意。然而,桥接系统存在放大广泛吸引人但最终缺乏实质性内容的风险,甚至以牺牲有意义的讨论为代价。
社区驱动的审核
法学硕士如何帮助版主节省时间,避免倦怠,并以合法且值得信赖的方式为社区取得更好的成果?
随着许多不同的数字公共广场在广泛的平台上蓬勃发展,法学硕士也有机会更好地支持较小的在线社区,并帮助他们进行他们想要进行的各种对话。付费和志愿者人类版主在领导这些社区方面发挥着重要作用,但这项工作可能很繁重,而且通常涉及在可能无法满足社区独特需求的一刀切的内容政策或工具内工作。然而,有了法学硕士,小组主持人可以从工具中受益,这些工具使他们能够为社区中发生的对话制定和执行动态和定制的指导方针。
法学硕士第一次允许使用更灵活或“可组合”的工具,这些工具对细微的内容更加敏感,并且可以接受培训以在标记潜在有害帖子时遵循特定社区的规范。法学硕士还可以用于帮助主持人主动塑造社区健康,包括可以帮助培训新主持人的模拟讨论,或帮助小组成员更有建设性地沟通的实时作者反馈功能。然而,为了使这些法学硕士工具合法且有用,它们的部署方式必须考虑到潜在风险并在设计时考虑到透明度。例如,法学硕士培训集可能会对某些语言或言语模式过度索引,并可能对弱势群体表现出偏见。如果其使用和功能不透明,LLM 审核工具可能会导致社区内的信任水平降低。如果要成为人工智能调节的合法基础,为法学硕士建立社区规范的流程就必须具有包容性和公平性。
人性的证明
新的人类验证方法如何跟上法学硕士的新兴能力,同时保护隐私并确保可访问性?
早期的互联网在来自世界各地的匿名和假名参与者之间在各种公告板和在线论坛上培育了一种自由表达的文化。随着时间的推移,机器人、垃圾邮件和欺骗性账户的兴起导致了信任和真实性方面的新问题。如今,人们有理由担心,法学硕士可能会让不良行为者更容易、更便宜地操纵和欺骗用户,从而放大这些挑战。鉴于法学硕士在在线讨论中的普遍性和潜在好处,通过能够跟上人工智能快速发展步伐的技术应对措施来应对这些潜在的滥用行为非常重要。
人性证明系统就是这样的一种回应。多年来,reCAPTCHA 通过要求人类解决交互式视觉谜题来帮助防范机器人。但现在的研究表明,法学硕士能够像人类一样解决这些问题。解决这一技术问题的一个潜在途径可能是使用零知识证明的人格凭证:一种加密方法,允许一方向另一方证明某个陈述是真实的,但不共享任何进一步的信息。这可以在确保用户匿名的同时验证人员身份。先进的人性证明系统还带来了新的潜在风险,包括生物识别数据的强制同意、安全漏洞或数据泄露,以及新的监视媒介。作为安全和公平部署这些系统的起点,应制定一套共享原则。最初的原则可能包括互操作性(使凭证可跨平台移植)、安全性(确保系统和个人数据的完整性)、相称性(明智地使用这些系统并在不必要时尽量减少其使用)和自我主权(确保用户同意和所有权) )。
我们与合作伙伴一起相信,人工智能在未来几年有巨大的潜力使在线话语受益——但为了使我们的数字公共广场蓬勃发展,这项工作需要以负责任的创新、对风险的密切关注以及开放和开放的方式为指导。协作精神。本着这种精神提出上述思考,以引发进一步的对话和探索。
对于那些有兴趣深入研究这些挑战和机遇的人,完整的立场文件可作为开放获取预印本在此处获取。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除