点击蓝字
关注我们
刘典
复旦大学中国研究院副研究员、 清华大学人工智能国际治理研究院战略与宏观项目主任、 技术经济与管理研究总编辑
前言
2024年9月14日,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》(下称“《办法》”),旨在规范人工智能生成合成内容标识,确保技术在文化传播、信息管理中的可控性。在此之前,我国《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》与《生成式人工智能服务管理暂行办法》已提出就算法生成合成信息、深度合成信息内容(包括图片、视频等)履行标识义务的概要性规定,但仍然留下了算法领域的空白,比如未对标识的具体类型、“显著”的程度认定方式等概念做进一步释义。
《办法》一经公布便引起广泛讨论。如何保持立法灵活性、避免采取“一刀切”的政策抑制了产业活力,是我国人工智能相关立法的重要要求。面对快速发展的人工智能产业,特别是生成式人工智能技术的广泛应用,如何在规范管理和促进产业创新之间取得平衡,成为了当下政策制定者和企业共同关心的核心问题。
加强人工智能规范的“包容审慎”原则
近年来,人工智能技术迅猛发展,特别是在生成式人工智能领域,取得了令人瞩目的成就。这类技术在内容生成、智能客服、广告营销、文档创作等方面应用广泛,推动了相关行业的数字化转型和效率提升。生成式人工智能技术不仅为企业创造了巨大的商业机会,还为公众提供了更智能、更高效的服务。因此,如何在保障公共利益的前提下,促进这一新兴产业的健康发展,成为政策制定的关键。《办法》提出了一系列针对人工智能生成内容的标识要求,其目的在于提高公众对人工智能生成内容的识别能力,防止虚假信息的传播。从责任原则考虑来说,《办法》要求服务提供者从被动中立转向主动作为。对于企业而言,在被动中立转为主动的责任原则下,严格的标识要求可能会给产品使用和用户体验设置带来不小的挑战。生成式人工智能技术的应用场景多样且复杂,尤其是在视频、虚拟现实等场景中,显式标识的频繁使用可能会破坏用户的沉浸感,影响产品体验。比如,在生成式AI视频或虚拟场景中,如果在每一段视频或场景的起始处都强制添加显式标识,用户可能会觉得信息过度重复,影响内容的连贯性和观看体验。这种情况对于企业的运营和用户黏性都有一定的负面影响。
图源:网络
以前瞻性思维看待规范办法,为中国快速发展的产业预留空间。目前,中国人工智能技术带来的产品日新月异,相关产业和应用场景的发展速度非常快。换言之,如何在考虑到未来产品发展的背景下,既满足公众对生成内容透明度的需求,又为企业的发展提供足够的灵活性,保证用户体验,是《办法》需要进一步探讨的问题。
例如,依托生成式人工智能的智能客服系统中,标识政策也可能会对用户和企业端均产生影响。目前智能客服已广泛应用于电商、金融等行业,企业依赖该技术来处理海量用户问题。如果每次交互都要求明确标识“由人工智能生成”,不仅影响用户体验,还可能让企业在优化系统时增加不必要的技术负担。尤其是对小型企业来说,频繁的标识义务可能导致技术和合规成本上升,阻碍企业利用人工智能技术提升服务质量和效率。此外,过度严格的标识要求也会对自动化营销工具产生不利影响。如果每次生成的内容都需附带标识,可能降低用户对这些内容的接受度,影响品牌营销效果。需要警惕过度超前的标识政策所可能产生的“收缩效应”。其最直观的影响就是削弱公众对人工智能产品的信任和接受意愿,进一步间接影响企业和资本对于人工智能产业发展的预期。因此,更需要进一步加强人工智能规范的“包容审慎”原则,在维护公众利益的同时保证技术创新和产业发展,以前瞻性的目光看待发展与管理问题。
在规范中平衡产业发展与信息内容管理
在全球竞争日益激烈的科技产业中,企业的创新和灵活应对能力是保持竞争力的关键。因此,在推动政策落实的过程中,提前考虑产业发展脚步、为企业预留足够的空间显得尤为重要。而核心是充分考虑科技、产业发展和信息内容管理两个维度的规范与监管要求。
图源:网络
前者是通过发展优先的思路进行立法,以改革创新促发展,有效防范和化解风险的方式,也是当前各国对人工智能立法定位的共同做法。后者则是突出体现了生成内容全覆盖、生成过程全流程管理两大特点。随着人工智能技术的快速发展,立法和制度建设的完善迫在眉睫。然而,人工智能发展面临的不确定性及其跨学科、跨领域的特性,使得如何平衡监管与创新成为立法者亟需解决的挑战。
首先,人工智能作为前沿科技,正在改变全球产业结构和经济模式。为应对这一变化,立法不能一刀切,必须灵活应对快速发展的技术形态。当前,人工智能技术已经渗透到社会的各个层面,无论是日常生活中的智能客服,还是工业生产中的自动化设备,人工智能技术的应用领域广泛且复杂。因此,若仅强调信息内容管理的立法考虑,容易忽视不同应用场景的具体需求,导致对科技创新和产业发展形成不必要的限制。
图源:网络
其次,立法应给予产业发展足够的空间。立法需要从企业的实际需求出发,避免过多的强制性条款,尤其是在应用场景较为单一、舆论风险较低的情况下,应该允许企业自行选择标识的形式和位置。通过这样的灵活性设计,立法可以更好地兼顾创新与监管的双重目标。
当前《办法》旨在通过规范性要求,提升人工智能生成内容的透明度,防止虚假信息传播,保障公众的知情权和信息安全。然而,《办法》也需要充分考虑科技、产业发展所需的预留空间,避免成为完全内容管理性的规范,为不同可能的衍生领域制定不同的规范方式。
图源:网络
一方面,随着产业的发展将会出现明显分层的应用场景。生成式人工智能技术的应用领域广泛,包括智能问答、文档摘要、代码助手、广告设计等。这些应用通常具有较强的工具属性,并非面向公众的大规模舆论传播工具。对于这类低舆论风险的应用,过度的标识要求不仅可能显得不必要,还会增加企业的运营成本,削弱其竞争力。事实上,这类生成内容通常需要经过使用者的调整和审核,最终呈现给用户的内容已不完全依赖于生成式AI技术,舆论风险较低。因此,《办法》在执行时可以对不同应用场景进行分级管理,对于工具性应用,可以免除强制性标识要求,从而为企业创新提供更多空间。
另一方面,规范或需细化B端和C端应用场景规范。在B2B场景中,企业客户和开发者通常具备足够的技术认知能力,能够判断生成内容的来源,并不会因AI生成内容的标识问题产生混淆。对于这类用户群体,标识要求的必要性相对较低。在这种情况下,API提供方的角色更接近于技术支持方,内容生成和传播的责任应由应用开发者或终端用户承担,而不是API服务提供方。因此,在《办法》中对B端和C端应用进行区分管理,或能进一步提升分级管理的治理效率。
以精细化、灵活化的规则设计提升治理效能
《办法》作为一项针对生成式人工智能内容的管理规范,试图在推动技术应用和保障公众知情权之间取得平衡。然而,在实际执行中,如何为企业提供更多的灵活性,减少不必要的监管负担,同时确保标识的有效性和透明度,是目前各国均面临的主要挑战。
图源:网络
针对当前的《办法》,立法者可以考虑通过分级管理、结果管理等方式,在规范性和灵活性之间找到更好的平衡点,既保护公众利益,又为产业发展预留足够的空间。比如,生成内容在被广泛传播后,尤其是在社交媒体等平台上,显式标识很容易通过截图、剪辑等方式被篡改或删除,这使得生成服务方难以对内容的传播和使用负全责。如果《办法》在标识责任上实行“结果管理”,即将更多的责任转移到内容的使用者和传播者身上,这样既可以减轻AI服务提供方的负担,也能够提高整个内容传播链条的责任意识和管理效率。此外,也可以考虑提供多种标识方法,适应更多产品形态,实现分级管理。
《办法》及《标识方法》充分考虑产业发展与信息内容管理两种立法思路,通过灵活的标识规则设计,最大限度减少内容标识对于用户使用的影响,从而保障技术创新和产业发展的同时,维护信息内容的透明度与安全性。
关于我们
清华大学人工智能国际治理研究院 (Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除