【法律在线】人工智能标识义务的功能与实践

2023-12-20 14:59:31 - 中国对外贸易杂志

【法律在线】人工智能标识义务的功能与实践

生成式人工智能(AIGC),例如ChatGPT、Midjourney等的飞速发展,使得人工智能生成物与人类生成物之间的边界越来越模糊,采取措施分辨这两者,对于治理假新闻、知识产权保护、避免学术造假和维持人类社会的基本信任,都具有重大的意义。本文从现有法律法规对于人工智能生成物的标识义务出发,探讨这一合规义务目前的规制现状、必要性以及落地展望。

一、多个国家和地区主张对人工智能提出标识要求

2021年12月,中国国家网信办发布的《互联网信息服务算法推荐管理规定》首次在法律文件层面规定了针对人工智能生成物的标识义务,其中第九条规定,算法推荐服务提供者发现未作显著标识的算法生成合成信息的,应当作出显著标识后,方可继续传输。随后的2022年11月,网信办发布《互联网信息服务深度合成管理规定》,细化了这一标识制度,其第16条规定一般的标识义务;第17条将标识义务进行分类(一类是可能导致公众混淆或者误认的深度合成服务,深度合成服务提供者应当在生成或者编辑的信息内容的合理位置、区域进行显著标识;一类是其他深度合成服务,深度合成服务提供者应当提供显著标识功能);第18条规定了其他组织和个人不得删除、篡改、隐匿标识的义务。2023年6月网信办发布《生成式人工智能服务管理办法》,其第16条对这一标识义务进行了重申。2023年7月网信办发布的《关于加强“自媒体”管理的通知》也在其第16条中对自媒体发布的内容进行了规定,即“使用技术生成的图片、视频的,需明确标注系技术生成。”

欧盟《人工智能法案(2021年草案)》在第52条规定,人工智能提供者应当向自然人确保,其正在与人工智能系统进行交互,除非在某些用户明显知晓和使用的场景。而且这一义务不适用于经过法律授权的用于侦察、预防、调查和起诉刑事犯罪的场景,除非这一系统用于公众举报刑事犯罪这一场景。生成或操控的图片、音频或视频内容容易像存在的人、物体、地方或其他实体/事件以及可能被错误地当成真实的人(深度伪造),其人工智能系统的使用者应当披露其生成的内容已经被人工生成或操纵。然而,上述义务不适用于如下场景:法律授权的侦察、预防、调查和起诉刑事犯罪;履行言论自由或欧盟基本权利宪章所赋予的艺术和科学自由的权利所必需;对第三方行使言论自由的适当保护。上述义务不区分人工智能系统的风险程度,属于普遍适用的相关义务。2023年,欧盟《人工智能法案(2023年草案)》将这一义务专门写进生成式人工智能的义务条款里。

美国国会众议员TORRES在2023年6月提出《2023年人工智能披露法》议案,法案要求生成式人工智能应当在其生成物上标注“声明:本物由人工智能生成(Disclaimer:thisoutputhasbeengeneratedbyartificialintelligence.)”任何违反上述义务的主体,都被认为违反了FTC法案下的不公平或欺诈的行为,FTC有权依据《联邦贸易委员会法》适用管辖、采取措施或赋予相关的义务。美国国会参议员MichaelBennet也向包括OpenAI、Google公司在内的头部人工智能公司写信,要求这些头部的科技公司给人工智能生成物内容进行打标(label),并限制具有误导用户的相关内容的传播。这一义务并不是全新的要求,在美国加州2018年通过的《提升网络透明度法(BolsteringOnlineTransparencyAct)》中就有类似的规定,即任何使用聊天机器人(bot)与用户进行交互时,如果没有清晰、明确的披露,而误导用户关于其人工的身份而激励用户购买,或影响用户选举投票,在加州都是非法的行为。

除了法律上的要求之外,全球知名互联网公司在其平台治理实践中也开始尝试这一举措。微软公司2022年6月发布其透明度目标,该目标的第三个子项就是AI交互的披露(DisclosureofAIinteraction),即微软的AI系统应当告知用户其正在与AI系统交互,或其正在使用AI系统生成或操作能以假乱真的图像、声音、视频内容。这一义务适用于:(1)与人交互的AI系统,除非用户明显认知到这一环境和场景在使用AI系统;(2)能生成或操作以假乱真的图像、音频或视频内容的AI系统。微软公司也将这一要求纳入到影响评估的一环。

综上,中国、欧盟和美国都不约而同开始对人工智能的标识义务提出要求,有些国家是要求对人工智能本身提出标识的要求,例如欧盟;而有些国家是需要对人工智能生成物提出标识的要求,例如中国。可见,关于人工智能的标识义务可以粗略区分为两类:

第一类标识:针对人工智能技术本身的标识义务,例如标识某个产品是使用了人工智能技术的产品,目的是让使用该产品的用户明确知晓其中使用了人工智能技术。上述欧盟《人工智能法案(草案)》中的方案,以及微软公司的行业实践属于此类。

第二类标识:针对人工智能生成物进行标识,例如对某个图片、声音或视频采取技术措施等其进行标识,告知使用者其属于人工智能生成的产品,当上述生成物传播到人工智能系统之外时,也能让其他第三方用户明确知晓。中国网信办的部门规章,以及美国参议员的提议均属于此种类型。

二、对人工智能进行标识的功能和必要性

对第一类涉人工智能技术的产品或服务的标识义务来说,告知用户产品或服务带有人工智能的属性,是满足消费者知情权的重要内容,也对于用户基本权利的保障具有重要的作用,例如在移民、边境管理等领域,不论是否使用人工智能,其结果都可能对人类用户的基本权利(如自由、非歧视、私人生活和个人数据的保护等)具有较大的影响,因此在这类领域中强制要求披露人工智能使用情况具有重大意义,而这也成为界定人工智能是否属于高风险的重要依据之一。

对第二类人工智能生成物进行标识也具有多重必要性。

首先,目前生成式人工智能带来的最大挑战在于以假乱真的信息,例如假新闻、深度伪造信息、诈骗信息等,对人工智能生成物进行标识也成为解决这一问题的主要路径。AI标识不仅能降低文字等内容本身的可信任度,还能缓解人工智能内容接收者在遭遇网暴等现象时的情感痛苦(emotionaldistress)。当网暴受害者了解到辱骂其的信息都是人工智能机器人生成的(例如具有类似群控软件功能的聊天机器人Chatbot),网暴受害者对上述内容的认知仅仅限于背后的机器人,这能极大程度上减少网暴受害者的感情压力,仅仅将其归类为某种网络黑灰产。相反,倘若网暴受害者对于网暴内容的认知是每一网暴内容背后都代表着一个活生生的人,那这一精神上的压力极有可能会造成较大的后果。

其次,对人工智能生成物进行标识属于平台广义透明度的一部分,是典型的面向公众的信息治理工具之一。透明度规制路径是治理人工智能带来的风险和危害的重要路径之一。透明度规制路径包括多种不同的方式,包括向监管透明、向公众透明、向上下游行业相关方透明,而对人工智能生成物进行标识就是典型的向公众或消费者受众透明的一种路径,这一路径很难被其他路径取代,毕竟用户只有对产品或服务进行亲自使用时才会倾注足够的注意力,单纯在隐私政策或用户协议里进行提醒或说明本产品是人工智能产品或服务,已经不足以达到适当透明度的义务,即第一类标识实践达不到第二类标识的作用。OECD(经济合作与发展组织)在2019年通过的报告(目前46个国家已通过)中明确指出,使相关主体知道其正在与AI系统进行交互应当成为AI系统透明度和可解释性的关键一环。在欧盟最新的《人工智能法案(2023年草案)》中,关于透明度的定义,就包括让人类用户明确知晓其正在与人工智能系统进行交流或交互。

对人工智能的透明度是具有多个维度的系统性要求,通常目的是为了让人们能够理解人工智能系统是如何开发、训练、部署、生成某个特定决策。特别是在某些特定的场景下,例如刑事犯罪、无人驾驶、金融或医疗、招聘等领域,对其中使用的人工智能系统有更高的透明度要求,甚至要给予相关受众主体明确拒绝适用上述AI决策的权利。但这一透明度的要求在技术方面面临较大的问题,主要表现在基于神经网络的机器学习算法在可解释性上表现很弱,这一技术上的特点使得对于人工智能系统的内部透明度遇到较大的阻碍,因此对于人工智能产品或生成物进行外表特征上的透明度成为较合适的替代补充选择。

再次,对人工智能生成物进行标识,能够解决AI生成物知识产权法上的相关难题。人工智能生成物是否可版权问题目前成为争议的焦点问题之一。从最近美国版权局的政策文件来看,完全的人工智能生成物不应当被作为版权法保护的可版权客体,不应受到美国版权法的保护。其他一些知产学者和司法实践也基本上倾向于这一观点。倘若人工智能生成物不是可版权的客体,那么下一步的问题显然是如何区分人工智能生成物和人工生成物,而当前这一制度能够恰当地解决这一问题。

最后,对于人工智能生成物进行标识,能否明确告知人工智能使用者相关生成物的法律属性,也是后续赋予人工智能使用者相关义务的基础。如果人工智能技术或服务提供者不明确告知人工智能使用者或受众相关生成物是否完全由人工智能技术产生,那要求人工智能使用者不得删除、篡改的要求,将是不可能的任务。特别对于专业领域的使用者,这一标识义务更显必要性,如新闻、学术或教育等领域的生成式人工智能内容,对其进行标识能够提醒相关专业研究者采取更多的措施对这一内容进行验证,这一标识能够明确提醒专业使用者上述生成物内容信息的可信程度。

三、行业应用与展望

在此意义上,人工智能生成内容和深度合成内容添加技术标识的实际落地,一方面固然需要政府的明确规定和推动执行,另一方面,行业自发自主的主动作为,也是推动这一举措全面应用的重要推动力。

近日,抖音作为知名的短视频和直播平台,发布了人工智能生成内容治理规范,为行业提供人工智能内容标识等技术能力和标准,包括为用户提供人工智能生成内容水印功能,可供用户选取标注,为监管措施落地提供了行业实践的样本。

从这一行业实践可以看出,对于人工智能生成内容的监管和治理,通过添加水印标签帮助用户直观分辨内容属性和来源,相对于其他治理手段,是成本较低而效果明显的技术方式,而且只要设计得当,标识添加可以兼顾用户体验和内容美观,并不会影响创意和内容呈现。当然,对于技术标签和水印这一治理方式,也需要根据实践应用不断回应新挑战并进行完善,相关行业实践也可以为完善治理技术和手段,积累重要的实践素材和经验。例如,针对数字虚拟人这一新型应用,由于其具有的动态性和随机性等特点,除了水印标识之外,有可能还需要提供类似“实名制”的注册机制对其加以规范和保护。

从内容传播和行业发展的角度,人工智能生成内容和深度合成内容的精准有效治理,除了内容传播平台的积极作为之外,还需要行业内各个环节各方主体的全面参与。从全社会治理成本与全产业链治理效果考虑,直接面向用户的平台已经处于内容生产和传播链的相对下游位置,仅仅依靠下游平台和用户打标,无法实现更好的源头治理效果。如果人工智能生成工具的技术开发者和支持者,都能够积极加入治理行动,响应监管要求,从生成技术、工具等源头上,就对生成图片、视频等内容进行标识或者提供标识工具,并形成标准化的行业实践,与内容传播平台形成产业链合力,共同培养培育用户生成、传播深度合成内容的媒介素养和行为伦理,就能标本兼治,推动形成更加健康有序、风清气朗的网络内容生态空间。

(作者单位:中国社会科学院大学互联网法治研究中心,南开大学·中国社会科学院大学21世纪马克思主义研究院。本文为教育部新文科研究与改革实践项目“计算社会科学与国家治理”(2021140027)和北京高等教育本科教学改革创新项目“检法协作机制下网络法治研究型人才培养模式创新研究”的阶段性成果。)

今日热搜