防范人工智能应用风险,检察公益诉讼应发挥重要作用
在数字化时代,人工智能技术的应用已经成为推动社会发展的重要力量。然而,随之而来的风险和挑战也日益凸显,尤其是在个人信息保护和数据安全领域。本文将深入探讨人工智能应用带来的风险与民事救济困境,并分析检察公益诉讼在其中的作用和具体路径。
一、人工智能应用带来的风险与民事救济困境
随着人工智能技术的快速发展,个人信息和数据的处理变得越来越普遍。这些技术在提高效率和便利性的同时,也带来了个人信息非法收集、滥用,用户沉迷、受到歧视等风险,可能给个人和社会造成损害。例如银行借助算法从海量用户中通过画像挖掘出“优质”客户,招聘者利用算法从应聘者中筛选出“完美”员工,等等。但与此同时,这类人工智能应用可能构成对群体的系统性歧视,如女性在共享经济平台招聘与分配工作机会时遭受的不利待遇,互联网金融与保险广告屏蔽女性与老年人等。这类人工智能应用可能造成的风险损害包括但不限于身体或精神损害、身份被盗用、失业或遭受歧视性待遇、个人丧失机会或福利、个人受到监视的行为限制等。然而,这类损害面临着民事救济的困境,它们因为不被法律承认的无形损害所包含、因果关系难以证明和个体显著性不足,难以被认定为可赔偿的损害。如2017年的Equifax数据泄露事件中,1.47亿个纳税人的财务信息落入不明身份者手中,在与美国联邦贸易委员会和美国消费者金融保护局的和解中,该公司同意支付4.25亿美元,这相当于每个受害者获得不到3美元的赔偿。
在数字经济背景下,人工智能应用已成为数字经济运行和政府公共治理的必需。然而其风险和可能造成的损害却并未得到重视。在很多案件中,法院以原告未能证明遭受实质性损害为由驳回诉讼请求,使得个体获得损害赔偿救济面临困境。这造成了一系列的不公正后果。在许多场景中,隐私、个人信息保护、消费者保护和平台劳工权益等本应因为遭受损害启动的救济,却因个人遭受的损害不被侵权法所承认,而无法获得充分的保护。
二、检察公益诉讼在人工智能风险治理与民事救济中的作用
人工智能应用使得系统化、微小化损害成为常态,这决定了个体损害救济的式微,以及大规模损害救济的集体诉讼、代表诉讼等方式逐渐兴起。在此类不具备个体显著性的损害越来越常见的背景下,法律不仅要约束个人行为和市场规范的偏离活动,更要对系统性的社会运行和市场行为作出回应。随着集合性损害出现,侵权损害论的概念、原则、规则不断分化,成就了更为专业化的应对体系;司法上也产生了集体诉讼、公益诉讼等制度,作为对大规模工业生产的调适回应。
面对人工智能应用带来的风险和民事救济的困境,检察公益诉讼显示出其独特的价值和潜力。检察公益诉讼作为一种法律救济手段,能够在保护公共利益和个体权益方面发挥重要作用。首先,检察公益诉讼可以突破个体诉讼的局限,通过集体诉讼的方式,为大量受害者提供救济。其次,检察机关具有专业的法律知识和丰富的诉讼经验,能够准确识别和评估人工智能应用中的风险,并提出有效的解决方案。此外,检察公益诉讼还可以推动相关法律法规的完善,为人工智能应用风险治理提供法律依据。
在我国现有法律体系中,集体但微小的数据信息损害可能适用反垄断法、个人信息保护法以及消费者权益保护法规定的公益诉讼。例如,网约车、酒店预订、网上购物等商务平台利用算法实施“大数据杀熟”的算法价格歧视行为,会损害消费者的隐私权、公平交易权、知情权等权益,可通过消费民事公益诉讼救济;平台未依法履行网络保护义务,并运用后台算法向具有浏览儿童内容视频喜好的用户直接推送含有儿童个人信息的短视频,从而致使侵犯儿童个人信息权益的,检察机关可以依法综合提起未成年人保护民事公益诉讼。值得注意的是,民事诉讼法第58条将检察院列为提起公益诉讼的第二顺位主体,排在第一顺位“法律规定的机关和有关组织”之后;而个人信息保护法第70条将检察院列于其他公益诉讼主体之前,与法律规定的消费者组织和由国家网信部门确定的组织并列,在一定程度上强调了检察院在履行保护公民个人信息上的重要职责地位。因此,在未来可预见的一段时间内,人工智能应用造成的系统和微小损害的公益诉讼需由检察院主要负责提起,且多为“民事公益诉讼+行政公益诉讼诉前程序”的方式;对于明显涉及消费者公平交易权、知情权等权益的,则可以消费者协会提起民事公益诉讼为补充。
三、检察公益诉讼救济人工智能民事权益损害的未来展望
通过提起检察公益诉讼,警示和遏制人工智能应用领域潜在的违法行为,也能为受害者提供法律救济,维护其合法权益。检察公益诉讼与检察建议相结合,可以推动法律制度的完善,为人工智能应用风险治理提供坚实的法律基础。检察公益诉讼也可以提升公众对人工智能应用风险的认识,增强社会整体的风险防范意识。
世界范围内,各国立法也越来越重视人工智能、算法技术应用带来的非传统损害的救济。如美国联邦贸易委员会(FTC)将消费者信息性损害列举为欺骗性伤害或颠覆消费者选择、财务伤害、健康或安全伤害、无端入侵的伤害和声誉伤害;欧盟《通用数据保护条例》规定,个人数据权益的损害是指任何非法处理个人数据造成的身体、物质或非物质损害,包括歧视、身份盗用或欺诈、经济损失、名誉受损、未经授权的去匿名化以及其他显著经济或社会损失等。印度的个人信息保护法中也以列举的形式列出了数据信息损害的类型,具体包括身体或精神损害、身份扭曲或失窃、财务或经济损失、丧失声誉或受到羞辱、失业、遭受歧视性待遇、遭受勒索或敲诈、对数据主体进行评估决策而拒绝或撤回服务福利或相关利益、因出于对被观察或监视的恐惧而构成对言论行动或其他行为的直接或间接限制、数据主体无法合理预期的观察或监视等。一向保守的德国法也开始承认若干新型损害,如“歧视、身份窃用或诈骗、金融损失、信誉受损、数据泄密、擅自实施的去匿名化以及显著的经济或社会不利后果”等等。可以预见,检察公益诉讼是适应人工智能时代生产变革和社会发展的重要权利救济途径,实质上是将人工智能带来社会发展的成本公平地分担给社会生产中的各个主体,而非仅仅由用户来承担。
党的二十届三中全会通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》明确“完善生成式人工智能发展和管理机制”“建立人工智能安全监管制度”。全国人大常委会2024年度立法工作计划将“人工智能健康发展等方面的立法项目”列入预备审议项目,国务院2024年度立法工作计划提出“预备提请全国人大常委会审议人工智能法草案”。学界的研究讨论中也十分重视针对人工智能应用中非传统损害的救济,《人工智能法(学者建议稿)》在第92条专门提出了人工智能公益诉讼条款:“违反本法规定从事人工智能提供活动,侵害众多个人的权益的,人民检察院、法律规定的消费者组织和由人工智能主管部门确定的组织可以依法向人民法院提起诉讼”。
检察公益诉讼作为一种有效的法律救济手段,在人工智能应用风险治理中具有重要作用。不过,检察公益诉讼制度仍然需要进一步发展与推进建设。最高人民检察院在答记者问中也坦言,在个人信息保护检察公益诉讼上面临“立法供给不足、调查核实手段欠缺、公益损害认定难、修复难”等问题,未来,检察公益诉讼需要在相关制度和实践操作方法上进一步发展更新。检察公益诉讼能够为人工智能应用中民事权益损害提供有效的救济,维护社会公平正义,促进人工智能技术的健康发展。通过这些措施,我们可以期待在数字时代实现更加公正、合理的权益保护,确保技术进步与法律保护之间的平衡。
(作者系中国政法大学数据法治研究院教授、联合国人工智能高层顾问机构专家)