於兴中:如何应对AI生成短视频浪潮

2024-11-14 13:47:02 - 法治周末

於兴中:如何应对AI生成短视频浪潮

《法治周末》记者尹丽

《法治周末》实习生薛佳乐

当AI生成短视频浪潮席卷而来,我们如何才能更好地应对这一现象?围绕这一问题,《法治周末》记者近日对澳门大学人文社会科学高等研究院院长、法学院讲座教授於兴中进行了专访。

技术带来的机遇与挑战

《法治周末》:前不久,网上流传“非洲版《新白娘子传奇》”的短视频,一时引起众多网友的关注,更有许多媒体纷纷转发。但最终人们发现所谓的“非洲演员扮演”,其实是AI生成。您如何看待这样的现象? 

於兴中:深度生成技术利用先进的机器学习技术,尤其是深度学习技术,创建高度逼真的生成媒体,如模仿真实个体的图像、视频和音频。深度生成背后的技术包括数据准备、神经网络架构、训练过程和后处理技术。我们知道,技术从来就是一把双刃剑,有利有害。这应该是我们思考人工智能及其对社会生活影响的前提条件。

近年来,人工智能技术在内容创作领域的应用日益广泛,包括影视制作、音乐创作、图像生成等各个方面。我注意到,许多研究人员认为,AI在内容创作中能降低成本,提升效率,AI技术能够快速生成高质量的视觉内容,减少人工制作的时间和成本。通过AI,创作者可以轻松尝试不同的文化背景和视觉风格,为观众带来新鲜感和多样性的体验。AI生成的内容可以跨越地域和文化的界限,使经典故事在不同文化背景下得到重新演绎。

但是,也有不少潜在的问题值得关注。比如,内容的真实性与道德伦理。AI生成的内容可能涉及虚假信息、误导观众或侵犯他人权益,尤其是在未经授权的情况下使用真实人物的形象。AI在生成内容时可能使用了受版权保护的素材,如未经许可的影视片段、音乐等,导致版权纠纷。如果AI生成的形象基于真实人物的外貌特征,且未经本人授权使用,可能涉及肖像权侵害。此外,若内容有损演员或原作形象,可能涉及名誉权侵害。著作权法保护原创作品的复制、发行、改编等权利。未经授权的使用和改编可能构成侵权。不同国家和地区在AI生成内容的法律规范上可能存在差异,具体侵权认定需结合当地法律。最终还是得由法官在法庭上判定,或经过律师或仲裁人员的努力使侵权者和被侵权者达成和解。

至于被侵权方如何保护自身合法权益,当然可以通过法律途径,也可以通过平台举报投诉机制等。可以通过法律顾问向侵权方发送停止侵权的正式函件,要求其立即停止侵权行为并承担相应责任。如果侵权方不予配合,也可以向法院提起诉讼,要求停止侵权、赔偿损失等。向内容发布平台举报也是一种途径,大多数视频分享平台、社交媒体都有版权投诉机制,可以提交相关证据,要求平台删除侵权内容。当然,更专业的应该是技术防护措施,比如使用数字水印、内容识别技术等手段,增强作品的版权保护,防止被未经授权地复制和传播。当然,一如其他权利保护一样,最关键的是普及版权知识,提高创作者和公众的版权意识,明确哪些行为可能构成侵权,促进合法创作和使用。

总的来说,AI技术为内容创作带来了前所未有的机遇,但同时也带来了诸多法律和伦理挑战。

不可低估的潜在影响

《法治周末》:AI生成短视频还有其他的类型,包括制作一种虚拟生物、AI换脸等,这类视频在许多人看来是一个令人忧虑的现象。请问您如何看待这样的观点? 

於兴中:关于AI生成短视频的担忧确实具有现实意义。随着人工智能技术的快速发展,生成虚拟生物形象、AI换脸等生成视频变得越来越容易,这使事情变得很复杂。我想,这里还需要进行区分。有人生成短视频,生成虚拟生物形象、用AI换脸可能只是觉得“好玩”,比如,现在有不少小视频给《山海经》里想象中的各种上古神兽赋予形象,把名人的形象善意地用在一些有趣的场景,这都无伤大雅。有人制作换脸视频也许就是恶作剧,人们也不太会计较。但有些生成产品对无辜的人恶意中伤,甚至诽谤,为达到某种目的,极尽攻击之能事。还有制造虚假信息,传播错误信息等,这些就需要法律予以制裁。

但是,在该类短视频的治理方面确实存在着多方面的挑战和潜在影响。

从技术角度来看,监管和标注AI生成内容存在一定的困难。一方面,生成技术不断进步,生成内容的真实性和复杂性不断提高,使得自动检测变得更加困难。另一方面,全球范围内缺乏统一的技术标准和监管框架,各国在隐私保护、数据使用等方面的法律法规也存在差异,增加了治理的复杂性。

尽管如此,在此方面的研究也卓有成效。虽然目前尚未有彻底解决技术监管的能力,但可以在一定程度上缓解这个问题。人们希望继续发展和完善AI生成内容的检测技术,提高识别虚假内容的能力;制定和完善相关法律法规,明确AI生成内容的责任主体,保护个人隐私和权益;推动行业内部建立道德规范和自律机制,规范AI技术的应用,防范滥用行为;提高公众的数字素养,增强辨别虚假信息的能力,减少被误导的风险;并且在全球范围内加强合作,共同应对AI生成内容带来的跨国挑战,推动制定国际标准和规范。

同时,AI生成技术带来的潜在影响也是不可低估的。AI生成视频可能被用于制造虚假信息和误导公众,削弱公众对媒体内容的信任。这在政治、商业宣传等领域尤为明显,可能对社会稳定和民主进程造成负面影响。未经授权使用个人形象进行AI换脸或其他生成操作,侵犯了个人隐私权和肖像权,可能导致名誉受损和心理伤害。现有法律制度在应对AI生成内容方面相对滞后,如何界定责任、保护受害者权益等问题亟须解决。同时,伦理层面上,如何平衡技术创新与社会责任也是一个重要议题。在娱乐、广告等行业,AI生成视频带来了效率,也有可能减少成本,但也可能导致就业结构的变化,对传统影视制作等行业造成冲击。

提高公众对AI生成视频的识别能力,需要多方面的协同努力,包括教育、技术、法律、媒体等领域的综合措施。通过增强媒体素养、推广识别技巧、提供检测工具、推动透明标注、加强法律法规、动员公众参与以及与技术公司合作等手段,可以有效提升公众的辨别能力,减少AI生成视频带来的负面影响,促进社会信息环境的健康发展。

总的来说,AI生成短视频的泛滥确实带来了诸多挑战和潜在风险,但通过技术、法律、行业和社会多方面的协同努力,可以在一定程度上缓解这些问题,促进AI技术的健康发展和应用。

如何保护AI时代的“本地人”

《法治周末》:在AI生成短视频治理方面,法律层面有何进展?其他国家的立法或相关法规有哪些值得借鉴之处?

於兴中:在AI生成短视频的治理方面,多个国家已经开展了相关立法或制定了政策框架,这些经验可以为其他国家提供有益的借鉴。

中国在此方面的法律规定很先进。个人信息保护法和数据安全法为AI技术的应用提供了数据使用和隐私保护的基本框架。《新一代人工智能伦理规范》强调AI应用的透明性、可解释性和对社会价值的尊重,特别关注生成媒体可能带来的伦理和社会影响。中国对短视频平台实施严格的内容审核机制,要求平台对AI生成内容进行标识和管理,防止虚假信息传播。

欧盟的《人工智能法》是世界上首个全面规范人工智能技术的法律框架。该法按照风险等级对AI应用进行分类管理,提出了严格的透明度、可解释性和责任追究机制,特别关注高风险AI系统,包括用于生成和传播信息的工具。《数字服务法》旨在规范在线平台的内容管理,要求平台对有害内容进行及时处理,并提高内容的透明度和可追溯性。

美国各州的深度伪造法案,例如,得克萨斯州和加利福尼亚州分别通过了禁止在选举期间传播深度伪造视频的法律,以防止选举干预和信息操控。虽然美国目前尚未有统一的联邦法律规管AI生成视频,但美国联邦贸易委员会(FTC)和其他机构积极研究和提出针对AI生成内容的监管建议,强调透明度和防止误导性信息。

英国的《数字经济法案》类似于欧盟的立法,旨在规范大型在线平台的行为,确保内容的透明度和责任追究。英国政府和相关机构发布了一系列AI伦理指导原则,强调技术开发和应用中的透明度、公平性和责任性。

澳大利亚的《增强线上安全法2021》赋予澳大利亚政府更大的权力来监管在线内容,包括AI生成的虚假信息,要求平台采取更严格的内容审核和举报机制。

总而言之,不同国家在AI生成短视频治理方面的立法和政策实践各有特色,但也有一些共同的地方,强调了透明度、责任追究、隐私保护、跨国合作和伦理规范的重要性。通过借鉴这些经验,结合本国具体情况,制定符合自身需求的监管框架,可以有效应对AI生成短视频带来的挑战,促进技术的健康发展。

《法治周末》:从大众角度来说,尤其是青少年、儿童群体而言,如何在AI生成短视频浪潮中确保他们不会受到负面影响(如被误导等)?

於兴中:我觉得这个问题尤为重要。青少年、儿童群体是智能科技的受惠者,也可能是牺牲品。他们虽然是伴随着AI成长的“本地人”,在数字素养和数字技能方面具有优势,但由于他们的心智尚在发展成长之中,他们判别是非能力的提高尚待时日。在生成短视频迅速发展的今天,青少年和儿童作为互联网的主要用户群体,面临着诸多潜在的风险,如被误导、接触不当内容、隐私泄露等。但是如何确保他们在享受短视频带来便利和乐趣的同时,避免受到负面影响,人们还没有找到切实可行,完美有效的办法。

最直接的办法可能还是家长和监护人的引导与监督。家长应与孩子保持开放的沟通,了解他们在观看哪些内容,遇到哪些问题,及时给予指导和支持。也可以使用家长控制工具,比如利用各种平台提供的家长控制功能,限制孩子接触不适宜的内容和设置观看时间,避免过度沉迷。更健康而有益的就是与孩子一起观看短视频内容,帮助他们辨别信息的真实性,培养健康的观看习惯和价值观。

提升青少年的数字素养也是必须要做的事。学校和社会应开展数字素养教育,教授青少年如何识别虚假信息、理解生成内容的制作原理,提高他们的批判性思维能力,防止利用AI生成技术进行网络诈骗。也可以通过实际操作,如制作简单的短视频,帮助孩子们理解内容的制作过程,从而更好地辨别虚假与真实。

平台的责任与监管也是有效的办法。短视频平台应建立严格的内容审核机制,及时过滤和删除不当或有害内容,防止青少年接触到负面信息。优化推荐算法,避免过度推送低质量或有害内容,同时增加优质教育类内容的曝光率。平台也应该设立用户举报与反馈机制,建立便捷的举报渠道,鼓励用户反馈不良内容,使平台能够迅速响应和处理。

当然,更重要的是政府与相关机构的政策支持。政府应制定相关法律法规,规范短视频平台的运营行为,保护青少年的合法权益,防止信息滥用和隐私泄露。推动行业协会制定行业标准和自律公约,促进行业内的信息透明和公平竞争,共同维护健康的互联网生态。

除此之外,社会各界的共同参与、对青少年的心理支持、技术手段的应用、加强对用户数据的保护、防止青少年隐私被滥用并保障他们的个人信息安全等都是积极应对的方法和途径。

总之,在AI生成短视频浪潮中,确保青少年和儿童不受负面影响需要家庭、学校、平台、政府和社会各界的共同努力。通过多层次、多维度的措施,可以有效提升青少年的自我保护能力,营造一个健康、安全的互联网环境,使他们能够健康成长,充分利用短视频带来的积极效益。

责编:尹丽

今日热搜