AI应用的隐私风险,我们准备好了吗?
海外AI应用增长强劲,国产AI应用端增长蓄势待发。随着三季度财报的陆续披露,Salesforce、Shopify、Palantir、AppLovin、Innodata等海外AI公司纷纷交出了亮眼的成绩单,营业收入实现了显著增长:AI巨头AppLovin三季度净利润4.34亿美元,同比大增302.75%;Innodata三季报净利润暴增4587.06%;Duolingo第三季度实现扭亏,付费订阅用户同比增长60%……一系列好消息充分展示了AI技术在推动业务增长方面的巨大潜力。与此同时,AI应用带来的隐私保护、数据滥用风险问题也伴随产生。
AI技术在目标侦察、信息查找等方面加速了自动化进程,形成了智能化的网络渗透和对用户隐私的深度挖掘。但同时,检索便利、技术创新,还是重视隐私保护、数据安全,成为全球各大生成式AI软件发展过程绕不过的问题。
从隐私保护方面来看,生成式AI技术可以快速生成钓鱼邮件、编写恶意软件与代码,通过对话交互轻易获取用户数据或输出训练数据,其中就涉及到个人隐私数据、业务数据等敏感信息。
从数据安全方面来看,AI模型需要海量数据进行训练和优化,以不断提高其预测和决策的准确性。在此过程中,某个环节稍有差错都可能造成数据非法获取、敏感信息泄露、数据偏见等数据安全风险。
AI抓取“度”到底在哪里呢?结合现有法律法规,可以总结认为,AI大模型抓取网上已经公开的个人信息,应该在合理范围内使用。对于个人明确拒绝处理的个人信息不得抓取使用,对于会对个人权益造成重大影响的个人信息,未经个人同意也不得抓取使用。因此,AI平台应该在用户协议、声明中明确写明,网站或平台上的非公开个人信息不得被AI抓取使用,同时禁止某些特定主体的爬取功能。
此外,随着我国AI行业的加速发展,优秀的企业可以起到引领带动作用,主动构建可信的互联网内容体系以应对深度伪造带来的安全威胁,确保数字内容的溯源性和抗篡改性。可以通过安全多方计算、同态加密等技术,既保障大模型为用户提供服务,又确保托管方无法接触到输入数据。借助AI实现智能化入侵检测、威胁情报分析、恶意软件检测和网络溯源,提升防御策略有效性。配合国家相关部门完善网络数据安全行为规范,加强行业自律。
2024年下半年以来,国内外AI视频领域迭代明显加快。据了解,字节跳动视频生成模型PixelDance已在豆包电脑版正式开启内测,部分用户已开通体验入口。目前,基于该模型的视频生成能力已在豆包电脑版陆续开放。
这一功能将更好地帮助普通用户通过视频方式创作和表达。同时,这也将给AI软件带来视频方面的数据问题。视频数据更全面准确,同时风险系数也更高。对整个行业来说,未来一段时间,如何促进数据流通与保护数据安全的平衡,兼顾公共利益、商业利益与个人利益仍会是重点探讨课题。