预见·科技 | 数据缺陷、受人蛊惑让AIGC变“坏”了?专家:可用模型监督模型|封面天天见

2023-12-28 10:43:00 - 封面新闻

预见·科技 | 数据缺陷、受人蛊惑让AIGC变“坏”了?专家:可用模型监督模型|封面天天见

封面新闻记者欧阳宏宇

癌症筛查、拍影视剧、辅助招聘……生成式人工智能正助力各传统行业突破天花板,与此同时,围绕内容安全、个人信息保护、知识产权归属等内生问题也引发了社会担忧。

这些问题产生的原因是什么?应如何进行预防?12月27日,《AIGC治理与实践白皮书》在北京发布,白皮书显示,目前,由于大语言模型具有深度神经网络固有的鲁棒性不足、可解释性缺乏、生成内容可控性较低等缺陷,导致生成式人工智能还存在着较大缺陷。这就需要判断其对人类权益和社会秩序构成的潜在风险,用审慎的态度规划技术发展路径,采取多元协同的方式聚各方合力确保技术在正确的轨道上发展和应用。

对此,专家建议,各界应在突破AI应用天花板的同时,筑牢AI发展防火墙,用AI破解更多社会难题,推动AI惠及更多人。

多因素造成大模型内生风险

需“防火墙+天花板”双管齐下

据了解,白皮书由中国电子技术标准化研究院和阿里巴巴集团联合编写,主要针对生成式人工智能可能存在的风险,从产生原因、治理框架、风险治理和多主体协同敏捷治理等多个方面进行论述。

白皮书显示,生成式人工智能本质上是一个被用户使用的算法服务,从生命周期上,分为模型训练、服务上线、内容生成、内容传播四个阶段。这一算法服务通常由大模型驱动,都离不开算力、数据、算法、生态和人才五个构成条件。

事实上,正是由于这几个构成条件才导致了大模型的内生问题。以模型训练中需要使用的数据为例,数据中原本就存在的风险点以及特定信息缺失都会对大模型引入风险。同时,对指令的遵循还可能让模型被部分用户诱导,从而学习到恶意导致模型输出风险内容。

此外,由于语言大模型属于深度神经网络,也很难摆脱固有的鲁棒性不足、可解释性缺乏、生成内容可控性较低等缺陷。

基于此,白皮书指出,生成式人工智能的风险治理需要贯穿产品的全生命周期,包括模型训练、服务上线、内容生成、内容发布与传播各阶段。

如在训练环节,首先需要对数据筛选和过滤,评测模型的安全性,并且审核算法机制机理。模型产品上线后,服务提供者还需要选择安全有效的模型作为基座构建完整的算法服务。同时,对用户账号、个人信息以及生成的内容进行保护和审核,避免模型被恶意输入和诱导。

大模型未来安全前景乐观

专家:AI应用宜疏不宜堵

面对AIGC带来前所未有的挑战,需要行业前瞻性地应对。在专家看来,AI大模型未来的安全前景仍然乐观。

预见·科技 | 数据缺陷、受人蛊惑让AIGC变“坏”了?专家:可用模型监督模型|封面天天见

浙江大学教授潘恩荣

在浙江大学教授潘恩荣看来,生成式人工智能AIGC对人类经济社会发展带来巨大的观念冲击,“宜疏不宜堵”。一方面,必须克服各种恐惧和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的方式。

事实上,AI离普通人已经不再遥远,如今,在做PPT、写文案、订机票、玩游戏等场景都有大模型的赋能。包括腾讯、百度、阿里巴巴、网易等在内的科技公司都已将其植入现有业务中。

预见·科技 | 数据缺陷、受人蛊惑让AIGC变“坏”了?专家:可用模型监督模型|封面天天见

复旦大学教授张谧

“科技行业应该负责任地发展AI,兼顾AI发展和风险管控。”复旦大学教授张谧表示,现在全球范围内有AI竞赛的氛围,对企业而言注重安全反而可能造成技术落后,所以,部分企业可能为了占领先机便不得不搁置安全。“各方应该立足长远,携手营造有序竞争,把风险控制在防护能力的上界之内,保障AI发展处于安全区域。”

但中国电子技术标准化研究院信息技术研究中心副主任董建也提醒,国内外都在推动研发治理工具,但如何通过技术深层次解决治理问题,尚需进一步探索。

对此,张谧认为,随着评测、治理技术的成熟,以及治理体系的完善,人类提供一整套安全规则,AI就能根据规则实现“用模型监督模型”。而更长远地看,AI大模型有可能自主对齐人类价值观、主动向善发展。“只要我们负责任地对待AI,就能构建‘爱人类’的AI。”

今日热搜