别高估了ChatGPT,更别低估其未来破坏性,这个数据安全论坛上说透了
转自:李晔
正值我国《数据安全法》施行两周年,2023“浦江护航”数据安全上海论坛9月1日举行。记者从论坛上获悉,电信和互联网企业承载着大量用户个人信息和业务数据,占全国行业机构产生数据的总量超过四分之一,具有极高价值,但也成为网络攻击的主要目标,勒索病毒、数据泄露等安全事件时有发生,总体形势依然严峻。但其中,上海承担着护卫数据安全的重要角色。上海市政府办公厅副主任张宇祥介绍,截至去年底,上海数字核心企业已突破1200家,核心产业规模近3400亿元。去年11月以来,以ChatGPT为代表的生成式人工智能等新技术、新业务的发布,引发行业变革,但也为数据安全保护和监管带来新挑战。深信服科技股份有限公司副总裁马蕴超举例,“我们公司有一个细分产品规则库,需要有4人花数年时间对其进行不断更新维护。然而,经训练的大模型只用了一周时间,就把规则库原更新维护效果给超越了,我们真的震撼到了。”但上海市数字证书认证中心有限公司总经理崔久强却担忧大模型“恶”的一面。“我看过一个诈骗短视频,其中用AIGC(生成式人工智能)生成了一个人的声音和肖像,所谓眼见为实、耳听为实,而今已经做不到了。人脸识别是人工智能技术应用最先取得商业化成功的领域,但AIGC如果开始做坏事,比如各种伪造攻击等,后果是巨大的。”观安信息创始人张照龙也留意到,大模型中隐含着许多敏感数据。不久前韩国三星一技术人员因写代码受困,求助于ChatGPT,将企业生产的核心代码也上传了,使个人、企业及国家敏感数据不断处于风险之下。因此,如何做好数据的防泄密以及统一的数据管控,这非常关键。
“从去年ChatGPT重磅发布到今年以来国产大模型‘百模大战’,可谓热闹非凡,但从过往经验来看,我们应记住:永远不要高估一个新技术前五年的创造性,也永远不要低估它接下来五到十年的破坏性。”上海交通大学人工智能研究院副院长王延峰说。
国家和政府部门其实早已留意到其中挑战。今年8月31日,国内首批8家大模型公司通过《生成式人工智能服务管理暂行办法》备案,获批面向公众开放服务,这些大模型包括了上海人工智能实验室的书生通用大模型、商汤科技“商量”,以及百度“文心一言”等。这意味着,国产大模型从“出生潮”迈向“应用潮”过程中,始终面临着政府部门的审慎监管。
工信部网络安全管理局副局长杜广达在论坛上介绍,近期,工信部已启动2023年“数安护航”专项行动,面向重点电商平台、数据中心和云基础设施运营企业,集中开展风险排查和防范处置,及时化解电信和互联网领域数据安全的风险隐患。
此次论坛由上海市通信管理局等主办,上海赛博网络安全产业创新研究院等承办。