10分钟内被骗430万元!用AI换脸来诈骗,到底该怎么防?

2023-05-25 17:08:10 - 民生周刊

随着人工智能的迅猛发展,

诈骗团伙的诈骗手段也越来越科技化,

不知不觉,

他们竟然已经用上了AI换脸技术。

近日,包头警方发布一起

利用人工智能(AI)

实施电信诈骗的典型案例,

福州市某科技公司法人代表

郭先生10分钟内被骗430万元。

用AI换脸来诈骗,

防不胜防?

细看案情,令人咋舌。郭先生的“好友”通过微信视频联系到他,两人经过短暂聊天后,郭先生才转账。

也就是说,骗子不仅盗取了他的好友微信,还直接利用AI合成了好友的人脸和声音,如此以假乱真,让人防不胜防。

10分钟内被骗430万元!用AI换脸来诈骗,到底该怎么防?

以往,针对朋友借钱或其他网络转账,大家常常被提醒要打个电话或视频核实一下,确认后再转账。然而现在,这种“核实”心理反而被利用了。

而这些诈骗分子之所以能够进行AI换脸、合成声音,就在于他们掌握了一定的受骗人信息,比如受骗人的照片、视频、语音等。那么,他们是从哪里获取的这些个人信息?

AI诈骗看似一个新问题

其实又回到了个人信息保护上

一方面,这需要个人在日常网络行为中,注意不过分暴露个人信息;另一方面,也需要严格规范技术的开发和应用,完善相关授权机制。

去年12月,《互联网信息服务深度合成管理规定》正式发布,关于授权同意的原则提到,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。换句话说,一些AI软件未经“主人”授权就随意生成人脸人声,是违法的。

诈骗分子之所以能够鸟枪换炮,就是因为之前他们可以购买的是姓名、住址、亲友关系等社会信息,而如今他们可以获取人脸、人声等生物信息了,并且可以利用技术软件进行合成。那么,是谁在充当这个技术中介?这是非常重要的一环,只要打断了这个中间环节,AI诈骗也就失去了技术前提。

整治AI换脸

当用“法”打败“魔法”

这个法,是方法、办法的法。有人说,防骗最有效的一招就是不信,无论对方怎么“换”、怎么变、怎么翻着花样骗,就是“不听不信不转账”。最关键的是,优化“打法”,升级高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面对骗子的新招数,我们的反诈术、防骗方法更要优化,总结出富有成效的好方法,并做好宣传普及,构筑反诈防骗的全民阵线。

这个法,也是法规、法律的法。此前,一款主打AI换脸的App很火,“只需一张照片,演遍天下好戏”。但很快,在监管部门约谈后,这款App下架,原因很简单,如此换脸侵犯了公民的肖像权。去年12月《互联网信息服务深度合成管理规定》的发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI换脸空间将越来越逼仄。

AI换脸术滥用,也促使大家思考一个深层次问题。新技术不断面世,带给了人们便利,但可能被居心叵测之徒非法利用。人们固然不能因噎废食,但也不能忽略它的双刃剑效应。如果缺乏应有规束,AI换脸则可能打开潘多拉魔盒。因势利导,使其趋利避害,这是我们要全力做到的。

出品:民生周刊(ID:msweekly)新媒体部

素材来源:光明日报、央视新闻、北京晚报

责任编辑:刘烨烨

主编:崔靖芳

今日热搜