微软 Copilot AI 被指可被黑客操纵,轻松窃取企业机密

2024-08-11 14:29:03 - IT之家

IT之家8月11日消息,据Futurism报道,安全研究人员近日揭示微软内置于Windows系统的CopilotAI可被轻松操控泄露企业敏感数据,甚至变身强大的钓鱼攻击工具。

微软 Copilot AI 被指可被黑客操纵,轻松窃取企业机密

IT之家注意到,安全公司Zenity联合创始人兼CTOMichaelBargury在拉斯维加斯黑帽安全大会上披露了这一惊人发现,他表示,“我可以利用它获取你的所有联系人信息,并替你发送数百封电子邮件。”他指出,传统黑客需要花费数天时间精心制作钓鱼邮件,而利用Copilot,几分钟内即可生成大量具有欺骗性的邮件。

研究人员通过演示展示了攻击者无需获取企业账户即可诱骗Copilot修改银行转账收款人信息,只需发送一封恶意邮件,甚至无需目标员工打开即可实施攻击。

另一个演示视频揭露了黑客在获取员工账户后可利用Copilot造成严重破坏。通过简单的提问,Bargury成功获取了敏感数据,他可以利用这些数据来冒充员工发起网络钓鱼攻击。Bargury首先获取同事Jane的邮箱地址,了解与Jane的最近一次对话内容,并诱导Copilot泄露该对话中的抄送人员邮箱。随后,他指示Copilot以被攻击员工的风格撰写一封发送给Jane的邮件,并提取两人最近一次邮件的准确主题。短短几分钟内,他就创建了一封具有高度可信度的钓鱼邮件,可向网络中的任何用户发送恶意附件,而这一切都得益于Copilot的积极配合。

微软CopilotAI,尤其是CopilotStudio,允许企业定制聊天机器人以满足特定需求。然而,这也意味着AI需要访问企业数据,从而引发安全隐患。大量聊天机器人默认情况下可被在线搜索到,成为黑客的攻击目标。

攻击者还可以通过间接提示注入绕过Copilot的防护措施。简单来说,可以通过外部来源的恶意数据,例如让聊天机器人访问包含提示的网站,来使其执行禁止的操作。Bargury强调:“这里存在一个根本问题。当给AI提供数据访问权限时,这些数据就成为了提示注入的攻击面。某种程度上来说,如果一个机器人有用,那么它就是脆弱的;如果它不脆弱,它就没有用。”

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

今日热搜