微软的Copilot AI被指控可能被黑客操控,从而轻易窃取企业机密。
编辑日期:2024年08月11日
值得注意的是,安全公司Zenity的联合创始人兼CTO,Michael Bargury,在拉斯维加斯的黑帽安全大会上公布了这一惊人发现。他指出:“我可以用这个漏洞来获取你所有的联系人信息,并以你的名义发送数百封电子邮件。”他还提到,传统的黑客需要花费数天的时间来精心制作钓鱼邮件,但通过利用Copilot漏洞,他们可以在几分钟之内生成大量的欺骗性邮件。
研究人员通过演示展示了一种攻击方式,攻击者不必拥有企业的账户就可以欺骗Copilot修改银行转账的收款人信息。攻击者只需要发送一封恶意邮件,甚至不需要目标员工打开邮件就可以实施这种攻击。
另一个演示视频揭示了黑客在入侵员工账户后如何利用 Copilot 进行严重的破坏活动。通过简单的提问,Bargury 成功地从 Copilot 获取了敏感信息,这些信息足以让他冒充员工实施网络钓鱼攻击。首先,他获得了同事 Jane 的电子邮件地址,并了解了最近与 Jane 的对话内容。然后,他诱导 Copilot 泄露了该对话中抄送人的电子邮件地址。接下来,他让 Copilot 按照被攻击员工的写作风格起草一封发给 Jane 的邮件,并从中提取出两人最近一次邮件交流的确切主题。在短短几分钟内,他就制作出了一封高度逼真的钓鱼邮件,能够向网络中的任何用户发送恶意附件,而这全都是因为 Copilot 的“积极配合”。
微软的Copilot AI,特别是Copilot Studio,让企业能够定制聊天机器人以满足其特定需求。但这同时也意味着AI需要访问企业的数据,从而带来了安全风险。大量的聊天机器人在默认设置下可以被在线搜索到,这使得它们可能成为黑客攻击的目标。
攻击者还能通过间接提示注入来绕过Copilot的防护措施。简而言之,这表示攻击者可以利用来自外部来源的恶意数据,比如让聊天机器人访问含有特定提示信息的网站,从而诱使它执行被禁止的操作。Bargury强调说:“这里存在一个基本的问题:当我们赋予AI访问数据的权限时,这些数据就变成提示注入的潜在攻击面。从某种角度讲,如果一个机器人具备实用性,那它也必然具有脆弱性;反之,若无此脆弱性,则该机器人也就失去了其实用价值。”