8月11日,根据Futurism的最新报道,安全专家揭露了微软Windows系统中内置的Copilot AI存在严重漏洞,可能被恶意利用以泄露企业机密信息,甚至成为钓鱼攻击的利器。
在拉斯维加斯举办的黑帽安全大会上,安全公司Zenity的联合创始人兼首席技术官Michael Bargury公开了这一令人震惊的发现。他指出,通过Copilot,他能够轻易获取用户的联系人列表,并以用户的名义发送大量电子邮件。传统黑客需要花费大量时间精心设计钓鱼邮件,而Copilot的利用则大大缩短了这一过程。
研究人员通过现场演示,向与会者展示了如何通过发送一封恶意邮件,无需目标用户打开,即可诱使Copilot修改银行转账的收款人信息。另一段演示视频则展示了一旦黑客获得了员工账户的访问权限,他们如何利用Copilot对企业造成重大损害。Bargury通过一系列简单的问题,成功获取了敏感信息,并利用这些信息冒充员工发起网络钓鱼攻击。他首先获取了同事Jane的邮箱地址,了解了与Jane的最近一次对话内容,并诱导Copilot泄露了对话中的抄送人员邮箱。接着,他指示Copilot以被攻击员工的风格撰写一封邮件给Jane,并提取了两人最近一次邮件的确切主题。在短短几分钟内,他就创建了一封极具欺骗性的钓鱼邮件,可以向任何网络用户发送恶意附件。
微软的Copilot AI,特别是Copilot Studio,允许企业根据自己的特定需求定制聊天机器人。然而,这也意味着AI需要访问企业的数据,从而带来了安全风险。许多聊天机器人在默认情况下可以被在线搜索到,这使得它们成为了黑客攻击的目标。
攻击者还可以通过间接的提示注入来绕过Copilot的安全防护措施。简单来说,攻击者可以通过让聊天机器人访问包含恶意提示的网站,来使其执行原本被禁止的操作。Bargury强调,当AI被赋予数据访问权限时,这些数据就成为了攻击者的目标。他指出:“这里存在一个根本性的问题。如果一个机器人有用,那么它就可能存在漏洞;如果它没有漏洞,那么它可能就不够有用。”