自动适应大小的图片广告
广告图片
首页 AI资讯微软 Copilot AI 被揭示存在严重安全漏洞:攻击者能窃取敏感数据!

微软 Copilot AI 被揭示存在严重安全漏洞:攻击者能窃取敏感数据!

分类:AI资讯
字数: 915
评论: 0
阅读: 74
自动适应大小的图片广告

据 Futurism 报道,安全研究人员近日揭示了微软内置在 Windows 系统中的 Copilot AI 存在严重的安全漏洞,这一漏洞可被轻易操控以泄露企业敏感数据,甚至成为强大的钓鱼攻击工具。
Copilot AI

在拉斯维加斯的黑帽安全大会上,安全公司 Zenity 的联合创始人兼 CTO Michael Bargury 公布了他的惊人发现。他指出,攻击者可以利用 Copilot AI 快速生成大量具有欺骗性的邮件,而传统黑客往往需要花费数天时间来精心准备这些邮件。通过演示,Bargury 展示了攻击者无需获取企业账户就能诱骗 Copilot 修改银行转账收款人信息的过程,整个攻击过程只需要发送一封恶意邮件,甚至不需要目标员工打开邮件即可实施。

在另一段演示视频中,Bargury 展示了在获取员工账户之后,攻击者可以如何利用 Copilot 造成严重的破坏。通过简单的提问,他成功获取了敏感数据,并利用这些数据来冒充员工发起网络钓鱼攻击。Bargury 首先获取了同事 Jane 的邮箱地址,并了解了与 Jane 的最近一次对话内容。随后,他诱导 Copilot 泄露了该对话中的抄送人员邮箱。紧接着,他指示 Copilot 以被攻击员工的写作风格撰写一封发送给 Jane 的邮件,并提取了两人最近一次邮件的准确主题。在短短几分钟内,他就创建了一封具有高度可信度的钓鱼邮件,可以向网络中的任何用户发送恶意附件,这一切都得益于 Copilot 的积极配合。

微软 Copilot AI,特别是 Copilot Studio,允许企业定制聊天机器人以满足特定需求。然而,这也意味着 AI 需要访问企业数据,从而可能带来安全隐患。大量的聊天机器人默认情况下可以被在线搜索到,成为黑客的攻击目标。

此外,攻击者还可以通过间接提示注入绕过 Copilot 的防护措施。这意味着攻击者可以通过让聊天机器人访问包含恶意提示的网站,来使其执行禁止的操作。Bargury 强调:“这里存在一个根本问题。当给 AI 提供数据访问权限时,这些数据就成为了提示注入的攻击面。某种程度上来说,如果一个机器人有用,那么它就是脆弱的;如果它不脆弱,它就没有用。”

文章发布于: 2024-08-11 09:53:00
自动适应大小的图片广告
发表评论
😁 😅 🤣 😂 🙂 😊 😇 😍 🤩 😙 😘 😋 😛 🤪 😝 🤔 😮‍💨 😎 🤓 😓 😱 😭 👽