📢 转载信息
原文作者:Zack Whittaker
微软已确认一个漏洞,该漏洞使得其 Copilot AI 在未经客户允许的情况下,连续数周对客户的机密电子邮件进行了总结。
该漏洞最初由 Bleeping Computer 报道,它允许 Copilot Chat 读取和概述自今年一月份以来的电子邮件内容,即便是客户设置了数据丢失预防(DLP)策略来阻止其敏感信息被摄取到微软的大型语言模型中。
Copilot Chat 允许付费的 Microsoft 365 客户在其 Office 软件产品(包括 Word、Excel 和 PowerPoint)中使用这款由 AI 驱动的聊天功能。
微软表示,该漏洞(管理员可追踪为 CW1226324)意味着“带有机密标签的草稿和已发送的电子邮件消息,正被 Microsoft 365 Copilot Chat 错误地处理。”
这家科技巨头表示,已于本月早些时候开始部署修复该漏洞。微软的发言人未回应置评请求,包括关于受此漏洞影响的客户数量的问题。
本周早些时候,欧洲议会的IT部门告知议员们,他们已在议员的工作设备上禁用了内置的AI功能,理由是担心这些AI工具可能会将潜在的机密通信上传到云端。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区