目 录CONTENT

文章目录

全方位访问AI代理的时代已经到来

Administrator
2025-12-24 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/expired-tired-wired-all-access-ai-agents/

原文作者:Matt Burgess


多年来,使用谷歌Facebook微软以及其他科技巨头提供的“免费”服务的代价,一直是交出你的数据。将你的生活上传到云端并使用免费技术带来便利,但也使得个人信息落入那些通常寻求将其货币化的庞大企业手中。现在,下一波生成式AI系统可能会比以往任何时候都更需要访问你的数据。

在过去的两年里,生成式AI工具——例如OpenAIChatGPT和谷歌的Gemini——已经超越了这些公司最初发布的相对直接的纯文本聊天机器人。相反,大型AI公司正越来越多地构建并推动采用代理(agents)和“助手”,它们承诺可以代表你采取行动并完成任务。问题在于?要充分利用它们,你需要授予它们访问你的系统和数据的权限。虽然最初对大型语言模型(LLMs)的争议主要集中在公然复制受版权保护的网络数据上,但AI代理对你个人数据的访问可能会引发一系列新的问题。

Ada Lovelace研究所的高级研究员哈里·法默(Harry Farmer)表示:“AI代理为了实现其全部功能、为了访问应用程序,通常需要访问其运行设备上的操作系统或OS级别。”他的研究包括研究AI助手的潜在影响,并发现它们可能对网络安全和隐私构成“深远威胁”。法默说,为了个性化聊天机器人或助手,可能会有数据交换的权衡。“所有这些东西,为了正常工作,都需要关于你的大量信息。”

虽然对于AI代理到底是什么,并没有严格的定义,但最好将其视为具有一定程度自主性的生成式AI系统或LLM。目前,包括AI网页浏览器在内的代理或助手可以控制你的设备并为你浏览网页,预订航班、进行研究或将商品添加到购物车。有些代理可以完成包含数十个独立步骤的任务。

虽然当前的AI代理存在故障,并且往往无法完成它们被设定的任务,但科技公司正押注于这些系统将从根本上改变数百万人的工作,随着它们变得越来越有能力。它们效用的一个关键部分可能来自于数据访问。因此,如果你想要一个可以提供你的日程和任务的系统,它就需要访问你的日历、信息、电子邮件等。

一些更先进的AI产品和功能让我们得以一窥代理和系统可能被赋予的访问权限。为企业开发的一些特定代理可以阅读代码、电子邮件、数据库、Slack消息、存储在Google Drive中的文件等等。微软备受争议的Recall产品每隔几秒钟就会对你的桌面进行屏幕截图,以便你可以搜索你在设备上做过的所有事情。Tinder开发了一项AI功能,可以搜索你手机上的照片,“以便更好地理解”用户的“兴趣和个性”。

牛津大学作者兼副教授卡丽莎·维利兹(Carissa Véliz)表示,大多数情况下,消费者无法真正检查AI或科技公司是否按照他们声称的方式处理他们的数据。“这些公司在数据方面非常不检点,”维利兹说。“它们已经表明自己对隐私不太尊重。”

现代AI行业从未真正尊重过数据权利。在2010年代初的机器学习和深度学习突破表明,当系统使用更多数据进行训练时可以产生更好的结果后,圈占尽可能多信息的竞赛加剧了。面部识别公司(如Clearview)抓取了数百万人的照片。谷歌只需5美元就购买了面部扫描数据;据称,官方政府机构使用被剥削儿童、签证申请者和死者的图像来测试其系统。

快进几年,贪婪的数据AI公司抓取了大量的网络数据,并复制了数百万本书籍——通常未经许可或付费——来构建它们目前正在扩展到代理的LLM和生成式AI系统。在耗尽了网络上的大部分数据后,许多公司将默认立场设定为使用用户数据来训练AI系统,而是要求人们选择退出,而不是选择加入。

虽然一些注重隐私的AI系统正在开发中,并且有一些隐私保护措施,但代理对数据的大部分处理将在云中进行,数据在不同系统之间传输可能会引起问题。一项由欧洲数据监管机构委托进行的研究,概述了一系列与代理相关的隐私风险,包括:敏感数据如何泄露、被滥用或被拦截;系统如何在没有安全措施的情况下将敏感信息传输到外部系统;以及数据处理如何可能与隐私法规产生冲突。

牛津大学副教授维利兹说:“即使,比如说,你真正同意并真正被告知了你的数据是如何被使用的,与你互动的人可能没有同意。”“如果系统可以访问你的所有联系人、你的电子邮件、你的日历,而你正在给我打电话并拥有我的联系方式,那么他们也在访问我的数据,而我并不希望他们这样做。”

代理的行为也会威胁到现有的安全措施。所谓的提示注入攻击(prompt-injection attacks),即向LLM输入恶意指令(通过它读取或摄入的文本),可能导致数据泄露。如果代理被授予对设备的深度访问权限,它们会对设备上包含的所有数据构成威胁。

运行加密消息应用Signal的Signal基金会主席梅雷迪思·惠特克(Meredith Whittaker)今年早些时候对WIRED表示:“通过操作系统上的代理实现完全渗透和隐私无效化的未来尚未到来,但这正是这些公司所推动的方向,而开发人员却无法选择退出。”可以访问设备或操作系统上所有内容的代理,对Signal和应用程序级别的隐私构成了“生存威胁”。“我们呼吁的是非常明确的、开发者级别的选择退出机制,以表明‘如果你是一个代理,就别他妈碰我们。’”

对于个人而言,Ada Lovelace研究所的法默说,许多人已经与现有聊天机器人建立了密切的关系,并可能在此过程中与它们共享了大量的敏感数据,这使得它们不同于以往的任何系统。“在与这类系统进行个人数据交换时,要对这种等价交换(quid pro quo)非常小心,”法默说。“这些系统目前运营的商业模式,可能与它们将来采用的商业模式不尽相同。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区