📢 转载信息
原文链接:https://www.wired.com/story/big-interview-event-daniela-amodei-anthropic/
原文作者:Marah Eakin
特朗普政府可能认为监管正在扼杀AI 行业,但行业中最大的参与者之一并不同意。
在周四举行的 WIRED “大咖访谈”(Big Interview)活动上,Anthropic 总裁兼联合创始人 Daniela Amodei 告诉 WIRED 资深编辑 Steven Levy,尽管特朗普的 AI 和加密货币沙皇 David Sacks 曾发推文称她的公司正在“基于危言耸听来实施复杂的监管俘获策略”,但她坚信公司公开指出 AI 潜在危险的做法正在使整个行业变得更强大。
Amodei 说:“我们从第一天起就非常明确地表示,我们认为 AI 具有巨大的潜力。我们真的希望全世界都能认识到 AI 所能带来的潜力、积极益处和上行空间,为了做到这一点,我们必须把棘手的问题处理妥当。我们必须让风险变得可控。这就是我们如此频繁讨论它的原因。”
超过 30 万家初创公司、开发人员和企业正在使用 Anthropic Claude 模型或其某个版本。Amodei 表示,通过与这些品牌打交道,她了解到,虽然客户希望 AI 能够做很棒的事情,但他们同时也希望它能可靠和安全。
“没有人会说,‘我们想要一个安全性更低的产品,’”Amodei 说,她将 Anthropic 报告其模型限制和越狱情况的做法,比作汽车公司发布碰撞测试研究,以展示他们如何解决了安全问题。看到碰撞测试中的假人飞出车窗的视频可能会让人震惊,但了解到汽车制造商因此改进了车辆的安全功能,可能会让买家更愿意购买这辆车。Amodei 认为,对于使用 Anthropic AI 产品的公司来说也是如此,这形成了一种某种程度上的自我监管的市场。
她表示:“我们通过将产品投入经济体系,正在设定人们几乎可以认为是最低安全标准。” 公司“现在围绕 AI 构建了许多工作流程和日常工具任务,他们会想,‘嗯,我们知道这个产品不会像以前那样产生幻觉,它不会产生有害内容,它不会做所有这些坏事。’ 为什么要去选择一个在这方面得分更低(即更不安全)的竞争对手呢?”

Amodei 提到,Anthropic 因其对“宪法 AI”(constitutional AI)的承诺而闻名,即训练模型遵循一套基于伦理原则和教授人类价值观的文件。Amodei 说,使用类似《联合国世界人权宣言》的内容来训练模型,可以迅速教会大型语言模型(LLM)如何根据整体的伦理意义来回应查询,而不是仅仅基于查询在经验上是对是错、好是坏。
Amodei 称,Anthropic 对创建更好、更具道德的 AI 模型的承诺,也有助于其留住人才。“我们从来到 Anthropic 的人那里听到的故事是,公司的使命、价值观以及这种对好与坏都保持诚实的意愿,以及帮助改善那些‘坏’方面的愿望,感觉非常真诚,好像我们是认真的,”她解释道。
也许这就是为什么 Anthropic 在过去几年中员工人数呈爆炸式增长,从 200 人增加到 2000 多人。虽然这些数字在华尔街和硅谷充斥着 AI 泡沫言论的背景下可能看起来令人担忧,但 Amodei 表示,她没有看到她的公司或行业有任何放缓的迹象。
Amodei 说:“根据我们所看到的,模型的智能仍在按照扩展定律所描述的曲线持续增长,收入也沿着同一条曲线增长。”她补充道:“正如 Anthropic 工作的任何科学家都会告诉你的那样,一切都会沿着曲线持续发展,直到它不再发展,所以我们确实会努力保持自我觉察和谦逊。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区