📢 转载信息
原文作者:Rebecca Bellan
在编码方面,同行评审对于及早发现 bug、在代码库中保持一致性以及提高整体软件质量至关重要。
“氛围编码”的兴起——即使用 AI 工具,根据自然语言指令快速生成大量代码——已经改变了开发人员的工作方式。虽然这些工具加快了开发速度,但它们也引入了新的 bug、安全风险和难以理解的代码。
Anthropic 的解决方案是一款 AI 审查器,旨在在 bug 进入软件代码库之前将其捕获。这款名为 Code Review 的新产品于周一在 Claude Code 中发布。
“我们看到 Claude Code 取得了巨大的增长,尤其是在企业领域,而我们不断从企业领导者那里听到的一个问题是:既然 Claude Code 提交了大量的拉取请求,我如何才能确保这些请求得到有效审查?” Anthropic 产品负责人 Cat Wu 告诉 TechCrunch。
拉取请求是开发人员用于在代码更改进入软件之前进行审查的机制。Wu 表示,Claude Code 大大增加了代码输出量,从而增加了需要审查的拉取请求数量,导致了代码发布的瓶颈。
“Code Review 是我们的回应,”Wu 说。
Anthropic 推出 Code Review——首先面向 Claude for Teams 和 Claude for Enterprise 客户进行研究预览——正值公司发展的关键时刻。
周一,Anthropic 提起了两起诉讼,起诉国防部对其将 Anthropic 指定为供应链风险的决定。这场争端可能会促使 Anthropic 更加依赖其蓬勃发展的企业业务,该业务的订阅量自年初以来已增长四倍。据该公司称,Claude Code 的年化收入自发布以来已超过 25 亿美元。
“该产品非常针对我们规模较大的企业用户,例如 Uber、Salesforce、Accenture 等公司,它们已经在使用 Claude Code,现在希望获得帮助来处理它所产生的海量 [拉取请求],”Wu 说。
她补充说,开发人员领导可以启用 Code Review,让团队中的每位工程师默认运行。启用后,它会与 GitHub 集成,并自动分析拉取请求,直接在代码上留下评论,解释潜在问题和建议的修复方法。
Wu 说,重点在于修复逻辑错误而非风格问题。
“这非常重要,因为许多开发人员以前都见过 AI 自动化反馈,当反馈无法立即采取行动时,他们会感到恼火,”Wu 说。“我们决定只关注逻辑错误。这样我们就能捕获最高优先级的修复问题。”
该 AI 会逐步解释其推理过程,概述它认为存在的问题、可能存在的问题以及如何解决。该系统会使用颜色标记问题的严重性:红色表示最高严重性,黄色表示值得审查的潜在问题,紫色表示与现有代码或历史 bug 相关的问题。
Wu 说,它通过依赖多个代理并行工作来实现快速高效,每个代理从不同的角度或维度检查代码库。最后一个代理负责聚合和排序结果,删除重复项并确定最重要的内容。
该工具提供了轻量级的 安全分析,工程领导可以根据内部最佳实践自定义其他检查。Wu 说,Anthropic 最近推出的 Claude Code Security 提供了更深入的安全分析。
Wu 表示,多代理架构确实意味着这可能是一款资源密集型产品。与其他 AI 服务类似,定价是基于 token 的,成本取决于代码的复杂性——尽管 Wu 估计每次审查的平均成本在 15 美元到 25 美元之间。她补充说,这是一种优质体验,而且随着 AI 工具生成越来越多的代码,这种体验变得越来越必要。
“[Code Review] 是源于巨大的市场需求,”Wu 说。“随着工程师使用 Claude Code 进行开发,他们发现创建新功能的[摩擦]减少了,并且对代码审查的需求大大增加。因此,我们希望通过这个工具,使企业能够以前所未有的速度构建产品,并比以往拥有更少的 bug。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区