目 录CONTENT

文章目录

AI智能体工程实践:Peter Steinberger分享的“只管说”高效开发方法

Administrator
2025-10-15 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://simonwillison.net/2025/Oct/14/agentic-engineering/#atom-everything

原文作者:Simon Willison


【核心观点】告别繁琐,直接对话:Peter Steinberger的“只管说”智能体工程法

Peter Steinberger在他的文章《Just Talk To It - the no-bs Way of Agentic Engineering》中,详细阐述了他目前使用 Codex CLI 和 GPT-5 Codex 进行开发的流程。这篇文章信息量巨大,充满了实用的技巧,同时也分享了他对 Claude 4.5 和 GPT-5 之间差异的独到见解。

与模型的沟通技巧:GPT-5 偏爱自然语言

Peter 提到,不同模型对指令的反应截然不同:

Claude 非常善于响应 🚨 全大写尖叫 🚨 式的命令,如果威胁它说如果不运行命令 X,将导致最终失败和 100 只小猫死亡,它就会“被吓到”。而 GPT-5 恰恰相反(情有可原)。所以,请摒弃那些花哨的指令,像与人交流一样使用自然语言。

并行智能体(Parallel Agents)的力量

Peter 是并行智能体(parallel agents)的重度用户:

我已经完全转向使用 codex CLI 作为日常主力工具。我通常会在一个 3x3 的终端网格中同时运行 3 到 8 个智能体,其中大部分 在同一个文件夹中,一些实验则会放在单独的文件夹里。我尝试过工作区(worktrees)和拉取请求(PRs),但最终还是回到了这种设置,因为它能最快地完成工作。

CLI 工具优于 MCPs (Model Context Protocols)

他分享了我对使用命令行工具(CLI)而非模型上下文协议(MCPs)的偏爱:

我可以直接引用一个 CLI 的名称。我的智能体配置文件中不需要任何解释。智能体会尝试在第一次调用时执行 $randomcrap,CLI 会显示帮助菜单,此时上下文就包含了如何操作的完整信息,之后我们就万事大吉了。我不需要为任何工具支付额外的费用,不像 MCPs 那样持续产生费用并给我的上下文带来垃圾信息。以 GitHub 的 MCP 为例,它首次启动就消耗了 23k tokens(尽管后来有所改进,最初几乎达到 50,000 tokens)。相比之下,使用 gh CLI 拥有几乎相同的功能集,模型已经知道如何使用它,并且我们无需支付任何上下文税。

此外,他还强烈建议阅读 关于他为何完全放弃“规范驱动开发”的那一部分

发布于 2025 年 10 月 14 日 21:26




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区