📢 转载信息
原文链接:https://simonwillison.net/2025/Oct/14/agentic-engineering/#atom-everything
原文作者:Simon Willison
【核心观点】告别繁琐,直接对话:Peter Steinberger的“只管说”智能体工程法
Peter Steinberger在他的文章《Just Talk To It - the no-bs Way of Agentic Engineering》中,详细阐述了他目前使用 Codex CLI 和 GPT-5 Codex 进行开发的流程。这篇文章信息量巨大,充满了实用的技巧,同时也分享了他对 Claude 4.5 和 GPT-5 之间差异的独到见解。
与模型的沟通技巧:GPT-5 偏爱自然语言
Peter 提到,不同模型对指令的反应截然不同:
Claude 非常善于响应 🚨 全大写尖叫 🚨 式的命令,如果威胁它说如果不运行命令 X,将导致最终失败和 100 只小猫死亡,它就会“被吓到”。而 GPT-5 恰恰相反(情有可原)。所以,请摒弃那些花哨的指令,像与人交流一样使用自然语言。
并行智能体(Parallel Agents)的力量
Peter 是并行智能体(parallel agents)的重度用户:
我已经完全转向使用
codex
CLI 作为日常主力工具。我通常会在一个 3x3 的终端网格中同时运行 3 到 8 个智能体,其中大部分 在同一个文件夹中,一些实验则会放在单独的文件夹里。我尝试过工作区(worktrees)和拉取请求(PRs),但最终还是回到了这种设置,因为它能最快地完成工作。
CLI 工具优于 MCPs (Model Context Protocols)
他分享了我对使用命令行工具(CLI)而非模型上下文协议(MCPs)的偏爱:
我可以直接引用一个 CLI 的名称。我的智能体配置文件中不需要任何解释。智能体会尝试在第一次调用时执行 $randomcrap,CLI 会显示帮助菜单,此时上下文就包含了如何操作的完整信息,之后我们就万事大吉了。我不需要为任何工具支付额外的费用,不像 MCPs 那样持续产生费用并给我的上下文带来垃圾信息。以 GitHub 的 MCP 为例,它首次启动就消耗了 23k tokens(尽管后来有所改进,最初几乎达到 50,000 tokens)。相比之下,使用
gh
CLI 拥有几乎相同的功能集,模型已经知道如何使用它,并且我们无需支付任何上下文税。
此外,他还强烈建议阅读 关于他为何完全放弃“规范驱动开发”的那一部分。
发布于 2025 年 10 月 14 日 21:26
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
青云聚合API官网https://api.qingyuntop.top
支持全球最新300+模型:https://api.qingyuntop.top/pricing
详细的调用教程及文档:https://api.qingyuntop.top/about
评论区