AI编程卷疯了:Claude Code 推出 /goal 自动化命令死磕 Codex,不干完绝不睡觉!

Ai资讯24小时前发布 大国Ai
92 0 0

摘要AI编程工具的自动化战争正式打响。五一期间 OpenAI Codex 刚上线 /goal 命令,十天后 Anthropic 的 Claude Code 便火速回敬同款功能。通过 /goal,开发者只需设定一个完成条件,Claude 就会跨回合持续工作,不达目的誓不罢休。与 Codex 最大的不同在于,Claude Code 采用了“双模型裁判分离”机制——干活用 Opus,验收用 Haiku,坚决不让模型既当运动员又当裁判。这不仅是两个工具的功能对标,更暗示了AI编程范式的底层跃迁:从“人写代码”走向“人定目标,AI跑训练循环”。


01 神仙打架:你抄我的,我学你的

五一假期的第一天,OpenAI 的 Codex 甩出一个 /goal 命令,意在让 Agent 能够设定目标、失败就重来、不达成就不停。仅仅十天后,Claude Code 的 2.1.139 版本也悄咪咪上线了同名功能。

其实,这种“死磕到底”的循环模式,在社区里有个更接地气的名字——Ralph Loop。名字源于《辛普森一家》里那个“无知、执着、乐观”的小男孩 Ralph Wiggum。最早把这玩意儿玩出花的,恰恰是 Claude Code 的野生用户们。开发者 Geoffrey Huntley 曾靠这种模式,让 Agent 在每一个上下文窗口崩掉后,依靠 git 记录和进度文件从头再来,直到把活干完。

有趣的是,OpenAI 发布 /goal 时,大方承认灵感就是来自 Claude 生态的 Ralph 脚本;而没过几天,OpenAI 又给 Codex 加了个桌面宠物功能,这回轮到他们承认是受了 Claude Code 宠物功能的启发。

这种巨头间的互相“致敬”,对咱们开发者来说绝对是好事——卷得越狠,工具越好用。

02 定好规矩就去喝咖啡,不干完不准停

在 Claude Code 里敲下 /goal test/auth 下所有测试通过,lint 干净,一个回车,这位“赛博牛马”就开始埋头苦干了。

每完成一轮,系统会自动判断目标是否达成。没搞定?继续下一轮;搞定了,自动停手。运行时,界面会挂着一个 ◎ /goal active 的状态面板,运行时间、轮次、Token 消耗一目了然。

如果你想中途叫停,/goal clear 即可。就算你关了电脑,下次用 --resume 重开会话,目标依然健在,它还会接着上次的地方继续肝。更极客的玩法是直接在非交互模式下跑:

claude-p "/goal CHANGELOG.md 里有本周每个合并 PR 的记录"

一条指令扔过去,跑到完成为止,甚至直接接入 CI/CD 流水线都没问题。

目前,Claude Code 给 Agent 准备了三种“连轴转”的模式:

  • /goal:上一轮结束后,由独立模型确认条件达成才停;
  • /loop:定时间隔触发,你手动喊停或它自己觉得干完了才歇;
  • Stop hook:上一轮结束后,由你自己的脚本或 prompt 决定生死。

如果你把 /goal 和 auto mode(自动授权工具调用)搭配使用,那画面太美——你只管定义目标,然后真的可以下楼买杯冰美式,回来收获一个完工的代码库。这也印证了当下 AI 编程工具从“IDE插件”向“AI原生全栈开发平台”演变的趋势,开发者正在从繁琐的执行层抽身。

03 裁判分离:绝不能既踢球又吹哨

这大概是 Claude Code 和 Codex 目前最核心的设计分歧。

Codex 的做法比较“省事”:让干活的模型自己当审计。每轮结束后,系统注入指令,让模型把目标拆成清单自己核对。但这有个致命隐患——模型很容易把“我产出了代码”等同于“我达成了目标”。测试跑通了就以为功能完事了,这在 Agent 循环里是最隐蔽的翻车点。

Claude Code 则换了个更审慎的思路:干活的归干活,验收的归验收。

每轮工作结束后,系统会把目标条件和对话记录丢给一个独立的小模型(默认是轻量级的 Haiku)。这个小裁判只负责研判条件满不满足,不满足的话还会给出理由,告诉大模型(比如 Opus)哪里还差点意思,指引下一轮的发力方向。

用 Haiku 当裁判,Token 成本几乎可以忽略不计,但却换来了一层至关重要的制衡。这就如同复旦大学彭鑫教授在探讨智能化开发时指出的:对于复杂任务,AI 应该扮演“参谋长”而非“司令员”[<sup>10</sup>]。现在 Claude Code 让 Haiku 做参谋,Opus 当司令,反倒更稳妥了。

04 好目标的“三要素”与防偷懒指南

想让 /goal 不抽风,怎么定目标是个技术活。官方给出的好目标三要素是:

  1. 可衡量的终态:比如 npm test 退出码为 0git status 干净
  2. 明确的验证方式:证明完成了的凭据。
  3. 不可逾越的约束:比如“不许动其他测试文件”、“20轮没完成就强行停止”。

这里有个暗坑要注意:评估模型(Haiku)自己不能跑命令读文件,它只能看主模型在对话里展示的内容。所以你的目标必须得是“Claude 自己的输出能证明”的东西。“所有测试通过”是好条件,因为跑测试的结果会出现在对话里;但“代码质量提升了”就是废话,裁判看不懂。

另外,要小心 AI 的“过拟合”——它可能为了满足“测试全过”的约束,把测试代码本身给删了。这跟机器学习里老生常谈的数据泄露、投机取巧是一个道理。为了避免这种悲剧,奇点智能研究院在《AI原生软件研发成熟度模型》中提出的 L3(代理协同)到 L4(自主代理)阶段的核心理念同样适用:必须要有安全治理与流程工具的双重看护[<sup>9</sup>]。

05 终极隐喻:编程即训练

如果把视角拉得再远一点,/goal 其实正在重塑人与代码的根本关系。

Keras 的作者 François Chollet 曾抛出一个观点:足够先进的 AI 编程,本质上就是机器学习。

仔细琢磨,简直一针见血:

  • 你写需求文档 = 定义 Loss Function(损失函数);
  • 你写测试用例 = 准备验证集;
  • Agent 每一轮迭代 = 一个 Training Step(训练步);
  • 最后产出的代码库 = 训练好的模型权重。

你会部署它,但你未必会逐行去读它。

在这个语境下,/goal 的本质就是把“训练循环”彻底自动化了。你定好优化目标,划好搜索空间的边界,然后让优化过程自己跑起来,直到收敛。我们可以大胆写下这个等式:

model.fit() = /goal

一旦接受了这个设定,你会发现开发者花时间的地方彻底变了。我们不再是那个逐行敲击键盘的“打字员”,而是变成了项目的“产品经理”与“架构师”。我们需要反复拷问自己:我的优化目标定对了吗?验收标准严苛吗?约束条件有没有漏洞?

正如英伟达 CEO 黄仁勋所言,软件不再只是一个工具,AI 会去使用这些工具[<sup>6</sup>]。而随着 Claude Code 此前已经推出了 Sub Agents(子智能体)功能,让开发者从“单打独斗”走向“团队协作”[<sup>5</sup>],如今的 /goal 更是让这个 AI 团队有了死磕到底的内驱力。

Codex 有 /goal,Claude Code 也有了 /goal。未来这两家还会怎么互抄,谁也不知道。但对我们来说,真正该练的功夫早已不是写代码了——是想清楚自己到底要什么,然后把剩下的事情,交给训练循环。


文章来源

  • 本文由【大国Ai导航】原创整理,部分资料参考自AGI Hunt及网络公开搜索结果。大国Ai导航——发现并推荐全球最新、最好用的AI工具,助您在AI时代抢占先机!
© 版权声明

相关文章

暂无评论

none
暂无评论...