你会仔细 review AI 写的代码?那你离被裁不远了
你会仔细 review AI 写的代码?那你离被裁不远了
Steve Yegge——前 Amazon、Google 工程师,现 Sourcegraph 工程负责人——在一次播客访谈里画了一张图,把工程师与 AI 的协作关系分成了 8 级。
他说,让他这辈子都没这么难过过的,不是那些不会用 AI 的人。
而是那些仍在"仔细 review AI 写的代码,然后再提交"的人——偏偏,他们是他见过的最好的工程师。
“我听到有人说’我会仔细 review 它写的代码再提交’——哥们,你很快就会被裁掉,而你明明是我认识的最好的工程师之一。”

那张光谱:八个等级
判断标准不是你有多懂技术,而是你对 AI 的信任走到了哪一步。

一级:完全不用 AI。
靠经验、搜索、StackOverflow。
二级:在 IDE 里偶尔问一问。
“帮我优化这个函数”——然后仔细审查每一行。技术可能很强,review 习惯很好。这正是 Yegge 最担心的人。
三级:开始 YOLO。
"行,你直接干吧。"信任感开始建立,不再逐行 review。
四级:代码开始往外挤。
你越来越想看 agent 在干什么,而不是盯着 diff。review 越来越少,注意力移向对话本身。
五级:只想要 agent。
"代码我回头去 IDE 里看,但我不是在用 IDE 写代码了。"代码变成了结果,不再是过程。
六级:并行多 agent。
Agent 在跑,你无聊了,再开一个。很快你进入一种状态:总有某个 agent 在等你,总有某个 agent 刚跑完。多路复用,停不下来。
七级:一团糟。
消息发给了错误的 agent,它在项目里又开了一个大项目,你得自己收拾残局。这是真正的分水岭。
八级:Orchestration。
让 Claude Code 运行 Claude Code。AI 调度 AI,你变成上层的编排者。
为什么心疼的偏偏是强者?
一二级里停着的,很多是技术过硬的人。
问题不在于他们不会用 AI,而在于他们用 AI 的方式,依然在用人类的节奏衡量产出。
每次提交前 review,是在用自己的时间换确定性。这本来没错。但当另一批人已经在用 agent 并行推进、以十倍速度交付,"仔细 review"这个动作,正在从美德变成成本。
他还提到了一个更残酷的数字:大公司现在设的那个"裁员比例的拨盘",默认是 50%。不是因为这些人不够好,而是因为留下来的另一半,产出能覆盖两个人的工作量。
真正的问题是心理模型,不是技术
这张图真正在测量的,是你对 AI 有没有建立真实的信任关系。
信任不是盲目放权。信任是:你知道它大概率在哪里犯错,你愿意在那个范围内承担风险,而不是每次都退回到"让我先看看它写了什么"。
就像早期用 Git 的人,一开始每次 commit 都很紧张,觉得分支太危险。现在的人默认 PR、review、merge,从没有"这个工具我还不放心"的感觉。
你对 AI 现在的状态,就是那个还在手动备份代码的人。不是你不聪明,是心理模型还没走到那一步。
你在哪一级?
3 个问题快速定位:
- 上次 AI 写了代码,你有没有逐行读完再提交?
- 你有没有同时运行过 2 个以上的 coding agent?
- 你有没有让 AI 自己跑一个任务,自己去做别的事?
如果 1 是"是",2 和 3 是"没有"——你大概率在三级以下。
这不是批评,是基准线。
最后一句话
Yegge 在访谈结尾说:“这一切变化太大了,真的变得太快了。”
他不是在感叹,是在预警。
你的信任速度,会决定你的速度。
来源
Steve Yegge × The Pragmatic Engineer 播客访谈:
https://www.youtube.com/watch?v=aFsAOu2bgFk&list=LL&index=3&t=2825s
更多深度内容与完整文章,欢迎关注我的微信公众号:SamLai 效率研习社
主要分享:
AI 编程与开发效率
技术趋势与工程思考
实用工具与工作流
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)