Anthropic CEO 达里奥·阿莫迪(Dario Amodei)访谈分析报告

一、核心观点概览
1. AI 发展时间线预测
核心预测:
- 1-2 年内(2026-2027 年):AI 系统将具备"数据中心里的天才国家"(country of geniuses in a data center)的能力
- 90% 置信度:通用人工智能(AGI)将在 10 年内(2035 年前)实现
- 5% 不确定性:可能因地缘政治、公司动荡等外部因素延迟 10 年
具体能力里程碑:
| 领域 | 时间预测 | 置信度 |
|---|---|---|
| 编码(可验证任务) | 1-2 年 | 极高 |
| 软件开发自动化 | 几乎已接近 | 高 |
| 非可验证任务(科学发现、创意写作) | 存在不确定性 | 中等 |
通俗理解: 就像玩游戏升级,AI 已经从"小学生水平"升级到"大学生水平",再过一两年就要变成"博士水平"了。
原文引用:
“到 26 年底、27 年初,我们将拥有 AI 系统……能够操作当今人类进行数字工作时使用的各种界面,智力水平媲美甚至超越诺贝尔奖得主,并具备与物理世界交互的能力。”
“我认为在编码方面……我认为一两年内就能实现。要说 10 年后还不能实现端到端的编码自动化,那是绝对不可能的。”
2. “大计算量假设”(Big Blob of Compute Hypothesis)
达里奥自 2017 年提出的核心理论,认为只有7 个关键因素影响 AI 进展:
- 原始计算量(raw compute)— 电脑的"脑力"有多大
- 数据数量(quantity of data)— 给 AI 看多少东西来学习
- 数据质量和分布(quality and distribution)— 学的东西要五花八门,不能只学一种
- 训练时长(how long you train for)— 让 AI 学多久
- 可扩展的目标函数(objective function that can scale to the moon)— 给 AI 设定的"学习目标"好不好
- 归一化/数值稳定性(normalization/conditioning)— 让计算过程不出错
- 第七个因素(未明确详述)— 一些技术细节
核心论点:
“所有那些巧妙的技巧、方法,以及’我们需要新方法才能做某事’这类想法——其实都不太重要。”
通俗理解: 就像养孩子,不是靠什么"速成秘诀",而是:
- 给他足够的营养(计算量)
- 让他多读书多见世面(数据)
- 给他足够的时间成长(训练时长)
- 给他好老师好目标(目标函数)
理论延续性:
“这就是当时的假设,也是我至今仍然坚持的假设。我没见到太多与这个假设不符的现象。”
3. 缩放定律(Scaling Law)的延续
预训练缩放:
- 继续有效,仍在提供增益
- 从 GPT-1 到 GPT-2 的过渡显示了泛化能力的突破
强化学习(RL)缩放:
- 与预训练呈现相同的对数线性增长
- 从数学竞赛(AIME)到代码任务,再到更广泛的任务
原文引用:
“我们在强化学习中看到了与预训练相同的缩放规律……模型的表现与训练时长呈对数线性关系。”
GPT 演进历程:
| 模型 | 训练数据 | 关键发现 |
|---|---|---|
| GPT-1 之前 | 标准语言建模基准 | 泛化能力差 |
| GPT-1 | 同人小说等文学文本(约 10 亿词) | 窄分布,泛化有限 |
| GPT-2 | 全网爬取(Common Crawl、Reddit 链接) | 开始获得泛化能力 |
通俗理解: 就像学习一样,一开始只学课本(GPT-1),后来去整个互联网学习(GPT-2),才真正变得聪明。
4. AI 学习与人类学习的类比
达里奥提出一个四层学习谱系:
进化(几百万年) ← → 人的一辈子学习 ← → 临时抱佛脚 ← → 本能反应
↓ ↓ ↓
预训练 上下文学习 即时反应
关键洞察:
“预训练不像人类学习的过程。它介于人类学习过程和人类进化过程之间。”
详细解释:
- 大语言模型(LLM)的预训练介于人类进化和人类长期学习之间
- 模型比人类大脑更"空白"(blank slate)
- 人类大脑从进化中获得大量先验知识,而模型从随机权重开始
- 百万级上下文长度使模型能在上下文内进行类似"工作中学习"的能力
通俗理解:
- 人类像是一台预装了很多软件的电脑(出厂设置)
- AI 像是一台只有操作系统的电脑,但学习能力超强
样本效率差异:
- 预训练使用万亿级 token
- 人类一生接触的词汇量远少于此
- 但一旦训练完成,模型在长上下文(如 100 万 token)内的学习能力非常强
5. 经济扩散理论
核心观点: AI 技术的发展速度 ≠ 经济扩散速度
通俗理解: 技术变厉害 ≠ 马上改变所有人的生活
时间框架:
| 阶段 | 时间 | 特征 |
|---|---|---|
| 技术发展 | 1-2 年 | "天才国家"出现 |
| 经济扩散开始 | 1-5 年不确定 | 收入开始涌入 |
| 全面经济影响 | 更长时间 | 取决于监管、生物发现周期等 |
![]() |
为什么扩散需要时间?
“新冠疫苗够厉害了吧?从研发到人人都打上,还是花了 1 年半。脊髓灰质炎疫苗 50 年前就发明了,但现在还有一些地方没消灭这个病。”
关键约束因素:
- 监管流程(如临床试验、FDA 审批)
- 改变管理(change management)
- 企业采用新技术的惯性
- 基础设施限制
历史类比:
“我们最终让每个人都接种了疫苗。但花了一年时间。花了一年半时间……脊髓灰质炎疫苗已经有了 50 年,但我们仍在努力消灭非洲最偏远地区的这种病。”
通俗理解: 就像给你一台超级厉害的游戏机,但你还要:
- 学会怎么用
- 买游戏卡带
- 说服爸妈允许你玩
- 等朋友也买了才能联机
这些都需要时间!
扩散速度判断:
“它将比世界上任何技术都快,但它仍然有自己的极限。”
“不是立即,也不慢——比以前的技术快,但它有自己的极限。”
6. Anthropic 的商业战略
数据中心采购策略:
核心困境:
“如果我在 2027 年底购买一万亿美元的计算量,而实际收入只有 8000 亿,那么世界上没有任何力量、没有任何对冲手段能阻止我破产。”
通俗理解: 就像你要开奶茶店:
- 你听说明年奶茶会超级火
- 但你不确定是明年火还是后年火
- 如果你借钱买了 100 台机器,但客人没来那么多,你就破产了
- 所以你先买 50 台,稳妥一点
策略选择:
- 负责任扩展(responsible scaling):不过度押注
- 选择支持数千亿而非万亿美元的计算量
- 接受部分需求无法满足的风险,避免破产风险
两难选择对比:
| 选择 | 后果 |
|---|---|
| 买太少电脑 | AI 不够用,赚不到钱,研发受限 |
| 买太多电脑 | 如果 AI 赚钱没那么快,公司会破产 |
| 达里奥的选择 | 宁可少买一点,也不要冒破产的风险 |
收入增长轨迹:
2023 年:0 → 10 亿美元(年化收入)
2024 年:10 亿 → 数十亿
2025 年:预计继续 10 倍增长
行业计算量预测:
| 年份 | 计算量(GW) | 对应成本 |
|---|---|---|
| 2025 | 10-15 GW | 约 1500 亿美元 |
| 2026 | 30-40 GW | 约 3000-4000 亿美元 |
| 2028 | 约 100 GW | 约 1 万亿美元 |
| 2029 | 约 300 GW | 约 3 万亿美元 |
盈利能力模型:
- 理想状态:50% 计算用于训练,50% 用于推理
- 推理毛利率 > 50%
- 盈利能力取决于需求预测准确性
“当你低估了将得到的需求时,就会盈利;当你高估了将得到的需求时,就会亏损。”
7. 软件工程的自动化光谱
达里奥区分了多个层次,强调这些是完全不同的基准:
通俗理解: 很多人听说"AI 能写 90% 的代码",就以为程序员要失业了。达里奥说:完全不是这样!
自动化层次:
| 层次 | 描述 | 状态 |
|---|---|---|
| 1️⃣ | AI 写 90% 的代码行 | ✅ 已完成(Anthropic 内部及下游用户) |
| 2️⃣ | AI 写 100% 的代码行 | 🟡 接近(生产力与 90% 有质的区别) |
| 3️⃣ | AI 完成 90% 的完整任务(包括编译、测试、部署、写文档) | 🟡 接近 |
| 4️⃣ | AI 能做任何程序员现在做的事(100% 现有 SWE 任务) | ⏳ 未来 |
| 5️⃣ | 公司不需要那么多程序员了(90% SWE 需求减少) | ⏳ 更远 |
关键洞察:
“人们以为我在说我们将不需要 90% 的软件工程师。这两者完全是天壤之别。”
“即使今天 100% 的软件工程师任务都由模型完成,也不意味着软件工程师会失业。他们可以做新的更高层次的工作。”
通俗理解: 就像洗碗机:
- 洗碗机能洗 90% 的碗 ≠ 厨房不需要人了
- 人还要做饭、摆盘子、清理桌面
程序员也一样,AI 写代码,但人还要:
- 决定做什么功能
- 检查 AI 写得对不对
- 跟团队沟通
历史类比:
- 编译器写了几乎所有代码行,但软件工程师需求未消失
- 参考农业自动化历程(在《技术的青春期》一文中论述)
8. 计算机使用(Computer Use)能力
通俗理解: Anthropic 做了一个能让 AI 像人一样用电脑的功能。
进展数据:
- 首次发布时(约一年半前):约 15% 任务完成率(很笨)
- 目前:65-70% 任务完成率(还可以,但不够可靠)
- 需要跨越"信任点"(trust point)才能大规模部署
应用场景示例(视频编辑):
AI 需要能够:
- 全面控制电脑屏幕
- 访问历史对话记录
- 查看社交媒体(Twitter)上的观众反馈
- 与工作人员沟通
- 学习用户品味和剪辑历史
- 自主执行剪辑工作
举个例子: 假设你让 AI 帮你剪视频:
- 它要会看你的历史视频
- 要会看观众在社交媒体上说了什么
- 要会理解你喜欢什么风格
- 然后才能剪出你满意的视频
当前障碍:
“即使你看到了计算机使用能力,我仍然不会把真正的工作交给它们……那种失败率,即使它们能完成十分之七的工作,我仍然会找真人来做。”
通俗理解: 就像请了个实习生,能干 70% 的活,但你不敢把重要工作全交给它。
9. 行业竞争动态
自我改进循环(AI 写 AI):
通俗理解: 这是一个很厉害的概念——用 AI 来制造更好的 AI
进展:
- 更好的 AI → 帮助构建更好的下一代 AI
- 目前观察到 15-20% 的开发速度提升
- 6 个月前仅 5%,正在加速
“六个月前可能只有 5%。所以它开始滚雪球了……我认为它正变得越来越快。”
通俗理解: 就像你学习:
- 一开始自己做题
- 后来有个 AI 家教帮你
- AI 家教越来越厉害,你学得越来越快
- 你学得越快,又能造出更厉害的 AI 家教
这就是"滚雪球"效应!
Anthropic 内部使用 AI 的情况:
- 工程师已经不自己写底层代码(CUDA)了,全交给 AI
- GPU 内核、芯片设计都由 Claude 完成
- 观察到显著的生产力提升
竞争格局:
- 所有主要 AI 公司都在使用 AI 进行内部开发
- 优势是"雪球式"积累的,从 10% → 20% → 25% → 40%…
- 但无法完全阻止竞争对手使用自己的模型
10. 对"工作中学"(On-the-Job Learning)的看法
当前状态:
- 研发(R&D)是特例:有外部记忆库(代码库、文档)
- 其他职业需要 6 个月积累的隐性知识更难替代
视频编辑案例:
“他们花 6 个月建立这种理解……我们应该何时期待 AI 系统能够即时获得这种能力?”
通俗理解: 这是一个还没完全解决的问题:
- 一个视频剪辑师工作 6 个月,会了解老板的喜好、公司的风格
- 这些知识不是写在文档里的,是"潜移默化"学会的
- AI 现在还不擅长这个
技术路径:
- 长上下文学习:百万级 token 上下文可容纳 6 个月的工作记忆
- 持续学习(continual learning):模型在工作过程中持续更新
通俗理解: 就像新同学转学到你们班:
- 一开始什么都不懂
- 几个月后知道哪个老师严厉、哪个同学好相处
- AI 也需要这个"融入"的过程
进展预测:
“我认为在下个月或两个月内,我们很有可能会解决这个问题。”
工程挑战:
- 需要存储完整的 KV 缓存
- GPU 内存限制
- 训练时上下文长度与服务时不一致导致的性能下降
11. 关于"适应性/摩擦"(Friction)的讨论
通俗理解: 你可能会想:“AI 这么好,为什么公司不马上都用起来?”
核心观点:
“摩擦是非常真实的,它并不专门源于 AI 模型的局限性。”
企业采用新技术的流程:
- 法务部审查:“这个东西合法吗?”
- 安全部审查:“这个东西安全吗?”
- 保险和合规审查
- 领导层审批:“这东西值得花这么多钱吗?”
- 向团队解释和推广:“这个东西怎么用?”
通俗理解: 就像你想养只宠物:
- 你要查资料了解怎么养
- 要说服爸妈同意
- 要准备笼子、食物
- 要花时间和它熟悉
这些都需要时间,不是一天能搞定的。
Anthropic 的产品采用速度:
- Claude Code 等产品的采用速度比一般企业软件快
- 但仍需要时间,不是"无限快"
“即使数据中心里存在通用人工智能或’天才国家’,它的传播速度会很快——可能每年 3 倍、5 倍或 10 倍的增长——但永远不会是无限快的。”
二、关键数据汇总
| 事情 | 数字 | 什么意思 |
|---|---|---|
| Anthropic 收入增长 | 每年 10 倍 | 去年赚 1 块,今年赚 10 块,明年赚 100 块 |
| 行业计算量增长 | 约 3 倍/年 | 当前趋势 |
| 计算机使用任务完成率(初始) | 约 15% | 约 2024 年中 |
| 计算机使用任务完成率(当前) | 65-70% | 2025 年初 |
| AI 辅助开发速度提升 | 15-20% | 原来 5 小时干完,现在 4 小时干完 |
| AI 辅助开发速度提升(6 个月前) | 约 5% | 2024 年中 |
| 通用人工智能置信度(10 年内) | 90% | 几乎肯定会发生 |
| 编码通用人工智能(1-2 年) | 极高置信度 | - |
| 2030 年前万亿美元收入 | “难以想象不会发生” | - |
| 每吉瓦计算量成本 | 100-150 亿美元/年 | - |
三、理论框架总结
1. 技术进展 vs 经济扩散
┌─────────────────────────────────────────────────────────────────┐
│ 技术进步(快) 经济扩散(较慢但仍是史上最快) │
│ ↓ ↓ │
│ 1-2 年:天才国家出现 1-5 年:收入开始涌入 │
│ 5-10 年:全面经济影响 │
└─────────────────────────────────────────────────────────────────┘
2. 计算量采购的"金发姑娘原则"
买太少 刚刚好 买太多
↓ ↓ ↓
错过机会 支持数千亿规模 破产风险
收入不足 接受部分需求 如果需求延迟
研发受限 无法满足 无法挽回
3. 可验证性任务谱系
高可验证性 ←————————————————————————→ 低可验证性
↓ ↓
编码、数学 科学发现、创意写作
进度快、置信度高 进度不确定
4. 软件工程自动化层次
层次 1: 90% 代码由 AI 编写 ✅ 已实现
层次 2: 100% 代码由 AI 编写 🟡 接近
层次 3: 90% 端到端任务 🟡 接近
层次 4: 100% 现有 SWE 任务 ⏳ 未来
层次 5: 90% SWE 需求减少 ⏳ 更远
四、达里奥最坚信的几件事
-
大家都低估了 AI 的进展
“最令人惊讶的是……公众缺乏对我们离指数增长终点有多近的认识。大家还在吵那些老掉牙的政治问题,没意识到 AI 马上就要改变一切了。”
-
不要盲目扩张
“不是无限快的扩散……我们仔细思考过这个问题,并做出了平衡。宁可少赚点,也不要冒险破产。”
-
计算量才是王道
“所有那些巧妙的技巧……都不太重要。只有少数几件事是真正重要的。那些花里胡哨的技巧不重要,重要的是有多少电脑、多少数据。”
-
AI 赚钱是肯定的
“我很难想象在 2030 年之前不会出现数万亿美元的收入。2030 年前 AI 行业肯定能赚上万亿美元,这几乎是一定的。”
-
行业竞争本质
“我们都处于一种滚雪球式的动态中……10%、20%、25%、40%……”
五、潜在风险与不确定性
1. 有些事 AI 还搞不定
- 科学发现、创意写作等领域的自动化路径不如编码清晰
- 但已有从可验证到不可验证的泛化证据
通俗理解:
- 写代码、做数学题 → 很快就能完全自动化
- 搞科学发现、写小说 → 还不太好说
2. 意外事件(5% 概率)
“也许……所有的芯片制造厂都被导弹炸毁了……你可以构想一个有 5% 概率的世界,在那里事情被延迟了 10 年。”
通俗理解:
- 比如打仗把芯片厂炸了
- 比如大公司内部出大问题
3. 需求预测风险
- 计算量采购的时机错误可能导致公司破产
- 即使技术预测正确,商业预测错误也会致命
通俗理解:
- 以为明年能赚很多钱,结果没赚那么多
- 买了太多电脑,还不起钱
4. 工作中学瓶颈
- 某些职业需要长期隐性知识积累
- 长上下文技术可能解决这个问题,但存在工程挑战
通俗理解: 有些工作需要"混资历":
- 比如销售要知道哪些客户好说话
- 这些知识很难教给 AI
5. 扩散速度限制
- 企业采用新技术需要时间
- 监管流程(如临床试验)无法无限加速
六、重要原文摘录
关于通用人工智能时间线
“基于基本假设……我们有 90% 的把握实现我所谓的’数据中心里的天才国家’。”
关于编码自动化
“我认为在编码方面……我认为一两年内就能实现。要说 10 年后还不能实现,那是绝对不可能的。”
关于经济扩散
“治愈所有疾病需要多长时间?……你必须进行生物学发现。你必须制造新药。你必须通过监管流程。”
关于 Anthropic 战略
“我们买了很多……与市场上最大的玩家购买的量相当。但如果你问我为什么没有签署从 2027 年中期开始的一万亿美元的算力合约……因为那样会破产。”
关于公众认知
“对我来说,这简直太疯狂了……人们还在谈论那些同样陈旧的、敏感的政治议题……而此时我们已接近指数增长的终点。”
七、结论与启示
对 AI 行业的启示
- 计算量竞赛仍将持续:缩放定律继续有效,计算量是核心竞争要素
- 需求预测是关键风险:过度投资可能导致破产,时机把握至关重要
- 自我改进循环正在加速:AI 辅助开发的比例从 5% 增至 20%,形成正反馈
对企业的启示
- 提前布局 AI 采用:扩散速度虽有限制,但比历史任何技术都快
- 关注可验证任务:编码、数据分析等领域将最先被自动化
- 隐性知识仍是壁垒:需要长期积累的工作短期内难以完全自动化
对个人的启示
1. 技能转型窗口期
- 1-2 年内编码能力将大幅贬值
- 学编程还有用!但要学"怎么指挥 AI 写代码",而不是自己一行行写
2. 什么能力不会被 AI 取代?
- 做决定的能力
- 跟人沟通的能力
- 发现新问题的能力
- 创意、战略规划等非可验证任务短期安全
- 创意和审美
3. AI 协作能力是关键
- 能够有效利用 AI 的人将保持竞争优势
- 什么时候要开始学用 AI?现在! 越早学会用 AI,未来越有优势
八、一句话总结
AI 很快就会变得超级聪明(1-2 年),会写代码、会用电脑、会做很多现在只有人能做的事。但它真正改变世界还需要更长时间(5-10 年),因为公司适应、法律允许、大家学会用都需要时间。对个人来说,越早学会用 AI,未来越有优势。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)