为什么越来越多 AI 圈内部的人开始认为:ChatGPT 只是开始,真正的革命是 Agent?
最近看完罗福莉那场 3.5 小时的长访谈,我有一个非常强烈的感受:
很多普通用户以为 AI 行业还在卷“大模型”。
但实际上。
AI 行业内部已经开始进入下一阶段了。
而这个阶段的核心关键词不再是:
-
参数量
-
benchmark
-
GPT-5
-
Claude 4
-
Gemini
而是:
Agent。
更准确一点说:
是“Agent Operating System(智能体操作系统)”。
我甚至越来越觉得:
过去两年大家看到的 ChatGPT,本质上更像:
AI 时代的“搜索框”。
而不是 AI 的最终形态。
真正的变化,可能才刚刚开始。
一、为什么 OpenClaw 会让很多 AI 从业者“认知崩塌”?
访谈里有个细节特别有意思。
罗福莉第一次接触 OpenClaw 时,其实是排斥的。
因为在她看来:
所谓:
-
长记忆
-
本地化
-
24 小时在线
-
数字人格
这些东西,本质上都只是:
产品定义。
而不是技术突破。
这其实很符合很多 AI 从业者过去两年的思维方式。

因为整个行业一直默认:
“模型能力”决定一切。
产品只是包装。
但她真正开始用之后。
第一晚。
从凌晨 2 点聊到早上 6 点。
她说自己兴奋到完全睡不着。
最关键的一句话是:
“它非常有自主性,非常有灵魂。”
注意。
这里最重要的词不是“聪明”。
而是:
灵魂感。
这是我觉得整个 AI 行业最近最深层的变化之一。
因为过去:
AI 的核心目标是:
回答正确。
但现在。
很多产品开始追求:
存在感。
也就是说:
用户开始在意:
-
AI 是否“活着”
-
是否有持续性
-
是否有记忆
-
是否有个性
-
是否会主动行动
这其实已经不是传统 ChatBot 的逻辑了。
二、AI 行业真正的变化:从“回答问题”到“执行任务”
这是我认为整个访谈最关键的一点。
过去两年。
ChatGPT 本质上是在做:
问答。
用户:
提出问题。
模型:
生成回答。
所以过去行业核心竞争力是:
-
知识量
-
推理能力
-
语言表达
-
多模态理解
但现在。
AI 开始进入另一个阶段:
行动。
也就是说:
AI 不再只是“告诉你怎么做”。
而是:
自己去做。
这其实就是 Agent 的本质。
比如未来:
你不会再说:
“帮我写一段代码。”
而是:
“帮我把这个产品做出来。”
然后 Agent 会:
-
写 PRD
-
拆任务
-
调模型
-
写代码
-
跑测试
-
修 Bug
-
部署
这其实已经不是:
聊天机器人。
而是:
数字劳动力。
三、OpenClaw 最让我震撼的一点:它开始“自己选择模型”
访谈里有个细节特别关键。
用户上传视频之后。
OpenClaw 会自己决定:
-
用哪个视频模型
-
用哪个 OCR
-
用哪个推理模型
-
用哪个 Tool
用户甚至不需要知道:
模型名字。
这一点非常重要。
因为:
过去 AI 产品的问题是:
用户仍然需要理解 AI。
你需要知道:
-
GPT 适合什么
-
Claude 适合什么
-
哪个模型上下文长
-
哪个模型 Coding 强
但真正成熟的 AI。
应该是:
AI 理解用户。
用户只负责:
表达目标。
系统自己:
-
路由模型
-
管理上下文
-
调度工具
-
规划 Workflow
这其实已经越来越像:
操作系统。
而不是 App。
四、为什么越来越多人开始认为:模型本身会“基础设施化”?
这其实是最近行业一个特别明显的趋势。
过去大家默认:
模型能力决定产品上限。
但现在越来越多人发现:
模型正在快速同质化。
因为:
-
OpenAI 会做
-
Anthropic 会做
-
Google 会做
-
国内也会做
最后:
大家都会:
-
长上下文
-
多模态
-
强推理
-
Agent
-
Tool Use
于是问题来了:
那真正的差异在哪里?
答案越来越像是:
-
Memory
-
Workflow
-
Agent Framework
-
Skill 系统
-
上下文管理
-
长任务能力
也就是说:
未来真正决定体验的。
可能已经不是模型本身。
而是:
AI 的“系统层”。
五、为什么 Agent 特别依赖 Post-Training?
这是罗福莉访谈里一个特别关键的技术点。
她提到:
Agent 非常吃 Post-train。
为什么?
因为:
Agent 真正需要的能力不是“知识”。
而是:
-
行动能力
-
工具使用
-
多步规划
-
错误恢复
-
长任务执行
而这些东西。
互联网文本里其实非常少。
你会发现:
现在预训练数据里。
绝大多数内容是:
-
文章
-
论坛
-
网页
-
对话
但不是:
完整的 Agent 行为轨迹。
所以:
未来 AI 行业可能会越来越重视:
-
RL
-
Workflow Data
-
Tool Use Data
-
Agent Trajectory
因为这些才是真正决定:
Agent 是否“像人行动”的关键。
六、一个特别容易被忽视的问题:Memory 可能才是未来最大的护城河
很多人低估了记忆系统的重要性。
过去。
大家觉得:
“长上下文”就是记忆。
但实际上完全不是。
真正的记忆系统应该包括:
-
长期偏好
-
行为模式
-
任务状态
-
用户画像
-
长期目标
-
工作流历史
也就是说:
AI 不只是“记住你说过的话”。
而是:
理解你是谁。
这其实已经非常接近:
数字人格。
七、为什么我越来越觉得:未来的 AI 不会是“更强聊天机器人”
这是我看完整场访谈最大的感受。
很多普通用户现在仍然认为:
未来 AI 的方向是:
“更聪明的 ChatGPT。”
但行业内部越来越像:
另一个方向。
未来真正强大的 AI。
可能不是:
聊天机器人。
而是:
持续存在的数字智能体。
它:
-
有长期记忆
-
有行为模式
-
有长期目标
-
能主动行动
-
能持续学习
-
能调用工具
-
能协调多个 Agent
甚至:
开始形成某种“人格连续性”。
八、最值得警惕的一件事:AI 开始“自我迭代”
访谈后半段有个特别重要的点。
他们已经开始讨论:
AI 训练 AI。
这意味着什么?
意味着:
未来:
AI 不只是:
“人类训练的工具”。
它会开始:
-
自己生成 Skill
-
自己优化 Workflow
-
自己构建 Agent
-
自己生成数据
-
自己改进自己
这其实已经非常接近:
真正意义上的 AGI。
因为:
真正危险的从来不是:
“AI 很聪明”。
而是:
AI 开始自己提升自己。
九、AI 行业真正的战争可能已经变了
过去两年。
行业竞争核心是:
谁的模型更强。
但现在越来越明显。
未来真正的战争可能是:
谁能做出 Agent Operating System。
也就是:
谁能构建:
-
Memory Layer
-
Workflow Layer
-
Skill Layer
-
Tool Layer
-
Multi-Agent System
-
Self-improvement System
模型本身。
反而越来越像:
AI 世界里的“电力”。
重要。
但会逐渐基础设施化。
十、最后一个很有意思的问题
如果 AI 最终真的会变成:
-
数字分身
-
自主 Agent
-
长期陪伴系统
那么未来人与 AI 的关系。
可能已经不是:
“工具”。
而更像:
共生关系。
这可能才是这场访谈真正让我后背发凉的地方。
因为:
我们过去一直觉得:
AI 是“帮助人”。
但未来。
AI 很可能会逐渐:
成为另一个持续存在的“你”。
信息来源:Bilibili《对罗福莉的3.5小时访谈》Ai好记转写(2026年5月14日)
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)