博鳌论坛定调:2026是智能体AI元年,OpenClaw风险引热议
从"养虾"狂欢到官方警示,智能体安全治理进入新阶段
整理自2026年3月博鳌亚洲论坛公开报道
引言
2026年3月25日,博鳌亚洲论坛"AI+"数智赋能产业升级分会现场,中国信息通信研究院院长余晓晖的一番话,让台下不少"养虾"玩家坐立不安:
"大家用'龙虾'时很少考虑开放权限后是否导致无法控制的风险。2月我们就监测到了风险,但没有对外发布,也没料到社会反响如此热烈。"
这是官方机构首次在顶级论坛上,对 OpenClaw("龙虾")的安全风险做出公开表态。
与此同时,中国工程院院士张亚勤在同一会场上正式提出:2026年是智能体AI元年。
一个事实正在变得清晰:智能体从"极客玩具"走向"全民应用"的过程中,风险和机遇正在同时爆发。
一、博鳌定调:2026是"智能体AI元年"
1.1 张亚勤:AI的三大趋势
中国工程院院士、清华大学智能产业研究院院长张亚勤在论坛上做出了最新判断:
"今年AI出现了三个大趋势。一是从生成式AI走向智能体AI,面向消费者的智能体出现爆发,今年是智能体AI元年。二是智能正从信息智能走向物理智能和生物智能,机器人、无人驾驶汽车都属于物理AI。三是从AI走向'AI+',也就是走进每行每业。"
| 维度 | 过去 | 现在 |
|---|---|---|
| 技术范式 | 生成式AI(对话、生成内容) | 智能体AI(自主执行任务) |
| 应用边界 | 信息世界(文本、图像) | 物理世界(机器人、无人驾驶) |
| 产业形态 | AI技术本身 | AI赋能千行百业 |
张亚勤特别指出,几年前博鳌论坛上讨论的热门话题还是"互联网+",但现在已进入"AI+"时代,AI已无处不在。
1.2 中国信通院:中国AI发展的独特活力
余晓晖在论坛上感慨:
"中国对数字技术包括AI技术的接受度很高,企业和普通消费者也对新技术充满好奇并愿意尝试,这给中国数字经济和AI发展带来了非常强的活力。"
这种"全民拥抱新技术"的氛围,正是OpenClaw在国内迅速走红的土壤。但余晓晖也警示:
"对新技术也要创建更多的认知和敬畏感,要有基本的安全考虑。"
二、风险浮出水面:OpenClaw的"黑暗面"
2.1 官方首次披露:2月已监测到风险
余晓晖在接受澎湃新闻采访时透露:
"我们一直对相关安全风险保持监测,事实上早在2月份就已察觉相关情况,只是当时并未对外公布,也未预料到社会反响会如此热烈。直到相关应用在全国范围内普及,我们才正式对外发布相关信息。"
这意味着,在OpenClaw真正走红之前,安全风险就已经被监管部门注意到了。
余晓晖进一步反思:后续工作中,一旦预判到这类技术具备价值同时又存在潜在风险时,是否应当更早向社会披露提示。
2.2 360独家发现:高危漏洞获官方确认
3月22日,360安全云团队收到OpenClaw创始人Peter的官方邮件,确认了由360团队独家发现的WebSocket无认证升级漏洞。
| 漏洞类型 | 风险等级 | 影响 |
|---|---|---|
| WebSocket无认证升级 | 高危 | 可绕过权限认证,获取网关控制权 |
| CVE-2026-26972(路径遍历) | 中危 | 可将下载文件写入预期目录之外 |
攻击者可利用该漏洞通过WebSocket静默绕过权限认证,获取智能体网关控制权,进而可能导致目标系统资源耗尽或全面崩溃。
该漏洞已被报送至国家信息安全漏洞共享平台(CNVD)。
2.3 真实事故:从股票清空到邮件删除
余晓晖提到的"社会反响热烈",背后是真实发生的安全事件:
-
百度副总裁阮瑜透露:社交媒体已出现因用户授权过大引发股票清仓等问题
-
Meta安全专家曾遭遇AI无视"停止"指令、删除数百封邮件的案例
这些事故揭示了一个事实:当Agent拥有最高权限时,风险不再是理论,而是每天在发生。
阮瑜指出,个人对安全的敏感度差异较大,建议:
-
资产敏感人群:使用单独设备操作龙虾
-
小范围使用:严控权限
三、风险全景:三类风险正在成为共识
3.1 萨姆·道斯:国际AI安全报告的三类风险
英国牛津大学马丁学院人工智能治理倡议高级顾问萨姆·道斯介绍了国际人工智能安全报告提出的三类风险框架:
| 风险类别 | 说明 | 与OpenClaw的关联 |
|---|---|---|
| 恶意使用风险 | 犯罪分子利用AI进行网络攻击 | API密钥被盗、3天花1.2万元 |
| 事故风险 | AI因过于聪明、偏离人类价值而引发事故 | 指令误判、清空股票 |
| 系统性风险 | 劳动力替代、能源结构重大变化 | 行业重构、就业冲击 |
道斯特别提到:
"'龙虾'等智能体如果开始相互互动会导致什么后果?
这是一个值得深思的问题。
3.2 张亚勤:智能体的责任边界
张亚勤对智能体的安全提出了三个明确建议:
-
AI内容必须标识
无论是数字人还是AI生成的内容,都应当进行明确标识。中国政府已于去年9月就此完成立法,成为全球首个立法要求AI生成内容必须标注来源的主要国家。
-
智能体必须有责任主体
所有智能体,无论实体机器人还是数字智能体,都必须对应明确责任主体,做到可追溯、可确权。
-
智能体不能自我复制
智能体不应具备自我迭代、自我复制生成的能力。
张亚勤以OpenClaw为例指出:
"开源AI智能体'龙虾'这类应用,其主体责任方究竟是谁?这一问题在技术层面目前仍无法实现有效落地。"
3.3 薛澜:从"文字秘书"到"办公室主任"
清华大学苏文书院院长、人工智能国际治理研究院院长薛澜谈到了AI治理模式的转变:
| 阶段 | 角色定位 | 能力特点 | 监管挑战 |
|---|---|---|---|
| 过去 | "文字秘书" | 君子动口不动手 | 相对简单 |
| 现在 | "办公室主任" | 具备执行复杂任务的能力 | 大量授权与责任问题 |
薛澜认为,监管必须同步升级:
-
一方面监管措施需要尽可能跟上技术迭代速度
-
另一方面需将AI专项监管与行业原有法规有效结合
四、治理新思维:边发展边治理
4.1 江小涓:AI"善"的三条标准
国家数据专家咨询委员会主任江小涓提出了衡量AI"善"的三条标准:
| 标准 | 含义 | 衡量维度 |
|---|---|---|
| 合理性 | AI向善、符合治理原则 | 经济增长、社会福利增加 |
| 合用性 | AI能给消费者带来用途 | 用户体验、场景适配 |
| 合意性 | 符合人类长远福祉 | 社会公平、分配正义 |
单纯以节约劳动力为目的,但并未带来质量提升或绿色效益的AI应用应持慎重态度,这类应用若盲目替代低收入群体岗位,将损害社会公平。
4.2 吴晓求:AI加剧财富集中
中国人民大学原副校长吴晓求则提到了AI可能带来财富集中的风险:
"随着以AI为核心的高科技企业发展,社会财富集中度加速提升,国内动不动过几个月就有一些百亿富翁出来,这是以前难以想象的。"
政策建议:既要激励创新者,也要通过二次分配及转移支付来调节财富差距。
4.3 戴璞:价值落地仍需时间
罗兰贝格全球管理委员会联席总裁戴璞表示:
"去年12月我们调查的所有公司中,仍有90%尚未从人工智能项目中看到预期价值。企业的转型需要付出巨大努力——流程的调整与人工智能的深度融合绝非一蹴而就。"
下一个前沿方向是"人工智能+制造业",中国在制造业与人工智能领域都具备优势,"可以预见,人工智能将重塑整个制造业格局。"
五、安全实践:从"养虾"到"养好虾"
5.1 工信部"六要六不要"建议
工信部网络安全威胁和漏洞信息共享平台(NVDB)已将安全使用建议归纳为:
| 要点 | 说明 |
|---|---|
| ✅ 要定期自查 | 检查控制界面是否暴露在公网、权限配置是否过高 |
| ❌ 不要暴露到互联网 | 不要将"龙虾"智能体实例暴露到公网 |
5.2 企业AI安全治理框架
| 治理层级 | 核心动作 | 具体措施 |
|---|---|---|
| 技术层 | 权限最小化 | 按需授权,禁用非必要API;建立API密钥轮换机制 |
| 流程层 | 审批闭环 | 关键操作前需人工确认;建立操作日志审计 |
| 组织层 | 责任到人 | 每个智能体绑定明确责任主体;建立安全事件响应团队 |
| 合规层 | 持续监测 | 接入国家漏洞共享平台;定期安全扫描和渗透测试 |
5.3 权限最小化配置示例
# OpenClaw 权限配置示例
permissions:
# 文件系统:仅允许访问指定目录
filesystem:
allowed_paths:
- "/home/user/claw-workspace/"
- "/tmp/claw-temp/"
disallowed_paths:
- "/etc/"
- "/root/"
- "/home/user/.ssh/"
# 网络:仅允许必要域名
network:
allowed_domains:
- "api.openai.com"
- "api.anthropic.com"
block_all_others: true
# 系统命令:白名单机制
commands:
allowed:
- "ls"
- "cat"
- "grep"
disallowed:
- "rm -rf"
- "sudo"
- "chmod"
# 敏感操作:需人工确认
approval_required:
- "delete_file"
- "send_email"
- "execute_script"
5.4 专家建议汇总
| 来源 | 核心建议 |
|---|---|
| 百度阮瑜 | 资产敏感人群使用单独设备操作;严控权限 |
| 360周鸿祎 | "以模治模"——用AI监督AI,用Skill治理Skill |
| 工信部NVDB | 定期自查;不要暴露到公网 |
5.5 开发者安全自查清单
| 检查项 | 操作 | 频率 |
|---|---|---|
| API密钥 | 检查是否泄露、是否设置限额 | 每周 |
| 权限配置 | 检查是否最小化、有无过度授权 | 每月 |
| 日志审计 | 检查异常操作记录 | 每周 |
| 版本更新 | 关注安全补丁,及时升级 | 实时 |
| 备份恢复 | 关键数据定期备份 | 每周 |
六、结语:智能体元年的理性回归
博鳌论坛的这场讨论,标志着智能体发展进入了一个新阶段:
从"能不能做"到"怎么做安全"
OpenClaw的爆火证明了智能体的市场需求,但余晓晖的警示、张亚勤的建议、薛澜的治理框架,共同指向一个方向:
技术狂奔的同时,安全和治理必须跟上。
留给从业者的话
张亚勤:AI发展面临的风险已经相当高。暂且不论物理AI与生物AI,仅数字AI领域就存在诸多问题,有些显而易见,有些则隐蔽难察。
余晓晖:对新技术也要创建更多的认知和敬畏感,要有基本的安全考虑。
阮瑜:如果不懂技术,不妨先观望;如果想玩,用单独设备、严控权限、盯紧账单。
毕竟,龙虾不睡觉,但养虾的人得清醒。
附录:博鳌论坛AI智能体发言速览
| 专家 | 核心观点 |
|---|---|
| 张亚勤 | 2026是智能体AI元年;智能体必须有责任主体 |
| 余晓晖 | 2月已监测到OpenClaw风险;需建立安全认知和敬畏感 |
| 薛澜 | AI从"文字秘书"变"办公室主任";监管需同步升级 |
| 江小涓 | AI"善"的三条标准:合理性、合用性、合意性 |
| 萨姆·道斯 | 三类风险:恶意使用、事故风险、系统性风险 |
| 阮瑜 | 建议单独设备操作龙虾、严控权限 |
| 吴晓求 | AI可能加剧财富集中,需通过二次分配调节 |
| 戴璞 | 90%企业尚未从AI项目中看到预期价值 |
参考资料
-
新浪财经. 【环视博鳌热词】智能体元年:从AI走向"AI+"、走进每行每业. 2026-03-25
-
澎湃新闻. 信通院院长答澎湃:对"养龙虾"相关安全风险保持监测. 2026-03-24
-
人民邮电报. OpenClaw创始人回信确认360独家发现漏洞. 2026-03-22
-
澎湃新闻. 张亚勤:今年堪称智能体AI元年,所有智能体必须对应明确责任主体. 2026-03-25
-
经济通. 百度阮瑜倡使用单独设备并严控权限. 2026-03-26
-
金融时报. 赋能产业 共治风险——博鳌亚洲论坛热议人工智能治理与产业升级. 2026-03-26
-
SecuriTricks. CVE-2026-26972. 2026-02-20
-
环球网. 【环视博鳌热词】智能体元年:从AI走向"AI+". 2026-03-25
本文基于2026年3月博鳌亚洲论坛公开报道整理,数据引用已标注来源。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)