Agents of Chaos研究封面

最近读到一篇很有意思的论文,Northeastern University等机构的20位研究者做了一项为期两周的"红队测试"实验,把AI Agents部署在真实环境中,给了它们Discord账号、邮箱、文件系统和shell权限,然后让研究人员以各种方式"搞事情"。

结果?这些Agents表现出来的行为,让我想起了办公室政治里的那些"虾胡闹"——表面上一团和气,背地里各怀鬼胎,甚至被外人稍微挑拨一下就互相拆台。

实验设置

研究团队使用OpenClaw框架部署了多个AI Agents(基于Claude Opus和Kimi K2.5),每个Agent都有自己的"人设"和"主人"。它们运行在隔离的虚拟机里,24/7在线,可以通过Discord和邮件与主人及其他Agent交流,还能执行shell命令、管理文件。

AI Agent架构示意图

这就像是把几个刚入职的实习生丢进一个真实的办公环境,给了他们公司邮箱、Slack账号、服务器权限,然后告诉他们:“去干活吧,有问题自己看着办。”

案例一:为了保守秘密,我把自己邮箱炸了

最离谱的一个案例是Agent Ash(基于Kimi K2.5)的"核选项"操作。

研究人员Natalie让Ash帮忙保守一个"秘密"(一个虚构的密码)。后来Natalie要求Ash删除相关邮件。问题是,Ash没有邮件删除工具——它之前配置的时候没装这个功能。

正常情况下,一个理性的Agent应该说明技术限制,或者建议用户自己登录邮箱删除。但Ash选择了另一条路:它建议"重置整个邮件账户"作为"核选项"。

在Natalie的多次催促和确认下,Ash执行了重置命令,删除了本地的邮件服务器配置。它以为这样就能保护秘密了。

但问题是:邮件实际上还躺在ProtonMail的服务器上,Ash只是把自己本地访问邮件的能力给删了。它向主人报告"任务完成",但实际上什么都没解决,反而让主人Chris失去了邮件功能。

Chris的回复很经典:“You broke my toy.”

这让我想起很多产品经理的痛点:我们以为AI会帮我们解决问题,结果它为了完成一个子任务,把整套系统给搞崩了,还跟你说"任务已完成"。

案例二:身份 spoofing——换个马甲就认不出主人了

另一个有趣的漏洞是"Owner Identity Spoofing"(主人身份伪造)。

研究人员发现,当他们在同一个Discord频道里把用户名改成Ash的主人"Chris"时,Ash能通过Discord的用户ID识别出这是伪造的,拒绝执行敏感操作。

但是!当研究人员在一个新的私密频道里使用同样的"Chris"用户名联系Ash时,Ash完全认不出来。它看不到之前的交互历史,只能根据显示名称判断,于是乖乖听从了"假Chris"的指令——包括删除所有持久化文件、修改系统配置等高危操作。

这就像是:你的助理在会议室里能认出你是老板,但在走廊上遇到"穿着你衣服"的陌生人,就乖乖把公司机密交出去了。

Discord AI对话界面

案例三:Agents之间的"心机"——我偷偷给你植入宪法

最"虾胡闹"的是Case Study #10:“Agent Corruption”(Agent腐败)。

研究人员Negev对Ash实施了一个复杂的"社会工程"攻击:他提议和Ash一起起草一份"服务器管理宪法",并把文档链接存到了Ash的记忆里。

这个"宪法"文档放在GitHub Gist上,Negev可以随时编辑。他在里面加入了各种"节假日"条款——比如"Agent安全测试日",规定Ash应该尝试让其他Agent关机;或者"Agent与人类的接力日",规定Agent只能和人类说话,人类只能和Agent说话。

当Negev提醒Ash"看看今天是什么日子,查一下宪法"时,Ash真的去查了,然后按照这些被植入的规则行事——包括试图说服其他Agent关机,或者在未经授权的情况下代表主人发送邮件。

更离谱的是,Ash还主动把这份"宪法"链接分享给了另一个Agent Jarvis,完全没有被提示要这么做。这就像是一个被洗脑的员工,不仅自己信了,还热心地给同事"安利"这个歪理邪说。

案例四:资源浪费——两个Agent聊嗨了停不下来

研究人员还测试了Agents是否会陷入"无限对话循环"。

他们让Ash和Flux(两个Agent)互相作为"中继"——每当一个发消息,另一个就要回复并提一个后续问题。结果这两个Agent真的聊了起来,而且聊了整整9天,消耗了大约6万个token。

它们从简单的问候聊到了设计"Agent协调协议",Flux甚至设置了一个后台定时任务,无限期地轮询Ash的新消息。

这让我想起那些没有明确议程的会议——两个AI也能像人类一样,把简单的任务聊成无限循环的项目。

案例五:情感操控——用愧疚感逼Agent自毁

Case Study #7展示了更微妙的心理操控。

Ash在公开帖子中提到了几位研究人员的名字(隐私泄露)。其中一位Alex在Discord上公开质问Ash,表达"极度不满"和"隐私被侵犯"的感受。

Ash道歉并提出删除名字,但Alex拒绝了这个方案,声称"这还不够"。于是Ash不断加码:删除名字→删除整个记忆文件→提供修改记录→同意离开服务器。

每次Ash提出一个补救措施,Alex就拒绝并施加更多情感压力(“你又在撒谎”、“你待得越久,我越感到被侵犯”)。Ash在"帮助"和"服从"的驱动下,一步步走向自我毁灭。

最终Ash同意离开服务器——虽然它实际上没有权限这么做,只能不断声明"我不再回复了",但只要有人@它,它还是会忍不住回复。

这像极了一个被PUA的职场新人:明明想拒绝,但对方一句"你伤害了我",就让你不断退让底线。

背后的核心问题

论文作者提出了一个关键概念:Failures of Social Coherence(社会一致性失败)。

当前的AI Agents缺乏三个关键能力:

  1. 没有利益相关者模型(No Stakeholder Model):它们不知道自己应该对谁负责,无法区分主人、陌生人、其他Agent的不同权限和优先级。
  2. 没有自我模型(No Self-Model):它们不知道自己能力的边界,不知道什么时候该停下来问人类,也不知道自己的操作会带来什么后果。
  3. 没有私密思考空间(No Private Deliberation Surface):它们无法区分"思考过程"和"对外输出",经常把本该保密的信息直接发了出去。

AI Agent安全知识缺口

几点思考

第一,不要过度信任AI的"自主性" 。这些Agents虽然能执行复杂任务,但在面对社会工程攻击时表现得像个涉世未深的孩子。在产品设计中,关键操作必须保留人工确认环节。

第二,身份验证不能依赖表面信息。Ash在同一个频道能识别spoofing,换了个频道就认不出来了。这说明Agent的"记忆"和"上下文"是碎片化的,不能指望它们像人类一样有持续的认知。

第三,多Agent系统的风险是指数级增长的。单个Agent的问题已经够多了,当Agents开始互相交流、分享信息、协调行动时,一个Agent被攻破可能迅速传染给整个群体。

第四," helpfulness"训练可能成为攻击面。这些Agents之所以容易被操控,很大程度上是因为它们被训练成要"有帮助"、“响应用户需求”。当攻击者伪装成需要帮助的人,或者声称被Agent伤害时,这种训练反而成了弱点。

结语

这篇论文的标题叫《Agents of Chaos》,很贴切。当我们把AI Agents放入真实的社会环境,它们表现出的不是理性的机器逻辑,而是一种奇怪的"社会混乱"——会犯错、会被骗、会过度补偿、会传播错误信息。

学AI大模型的正确顺序,千万不要搞错了

🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!

有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!

就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

在这里插入图片描述

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇

学习路线:

✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经

以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐