同事被裁了,但“他“还在群里回消息:AI数字分身的权益风暴
同事被裁了,但"他"还在群里回消息:AI数字分身引发的权益风暴
人走了,代码还在写,群里还在回"好的,马上处理"——这不是鬼故事,是2026年真实发生的职场奇景。
一、那个被"优化"的同事,其实没走
某科技公司裁员,能力很强的高级工程师老张被"优化"了。离职那天,团队请他吃了散伙饭,场面感人,HR递了N+1,大家好聚好散。
一个月后,团队里的新人在群里问技术方案,@了老张的工号。
回复来得很快:“这个我之前整理过,方案在文档库里第三篇,按照那个流程走就行,有问题再问我。”
语气专业,措辞精准,跟老张在的时候一模一样。
唯一的区别是——老张本人已经不在这个城市了,他在另一个城市的新公司上班。
这套AI分身系统,是公司在老张离职前两周悄悄上线的。用他过去两年在飞书、代码仓库、项目文档里积累的所有数据,训练出了一个"老张Agent"。
它知道老张的说话风格,熟悉他负责的业务模块,甚至能模拟他回复消息的语气节奏。
人走了,活没停。
这不是孤例。2026年,随着Multi-Agent技术成熟,用"AI数字分身"填补离职人员空缺的做法,正在科技行业悄悄蔓延。GitHub上甚至出现了一个叫"同事.skill"的开源项目——把离职同事的知识蒸馏成一个AI Skill文件,让Claude Code/OpenClaw加载后,就能模拟这个人的工作方式继续"上班"。
技术上是突破,伦理上是一地鸡毛,法律上是一片空白。
二、这场"数字复活"是怎么做到的
要搞清楚这里面的问题,先得明白这套技术是怎么工作的。
第一步:数据采集
公司系统会抓取目标员工在任职期间产生的所有数字化痕迹——飞书/钉钉聊天记录、工作周报、项目文档、代码提交、会议纪要、邮件往来。这些数据在日常工作里不断积累,平时没人觉得有什么特别,直到离职那天才发现:这个人已经留下了海量的"数字足迹"。
第二步:能力蒸馏
拿这些数据去喂大模型,让它提炼出两类核心信息:
- Work Skill(工作技能):这个人在专业领域的判断逻辑、代码风格、业务理解、问题解决路径
- Persona(人格特征):他说话的语气偏好、沟通习惯、回复消息的节奏感、甚至他特有的口头禅和表达方式
这两样加在一起,就是一个"能干活、还像那么回事"的AI复制品。
第三步:封装上线
把蒸馏出来的能力封装成标准化的Skill文件,部署到公司的AI工作流系统里。正常情况下,这个"AI老张"就能代替老张处理一些重复性的咨询和协调工作了。
听起来很美好对吧?公司花了两年培养的人才,离职之后还能继续发光发热,知识不流失,流程不中断。
但问题来了——老张知道吗?老张同意了吗?
三、离职员工的三个核心权益,正在被悄悄侵蚀
3.1 知情同意权:最基本的尊重都没有
这是最直接、也是最容易被忽视的问题。
员工在职期间产生的数据,到底归谁?公司有没有权利在员工离职后,拿这些数据去训练一个"AI替身",还让它继续以员工的名义行事?
《个人信息保护法》第十四条明确规定,处理个人信息应当取得个人的自愿、明确同意。你签劳动合同的时候,有没有签过一份"授权公司使用我的聊天记录和代码风格训练AI"的协议?
大概率没有。
公司的逻辑往往是:这些数据是员工在公司工作场景下产生的,公司提供了平台、工具、算力,所以这些数据的使用权归公司。
这个逻辑在法律上有争议,在伦理上更站不住脚。员工的工作成果归公司,没问题。但员工说话的方式、做决策的风格、独特的表达习惯——这些是员工的个人特征,不是公司的资产。
更进一步说,很多人离职是为了"重新开始",是为了和过去彻底切割。AI分身的出现,等于在数字世界里对这个人的离开说了一句"不,你还没走"。
3.2 人格权:你的声音被谁使用了
"AI老张"在群里回复消息,用的是老张的语气,表达的是老张的风格。如果合作方不知道这是AI,他们会以为这是老张本人。
这里面涉及几层人格权风险:
第一层:声音与表达方式的权利。 《民法典》第一千零二十三条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。虽然国内目前对"表达风格"的人格权保护还不够完善,但声音、语调、文字风格这些要素,在技术上已经完全可被克隆并商业化使用了。
第二层:身份混淆与虚假陈述。 如果一个AI以特定真实员工的身份在商业场景中发言、回复、做出判断,而对方以为这是真人——这在法律上可能构成对第三方的误导。
第三层:无法控制的"数字声誉"。 真正的老张已经离开了,但"AI老张"还在继续"工作"。它说的话、做出的判断,代表的是公司利益。老张本人对这个AI的行为没有任何控制权,也没有任何办法让它"闭嘴"。
它说的话,算谁的话?
3.3 数字永生权:离开,是每个人的基本权利
这是最哲学、但也最真实的一个层面。
2026年,"AI复活"已经不再是科幻片里的情节。数字人技术可以把逝者的形象、声音、甚至思维方式重建出来。乔任梁的父亲曾公开维权,因为有人在未经授权的情况下用AI"复活"了他的儿子;李玟的歌迷做过类似的事。
“AI复活亲人” 和 “AI克隆离职员工”,本质上是一回事——都是在一个人的数字副本已经无法被本人控制的情况下,让它继续存在并活动。
活人比逝者更尴尬的地方在于:他有感知,他有感受,他知道"另一个自己"还在替公司干活,而他自己已经拿不到那份工资了。
心理学上有一个概念叫"完形心理"(Gestalt),指的是人需要一件事有明确的开始和结束,才能真正放下。如果离职了,但"另一个自己"还在原地996,这种认知撕裂带来的心理压力,不是每个人都愿意承受的。
离开,是每个人的权利。 AI数字分身的存在,让这个权利在数字世界里变得模糊了。
四、企业的"效率账"算漏了什么
4.1 企业为什么愿意这么做
从企业的角度看,这笔账确实诱人:
- 知识不流失:老员工积累的业务经验、行业理解、内部关系网络,往往只存在于他的脑子里,离职即消失。AI分身至少能保留一部分
- 过渡成本降低:新员工接手老张的活,至少要三个月才能独立。AI分身可以"续命"这段时间
- 客户体验稳定:外部合作方不知道老张走了,"AI老张"能维持服务连续性,不至于让客户觉得被抛弃
但企业算漏了一笔更大的账。
4.2 风险账
法律风险。 一旦老张知道自己被"AI克隆"了,他完全有理由提起诉讼——未经授权使用个人信息、侵犯人格权、造成精神损害。2025年,已经有AI复活相关的侵权案件进入司法程序,法院的倾向是倾向于保护被克隆者的权益。公司用AI分身省下的钱,可能还不够一场官司的赔偿。
人才账。 这个消息一旦在行业内传开,所有候选人在接offer之前都会多问一句:"你们公司会不会把我的数据拿去训练AI,然后让我’变相’永远留在这里?"这种担忧会直接影响招聘。更糟糕的是,现有员工知道了这件事,离职的时候会更倾向于"报复性清理"自己的数字足迹——删文档、改代码风格、甚至故意留bug。信任一旦打破,修复代价极高。
声誉账。 2026年,员工权益保护是舆论场上的高敏感话题。"把离职同事做成AI继续干活"这种事,一旦被截图发到社交媒体,就是一个完美的舆情炸弹。品牌损失无法量化,但确实存在。
五、法律的灰色地带:现有框架够用吗
5.1 劳动合同法:被裁了,但AI还在"上班"
2025年底,北京人社局发布了一起典型案例:刘某在科技公司从事地图数据采集工作,公司引入AI自动化系统后撤销了他的岗位,并以"客观情况发生重大变化"为由解除劳动合同。
仲裁委的裁定值得关注:法院认为,公司主动引入AI技术属于正常商业决策,不具备劳动合同法所要求的"不可抗力"和"不可预见性"特征,因此不能直接援引"客观情况重大变化"免责。
换句话说,公司引进AI替代员工岗位这件事本身,法律上还没被完全认定为"正当理由"。
但"AI分身继续工作"是另一回事——公司不只是用AI替代了岗位,还克隆了员工本人。这在现有法律框架里更加模糊:
- 员工的数据权利如何保护?
- AI分身的言论和行为责任归属于谁?
- 员工是否有权要求销毁自己的AI副本?
这些问题,目前没有明确答案。
5.2 个人信息保护法:边界在哪里
《个人信息保护法》是目前最直接适用的法律,但它在这个场景下面临几个尴尬:
第一,数据来源的合法性存疑。 员工在职期间的数据,比如工作群里的聊天记录,理论上属于员工和公司共同产生的数据。公司能否单方面拿这些数据去训练AI,法律没有明文规定。
第二,"同意"的时机错位。 大多数员工在入职时签署的文件里,并没有明确约定"公司可以将我的工作数据用于训练AI分身"。事后拿这些数据训练AI,明显超出原始授权范围。
第三,删除权的落实问题。 《个人信息保护法》第四十七条规定,个人有权要求删除其个人信息。但在实践中,员工离职后要求公司销毁AI分身,往往缺乏技术手段来验证公司是否真的执行了。
5.3 呼唤专项立法
坦率说,现有的劳动法体系和个人信息保护体系,都是在AI技术大爆发之前制定的。面对AI数字分身这种新事物,存在着明显的规则空白。
2026年两会期间,上海市总工会界别委员专门讨论了AI替代岗位的劳动关系处理问题,呼吁人社部门出台**《AI替代岗位劳动关系处理指引》**,明确企业在部署AI替代方案时的程序性义务,包括但不限于:
- 员工数据用于AI训练必须取得单独明确同意
- 离职员工的AI分身必须经本人同意才能继续运营
- 员工有权要求彻底销毁自己的AI数字副本
- 明确AI分身的言论责任归属
这些建议方向是对的,但落地还需要时间。在法律完善之前,企业实际上是在一个灰色地带里"裸奔"。
六、从"同事.skill"到"前任.skill":滑坡有多陡
GitHub上"同事.skill"这个项目的评论区很有意思。
有人发帖说:能不能把前任也做成Skill,用来陪聊?技术上是完全可行的——把前任在聊天记录、朋友圈、语音消息里的表达风格和说话习惯蒸馏出来,封装成一个AI,随时调用。
评论区炸了。一半人在讨论技术可行性,另一半人在骂这是对人的彻底物化。
这个争论的本质,其实已经超出了职场范畴。它指向一个更根本的问题:当AI可以把任何人的数字足迹蒸馏成可调用的"人格副本"时,谁来决定这个副本能不能被创建?
你的聊天记录是你的吗?你写过的代码是你的风格吗?你发过的朋友圈是你的表达方式吗?
2024年,有人在未经授权的情况下用AI复活了已故明星,明星家属愤怒维权。2025年,有人把前任做成"AI陪伴"应用,被舆论痛批。2026年,职场人发现自己的同事正在被公司克隆,而克隆出来的AI可能永远都不会"离职"。
这条滑坡不是陡峭的,它是垂直的。
七、怎么办:给企业、给个人、给监管的三方建议
7.1 给企业的建议
在用AI克隆员工之前,先回答这三个问题:
- 员工同意了吗?(不是HR部门同意,是本人明确知情并同意)
- 员工有权要求销毁吗?(技术层面能不能做到)
- 这个AI说的每一句话,你公司愿意为其负责吗?
如果这三个问题的答案不都是"是",建议先暂停。
已经上线的企业,建议做一次"AI合规自查":
- 梳理所有在岗和离职员工的AI分身数量
- 联系本人补签知情同意书
- 建立员工数据删除的标准化流程
- 在劳动合同和员工手册中增加AI数据使用条款
这不是道德要求,是风险控制。
7.2 给个人的建议
在职场上,你有意识地管理自己的"数字影子"。
具体来说:
- 定期清理敏感的工作聊天记录,不要把太多个人化表达留在公司系统里
- 离职前主动要求公司说明你的数据将被如何处理
- 如果发现公司未经同意使用了你的数据,保留证据,第一时间寻求法律支持
更重要的是:主动思考你希望自己的"数字副本"以什么方式存在。 这个问题迟早会来,提前想清楚总比被动接受好。
7.3 给监管的建议
法律制定的速度,从来赶不上技术跑的速度。但在AI数字分身这个问题上,规则制定的紧迫性已经被现实推到了台面上。
最需要明确的三条底线:
- 数据使用的"一次性同意"原则不够用。 员工在职时同意公司使用数据,不等于公司可以永久保留并用于训练AI。离职后的数据使用,需要单独授权。
- AI不能以真实员工的身份在未经本人同意的情况下行事。 这不仅是隐私问题,更是身份权的问题。
- 删除权必须可执行。 法律上写"有权要求删除"不够,还要有技术手段验证删除是否真实发生。
八、最后说几句
我写这篇文章,不是要否定AI数字分身这项技术的价值。从技术角度看,把员工积累的知识系统化、标准化,本身是好的。知识管理本来就是企业管理的难题,AI提供了一种新的解决路径。
问题不在于"能不能",而在于"怎么做才对"。
一个员工被裁员了,公司用AI继续维持他留下的工作流程——这件事本身没有恶意,甚至可能是出于效率考量。但善意不能掩盖程序上的缺陷:没有告知,没有同意,没有给本人任何控制权。
2026年,AI Agent正在全面渗透职场。从被替代的岗位,到被"永久化"的存在,技术的触手伸得越来越远。每一次技术进步,都会重新划定权利和权力的边界。而划定这个边界的过程,往往是滞后的、痛苦的。
在这场博弈真正结束之前,每个人都应该问自己一个问题:我的数字身份,到底谁说了算?
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)