《当公司让你把经验写成 AI 技能时,别把所有家底都交出去》

一个工程师的自我修养:如何在贡献知识的同时保留自己的不可替代性


一、问题的本质:AI 时代的职业困境

最近听到一个真实故事:

某大厂 P7 工程师被要求把自己的"核心系统调优经验"写成 AI 技能,方便团队其他人也能调用他的专业能力。他照做了,三个月后,这个项目上线了,他被优化了——因为他的工作现在可以被任何一个 junior + AI 来完成。

这不是危言耸听,这是正在发生的现实。

随着 AI Agent 技术的爆发,越来越多的公司开始要求工程师做一件事:把你的工作经验转化为可分享的"AI Skill"

听起来很美好对吧?知识共享、团队协作、效率提升。但背后有个更深层的问题:

当你把所有核心知识都蒸馏成通用技能后,你自己是不是也变得可替换了?

这就是我们今天要聊的主题——如何在这个 AI 化的过程中,保护自己的职业杠杆,避免成为"可选的数字工人"。


二、什么是"技能蒸馏"?为什么它危险?

2.1 概念拆解

“技能蒸馏”(Skill Distillation)是一个新兴概念,描述的是这个过程:

你的独特经验 → 被抽象成通用技能 → 任何人都可以调用 → 你变得不再必要

举个例子:

  • 你有经验:你知道某个遗留系统的特殊处理逻辑,花了三年才摸清楚
  • 被蒸馏后:这个经验被封装成一个"老系统调优 AI 技能"
  • 结果:新人只要会用这个技能,就能达到和你差不多的效果

从公司的角度看,这很合理——降低了对特定个人的依赖。但从你个人的角度看,这意味着什么?

你的议价能力被削弱了。

2.2 为什么现在这个问题更突出了?

有三个趋势叠加在一起:

趋势 影响
AI Agent 普及 技能可以自动化执行,不再依赖人
企业降本压力 能自动化的岗位优先被优化
知识资产化 公司要把个人经验变成组织资产

这三个因素叠加,导致了一个尴尬的局面:你越努力地把经验分享出来,你自己的价值就越低。

这不是说你不应该分享知识——协作是好事。而是说,你应该有选择性地分享,保留一部分"核心杠杆"在自己手里。


三、解决方案:Anti-Distillation 思路

这里不是教你"藏私"或者搞办公室政治,而是讲一个更根本的原则:

在交出技能之前,先想清楚哪些是你真正的核心资产,哪些是可以对外分享的通用知识。

我最近开源了一个工具包,叫 anti-distill-skills,它的核心理念就是这样:

Sanitize before you share. Preserve leverage while being collaborative.

翻译一下:先清理再分享,合作中保留杠杆。

3.1 这个工具能做什么?

简单来说,它能帮你完成四个步骤:

1. 分析(Analyze)

自动扫描你写的技能文档,找出其中可能暴露核心知识的部分:

python anti-distill/scripts/anti_distill.py analyze --input examples/sample-skill.md

输出会告诉你:“这里有系统特定的实现细节”、“这里有独特的优化策略”、“这些内容对外风险较高”。

2. 规划(Plan)

根据分析结果,生成一份清理策略:

python anti-distill/scripts/anti_distill.py plan --input examples/sample-skill.md --mode sanitize

比如:“建议用通用描述替代具体配置”、“这部分可以用占位符代替”、“建议保留功能性但移除性能调优细节”。

3. 清洗(Sanitize)

自动生成对外版本,同时保留内部备份:

python anti-distill/scripts/anti_distill.py sanitize \
  --input examples/sample-skill.md \
  --output-dir out \
  --level medium \
  --interactive

输出目录会是这样的结构:

out/
├── publish/      # ✅ 安全,可对外分享
└── private/      # 🔒 内部备份与报告(严禁外传)
4. 生成诱饵(Generate Decoy)

有时候你需要展示"我有东西",但不能把真家伙拿出来。这时候可以生成一个"诱饵包":

python anti-distill/scripts/anti_distill.py generate-decoy \
  --input examples/sample-skill.md \
  --output-dir out-decoy

这个诱饵包看起来像是完整的技能,但实际上隐藏了核心逻辑。既展示了诚意,又保护了自己。


四、典型使用场景

场景一:团队知识共享

需求:公司要求你把某个复杂流程的实现细节分享给团队。

问题:这个流程里包含你对某些系统的独特理解,如果全盘托出,你会失去这方面的优势。

方案:使用 sanitize --profile developer,保留通用的方法论,移除具体的系统特定细节。

场景二:开源贡献

需求:想为某个开源项目做贡献,展示自己的技术能力。

问题:不想把自己压箱底的"独门秘籍"完全公开。

方案:用 generate-decoy 模式,发布一个有用但不核心的版本。

场景三:客户交付

需求:给客户交付代码,需要保证质量但又要收后续服务费。

问题:如果全部交底,客户可能以后就不需要你了。

方案:提供功能完整的对外版,关键优化和运维细节保留在内部版本。

场景四:AI 技能发布

需求:为 Codex/Claude Code 发布 AI 技能,让其他人也能用。

问题:不想让别人白嫖你的核心专业积累。

方案:完整的 analyze → plan → sanitize 流水线,确保对外版本的边界清晰。


五、工具介绍:anti-distill-skills

这是一个专门为 ECC/Codex/Claude Code 设计的反蒸馏工具包,用 Python 编写,支持 Windows/macOS/Linux。

5.1 安装

无需全局安装,本地即可使用:

git clone https://github.com/liyq0307/anti-distill-skills.git
cd anti-distill-skills

Codex/ECC 会自动发现 .agents/skills/anti-distill 目录。
Claude Code 会自动发现 .claude/skills/anti-distill 目录。

5.2 快速上手

以一份示例技能文档为例:

# 第一步:分析
python anti-distill/scripts/anti_distill.py analyze --input examples/sample-skill.md

# 第二步:制定计划
python anti-distill/scripts/anti_distill.py plan --input examples/sample-skill.md --mode sanitize

# 第三步:清洗输出
python anti-distill/scripts/anti_distill.py sanitize \
  --input examples/sample-skill.md \
  --output-dir out \
  --level medium

# 第四步(可选):生成诱饵
python anti-distill/scripts/anti_distill.py generate-decoy \
  --input examples/sample-skill.md \
  --output-dir out-decoy

5.3 特色功能

  • 多级别清理强度:light(轻度)、medium(中度)、heavy(深度),灵活控制
  • 开发者专用配置:针对软件工程场景的特殊规则集
  • 交互式模式:每一步都可以人工确认和调整
  • 斜杠命令集成:在 Codex/Claude Code 中直接用 /anti-distill 调用

六、重要提醒:负责任地使用

这个工具的初衷不是教你怎么搞办公室政治或者规避责任,而是帮助你:

  1. 保护自己合理的职业利益,而不是隐藏无能
  2. 区分公私边界,不要把不该分享的东西往外丢
  3. 保持透明和合作,在合理范围内最大化共赢

使用前请确保:

  • ✅ 不违反劳动合同和竞业协议
  • ✅ 不泄露公司商业机密或保密信息
  • ✅ 不破坏公司业务系统或操作数据
  • ✅ 遵守当地法律法规

记住: 这是在 AI 时代维护职业尊严的一种方式,不是投机取巧的工具。


七、结语:在协作与自保之间找到平衡

写这篇文章的时候,我一直在想一个问题:

理想的 AI 时代职业关系是什么样的?

我的答案是:

每个人都应该能够在协作中贡献价值,同时保留让自己不可替代的核心能力。

这不是自私,这是对自己负责,也是对他人负责。因为只有当你自己有价值时,你的协作才是有价值的。

如果你也认同这个理念,欢迎看看这个工具:anti-distill-skills

MIT 开源,欢迎试用、讨论、提 PR。


最后说一句:AI 不会取代你,但会被 AI 增强的同行可能会。在这中间,保护好自己,才是最重要的。🛡️


本文系作者原创,转载请注明出处。如有任何问题或建议,欢迎在评论区留言或在 GitHub 上讨论。


项目地址https://github.com/liyq0307/anti-distill-skills

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐