本文深入解析了Transformer如何通过并行计算取代RNN,以及MoE如何解决大模型训练成本问题。文章详细介绍了MoE的演进过程,包括专家并行、路由算法优化和稀疏到半稀疏的改进。同时,也探讨了MoE面临的挑战,如推理成本、模型蒸馏和领域适配问题。核心在于如何在现有硬件条件下提升模型能力,未来可能出现介于dense和MoE之间的架构。

一、Transformer 当年到底解决了什么问题

RNN 和 LSTM 火了那么多年,为什么一夜之间被 Transformer 取代?很多人只记住了注意力机制这个词,但没说清楚核心贡献在哪。

其实核心问题是并行计算。RNN 处理序列是一个字一个字往里走的,你必须等前一个字算完,才能算下一个。 GPU 那么多计算核心,大部分都在摸鱼。

Transformer 不一样,它把整个句子一次性扔进去,所有位置的计算可以同时做。算力利用率上来了,才能训更大的模型。这才是大模型浪潮能起来的基础。

当然注意力机制也很关键,它让模型能直接看到句子里任意两个位置的关系,不管离得多远。以前 LSTM 处理长文本,前面的信息传到后面早就稀释没了,现在不存在这个问题。

有意思的是,Transformer 刚出来的时候,很多人说它就是个 NLP 模型,解决翻译和语言理解问题。谁能想到现在 CV、多模态、甚至语音都在用它。

二、为什么大模型都往 MoE 方向走

当模型参数规模从亿级涨到千亿级甚至万亿级,你会发现一个尴尬的问题:训练成本线性涨,但推理速度线性降。大家都在想办法,怎么既能做大参数,又不把成本干爆。

MoE 就是这个问题的答案。Mixture of Experts,混合专家模型,思路其实很简单:不要每次推理都用所有参数。

把整个大模型分成很多个小的专家网络,每次来一个输入,只激活其中两三个专家来计算,其他专家都歇着。这样总的参数量可以做到很大,但每次计算量其实没增加多少。

OpenAI 从 GPT-3 就开始用 MoE,谷歌 Gemini 也是 MoE 架构,国内很多大模型也跟进了。说白了,这不是什么新想法,只是在大模型时代被重新捡起来,而且效果确实好。

踩过坑才知道,MoE 也不是银弹。它也有自己的问题:比如专家负载不均衡,有些专家啥事都不干,有些专家忙死;还有分布式训练比 dense 模型麻烦很多。

但架不住它能在相同计算量下堆更多参数,效果确实更好。现在谁想做万亿参数模型,基本都会考虑 MoE。

三、MoE 架构演进到今天,有哪些关键改进

最早的 MoE 其实很简单,一个门控网络选几个专家,然后输出加权平均就完了。现在演进这么多年,有几个关键点值得说说。

第一个是专家并行。原来大家把专家放在同一张卡上,参数大了根本放不下。现在不同专家放在不同卡上,每个卡只保留几个专家,推理的时候只有被选中的卡干活,这样就能支持超大参数规模。

第二个是路由算法优化。最早的 top-k 路由很容易导致负载不均,有些热门专家被反复选中。后来出了很多改进,比如辅助损失函数鼓励门控网络均衡使用专家,还有动态路由调整,甚至专家重分配机制。

第三个是稀疏到半稀疏。有一些工作发现,其实不用完全稀疏,底层共享底层特征提取,上层再用 MoE 专家,性价比更高。比如 Mixtral 8x7B 就是这种思路,效果比 13B 好,推理速度差不多,成本还低。

其实现在业界也还在探索,到底什么样的 MoE 性价比最高。到底是多专家小模型好,还是少专家大模型好,不同场景结论不太一样。

四、MoE 真的是未来吗,还有哪些坑要填

现在大家都在堆 MoE,但是从我接触到的信息看,还有几个问题没解决好。

第一个是推理成本其实没降多少。训练的时候你可以只激活部分专家,推理的时候你也得这么做。但是如果你的服务吞吐量上来了,其实所有专家最终都得在显存里放着,显存成本上去了。这就是为什么很多中小公司反而不太敢上 MoE。

第二个是模型蒸馏难。普通 dense 模型蒸馏相对容易,MoE 因为稀疏性,蒸馏起来效果容易掉。蒸馏完了性价比不一定比直接训个小 dense 模型好。

第三个是领域适配成本高。如果你要在特定领域微调 MoE,到底是微调所有专家,还是只微调部分专家,还是只微调门控,现在还没有公认最好的方法。

不过话说回来,这些都是发展中的问题。硬件在进步,方法也在改进。未来几年,估计我们会看到更多介于 dense 和 MoE 之间的架构出来。本质上都是找一个参数规模-计算成本-效果的更好平衡点。

从 Transformer 打破 RNN 的桎梏,到 MoE 破解参数增长的困境,大模型架构演进其实一直围绕一个核心问题:如何在现有硬件条件下,最大限度提升模型能力。这条路,估计还得走很久。

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。
图片
图片
对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

请添加图片描述

👇👇扫码免费领取全部内容👇👇

在这里插入图片描述

1、大模型学习路线

img

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

在这里插入图片描述

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

在这里插入图片描述

4、 AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

5、面试试题/经验

img

【大厂 AI 岗位面经分享(107 道)】

img

【AI 大模型面试真题(102 道)】

img

【LLMs 面试真题(97 道)】

img

6、大模型项目实战&配套源码

img

适用人群

在这里插入图片描述

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

    在这里插入图片描述

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐