【学习路线 + 能力目标 + 企业要求 + 项目优先级 + 面试重点】

一、完整的大模型从业路线

建议整体学习周期:

阶段 时间
Python基础 1~2个月
ML/DL基础 2个月
Transformer/LLM 2~3个月
工程化/项目/部署 2~3个月

总计:

6~10个月

达到:

初级LLM工程师水平

二、阶段1:Python + 工程基础(地基)

目标:

能看懂AI代码 + 能独立写工程代码

很多人以为Python简单,但:

真正卡人的其实是工程能力

(一)必学内容


1. Python核心(必须熟练,大部分不会的可以去菜鸟现学)

不仅会写。

而是:

能写“可维护代码”

重点:

基础语法

  • list/dict/set/tuple
  • 函数
  • 模块

高阶语法(企业常用)

必须会:

decorator
generator
contextmanager
lambda

尤其:

yield

很多AI框架会用。


2. 数据处理

重点:

NumPy

必须理解:

矩阵运算
broadcast
维度变化

因为:

Transformer本质就是:

矩阵计算

Pandas

必须会:

  • 数据清洗
  • 缺失值处理
  • merge/groupby

企业每天都在处理脏数据。


3. Linux(非常重要,但这个对于有基础的很快就学会了,也可以放在后面学)

很多培训班忽略。

但企业:

99% GPU服务器是Linux

必须会:

ssh
tmux
top
htop
grep
find
nohup

4. Git(必须,建议注册git账号,多去网站上逛逛)

至少熟练:

git clone
git commit
git branch
git merge

5. Docker(后面部署核心)

至少理解:

  • 镜像
  • 容器
  • Dockerfile

(二)经典项目


项目1:文本清洗工具(必须)

建议:

做成:

CLI工具

支持:

  • 分词
  • 去停用词
  • 统计TF-IDF

这是:

第一个“像样工程”

项目2:新闻数据分析平台

升级玩法:

不仅爬虫。

而是:

爬取 → 清洗 → 存储 → 分析 → 可视化

涉及:

  • requests
  • BeautifulSoup
  • pandas
  • matplotlib

项目3:手写线性回归(强烈建议)

不用sklearn。

必须自己实现:

  • loss
  • gradient
  • 参数更新

这是:

第一次真正理解AI

(三)这一阶段达到的能力

你应该:

✅ 能独立写Python项目
✅ 会Linux基础操作
✅ 会Git协作
✅ 理解矩阵和数据处理
✅ 能读AI代码


三、阶段2:机器学习 + 深度学习(真正进入AI)

目标:

理解模型为什么能学习

(一)机器学习(必须理解)


1. 核心概念

必须真正理解:

  • 训练集/验证集/测试集
  • 欠拟合/过拟合
  • bias/variance

2. 评价指标(面试高频)

必须懂:

  • Accuracy
  • Precision
  • Recall
  • F1

尤其:

F1 = 2\cdot\frac{Precision\cdot Recall}{Precision + Recall}


3. 经典模型(面试常问)

至少知道:

  • 逻辑回归
  • 决策树
  • 随机森林
  • XGBoost
  • KMeans

虽然LLM不直接用。

但:

面试必问

(二)深度学习(核心)


1. 神经网络

必须理解:

  • 前向传播
  • 反向传播
  • 梯度下降

核心:

loss是怎么下降的

2. PyTorch(必须精通)

重点:

Tensor操作

必须非常熟,这个必须了:

reshape
permute
unsqueeze
view

Autograd

理解:

loss.backward()

发生了什么。


Dataset/DataLoader

企业代码天天用。


3. CNN/RNN(理解即可)

重点:

Transformer为什么淘汰RNN

(三)经典项目(升级版)


项目1:MNIST(必须)

但建议升级:

不要只会调库。

要:

自己写训练循环

项目2:IMDB情感分类

重点:

  • embedding
  • LSTM
  • attention

项目3:CIFAR10分类

重点:

  • CNN
  • 数据增强
  • 调参

项目4(强烈推荐):手写MLP

不用nn.Linear。

自己实现:

forward + backward

极大提升理解。


(四)这一阶段达到的能力

你应该:

✅ 能独立训练DL模型
✅ 能调参
✅ 会Debug训练问题
✅ 能看懂PyTorch项目


四、阶段3:Transformer + LLM(核心阶段)

这是:

真正拉开差距的阶段

(一)Transformer(超级重点)

企业最看重:

你是否真正理解Attention

1. Attention机制

核心公式:

\mathrm{Attention}(Q,K,V)=\mathrm{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V

必须理解:

  • Q/K/V含义
  • 为什么能建模上下文
  • 为什么并行化

2. Self-Attention

必须理解:

每个token如何“看见”别的token

3. Multi-Head Attention

必须懂:

不同head学习不同语义

4. Position Encoding

重点:

Transformer为什么不知道顺序。


(二)LLM核心知识


1. GPT原理(面试高频)

必须懂:

  • next token prediction
  • causal mask
  • decoder-only

2. BERT

重点:

  • encoder-only
  • MLM任务

3. Llama(企业最重要)

必须了解:

  • RoPE
  • RMSNorm
  • SwiGLU
  • KV Cache

4. Tokenizer

必须懂:

  • BPE
  • SentencePiece

(三)HuggingFace(必须精通,必需,必需,必需)

企业标准工具链。

必须熟:

  • transformers
  • datasets
  • peft
  • accelerate

(四)经典项目(真正有含金量)


项目1:BERT文本分类

建议:

做成:

可部署API

不是Notebook。


项目2:NER命名实体识别

企业高频任务。


项目3:GPT文本生成

例如:

  • 营销文案
  • 小说续写

项目4(强烈推荐):手写Transformer

至少:

自己实现Attention

这是:

真正区分“调包侠”和算法人的项目

项目5:TinyGPT(极其加分)

从0训练小GPT。

哪怕:

只有几十M参数

也很加分。


(五)这一阶段达到的能力

你应该:

✅ 能读Transformer源码
✅ 能微调LLM
✅ 能训练NLP模型
✅ 理解LLM训练流程


五、阶段4:企业级LLM工程化(真正工作能力)

很多人:

只会Notebook

但企业真正要的是:

能上线

(一)RAG(企业最重要)

目前:

RAG = 企业落地第一方向

必学内容


1. Embedding

必须懂:

文本如何变向量

2. 向量数据库

至少会:

  • FAISS
  • Chroma
  • Milvus

3. 文档切分

企业重点。

chunk切不好:

效果直接崩

4. Rerank

高阶优化。


(二)微调(高频岗位要求)


LoRA(必须)

企业最常用。

必须会:

  • rank
  • adapter
  • merge

QLoRA(建议)

节省显存。


RLHF(了解即可)

初级岗位:

一般不会真正做

但:

必须知道流程。


(三)推理与部署(高频)


FastAPI(必须)

做:

模型服务

vLLM(重点)

企业推理标准之一。

必须知道:

  • continuous batching
  • KV Cache

模型量化

至少理解:

  • INT8
  • 4bit

(四)企业级经典项目(真正值钱)


项目1:企业RAG知识库(最重要)

必须包含:

✅ PDF解析
✅ embedding
✅ chunk
✅ rerank
✅ 多轮对话
✅ FastAPI部署

这是:

求职第一项目

项目2:LoRA微调领域模型

建议:

做:

  • 医疗
  • 法律
  • 金融
  • 客服

领域数据。


项目3:Agent(现在越来越重要)

实现:

  • Tool Calling
  • ReAct
  • 搜索
  • 代码执行

项目4:LLM应用平台

功能:

  • 对话
  • 总结
  • 翻译
  • QA

做成:

完整前后端

非常加分。


六、真正的企业招聘标准(非常重要)


1. 初级LLM开发岗

要求:

✅ 会RAG
✅ 会LoRA
✅ 会FastAPI
✅ 会部署
✅ 会HuggingFace


2. 算法岗

要求:

✅ 理解Transformer
✅ 能看论文
✅ 能改模型
✅ 能训练


3. 高级LLM Infra岗

要求:

✅ CUDA
✅ Triton
✅ 分布式训练
✅ 推理优化


七、真正高含金量项目排行(就业角度)


第一梯队(最值钱)

1. 企业级RAG系统

企业需求最大。


2. LoRA领域微调

最贴近岗位。


3. Agent系统

未来方向。


第二梯队

4. 手写Transformer

算法能力证明。


5. TinyGPT

证明理解深度。


第三梯队

6. BERT分类

入门项目。


7. MNIST

纯基础项目。


八、真正正确的学习策略(非常关键)

很多人失败原因:

看了太多视频
做了太少项目

真正有效路线:


正确公式

理论 → 手写 → 跑通 → Debug → 工程化

每学一个知识点:

必须:


第一步:理解原理

例如:

Attention为什么成立。


第二步:自己手写

至少:

Attention.forward()

第三步:跑真实项目

不是教程Demo。


第四步:部署

做到:

用户可访问

九、最终达到的工作能力(真正就业标准)

如果你:

✅ 做完:

  • Transformer手写
  • LoRA微调
  • 企业RAG
  • FastAPI部署

并且:

✅ 能独立Debug
✅ 能看源码
✅ 能读论文
✅ 能部署上线

那么你已经达到:

真正的大模型初中级工程师水平

不是“只会调API”的伪AI。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐