🚀 大语言模型(LLM)全栈技术学习路线与博客汇总

大家好!近段时间我系统性地梳理了大语言模型(LLM)的全栈技术栈,从最基础的常用术语扫盲、Transformer底层网络结构(细化到公式),到上层应用的 RAG、Agent 智能体开发,再到后训练算法(SFT、PEFT、强化学习)与推理部署加速策略,累计输出了 37 篇 学习笔记与技术解析。

为了方便大家查阅和系统性学习,我将这些文章整理成了这份学习路线与导航指南。无论是刚刚入局的初学者,还是希望深入研究微调和Agent架构的开发者,都可以按图索骥,找到你需要的内容。

建议大家收藏本页,我会随着技术的迭代持续更新这篇导航!


🧱 模块一:夯实根基 —— LLM 基础理论与核心原理

万丈高楼平地起。这一模块带你从最基本的术语概念入手,深入理解 PyTorch、Transformer 底层原理以及大模型的推理机制。


🔍 模块二:知识外挂 —— 检索增强生成 (RAG) 进阶体系

解决大模型“幻觉”与知识时效性问题的杀手锏。本模块从 RAG 发展史讲起,全面覆盖检索算法、向量数据库及前沿的 GraphRAG 和评估框架。


🤖 模块三:智能体之魂 —— Agent 核心技术与前沿范式

让大模型拥有“手”和“脑”。本模块详细拆解了当下主流的单智能体与多智能体架构,教你如何让 LLM 具备规划、反思与工具调用能力。


⚒️ 模块四:炼丹实战 —— 后训练、微调与推理部署

走向底层硬核技术。这一模块专为想要自己“炼丹”和部署开源模型的同学准备,涵盖微调理论、强化学习对齐策略及工程化部署加速。


💬 写在最后:
大模型技术仍在飞速迭代,学习它是一个持续输入与打破认知的过程。初接触时我们或许容易陷入“达克效应”,觉得调通几个 API,开发了几个skill, 搭建了几个 agent 就窥见了全貌;
但随着逐步深入应用落地,发现不得不了解更多底层架构与算法,反而越学越会生出一种“如履薄冰”的敬畏感。

希望这套系列文章能帮大家建立起最基础的体系化的基本认知框架,扎实地向深水区迈进。如果在阅读中有任何问题或灵感,欢迎在评论区留言探讨!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐