引言

2025年下半年开始,“Harness Engineer”(中文常译为"驾驭工程师"或"框架工程师")这个职位开始频繁出现在 AI 行业的招聘信息和技术讨论中。从 OpenAI 官方博客到 LangChain 的技术分享,从 VC 投资文章到 Twitter 上的技术讨论,这个新兴角色正在重新定义 AI 工程师的工作内容。

那么,究竟什么是 Harness Engineer?他们的核心职责是什么?与传统的"AI Engineer"或"Agent Framework Developer"有何区别?为什么在当下这个时间点,这个角色突然变得如此重要?

第一章:背景——为什么需要 Harness

1.1 从"会说话"到"会干活"

想象一下,你有一个非常聪明但从未出过校门的学生。这个学生读过世界上所有的书,知道所有的理论,但从来没有真正做过任何事情。你让他去市场买菜,他不知道钱是什么;你让他去食堂打饭,他不知道食堂在哪里——他很聪明,但缺乏"社会化"的能力

这就是大模型面临的情况。GPT-4、Claude、Gemini 这些模型确实非常聪明,它们能回答问题、写文章、解数学题,但它们不知道怎么帮我们完成真实世界中的任务。它们不知道如何读写文件、不知道如何搜索网页、不知道如何发送邮件。

Harness(中文可以理解为"鞍具"或"驾驭系统")的作用,就是给这匹"千里马"配上马鞍和缰绳,让它能为人所用。

1.2 从模型能力到系统能力

过去几年,AI 领域经历了从"模型"到"Agent"的范式转变。早期的 AI 应用主要是单轮问答——用户提问,模型回答,一切到此为止。你问"今天天气怎么样",模型回答"今天晴转多云,25度",结束。

但随着 GPT-4、Claude、Gemini 等大模型的出现,研究者和工程师们开始思考一个问题:如何让 AI 模型能够像人一样,完成复杂的多步骤任务?

比如,你能不能对 AI 说"帮我写一个天气预报的程序,放到服务器上运行,每天早上8点自动发送天气提醒到我的邮箱"?

这个任务涉及:

  1. 写代码(编程能力)
  2. 部署到服务器(系统操作能力)
  3. 设置定时任务(调度能力)
  4. 发送邮件(外部服务集成能力)

这就不是简单的"问-答"能完成的了。你需要一个能自主规划步骤、调用工具、处理错误的系统——这就是 Agent(智能体)

但这里有一个关键问题:模型本身只是"大脑",要让它真正"干活",还需要一套完整的"身体"——这就是 Harness 要解决的问题。

正如 LangChain 在其博客中指出的那样[1]:

“Harness 的目标是将模型那不稳定但强大的’智能’塑造成我们真正关心的任务表现。”

模型可以做很多事,但它不知道什么时候该做什么、怎么做才能达到最佳效果。Harness 就是来解决这个问题的。

1.3 通俗解释:Harness 就像"操作系统"

Phil Schmid 提出了一个非常形象的类比[3]:

传统计算 AI Agent 系统
CPU 模型(Model)—— 提供原始计算能力
RAM 上下文窗口(Context Window)—— 有限的工作内存
操作系统(OS) Agent Harness —— 管理启动、提供驱动
应用程序 Agent —— 在操作系统上运行的具体应用

简单来说:模型像是 CPU,负责"计算";Harness 像是操作系统,负责"调度和管理"。没有操作系统,CPU 再强大也没用;没有 Harness,模型再聪明也没法帮你干活。

1.4 基准测试的局限

Phil Schmid 在其文章中[3]提出了一个重要观点:

“静态排行榜上的顶级模型差异正在缩小。真正差距在长期复杂任务中显现——模型在数百次工具调用中能否持续遵循指令。”

这就好像考试一样:

  • 高考题(类似传统基准测试):限时、完成一道题就可以交卷
  • 真实工作(类似 Agent 应用):连续工作8小时、中间不能出错、要处理各种意外情况

在"考试"中,GPT-4o、Claude 3.5、Gemini 2.0 这些模型分数都差不多。但在"工作"中,不同的 Harness 设计会导致巨大的差异。

传统的基准测试主要评估的是单轮模型输出(做一道题),而真实的 Agent 应用需要的是一个完整的多轮系统(做一天的工作)。这意味着,真正衡量 AI 能力的不再是模型本身,而是模型+Harness 的整体系统表现

这也是为什么"Harness Engineering"突然变得炙手可热的原因之一。

1.5 苦涩的教训与快速迭代

“苦涩教训”(Bitter Lesson)是 AI 领域的一个经典概念——通用方法最终总能战胜特定技巧。在 Agent 构建领域,这个教训同样适用。

Phil Schmid 在文章中[3]提到几个惊人的数字:

公司/项目 变化情况
Manus 6个月内重构了5次 Harness
LangChain 一年内重新架构了3次
Vercel 移除了80%的 Agent 工具,结果步数更少、Token 更少、响应更快

这些数字告诉我们:

  1. Harness 不是一成不变的:它需要跟随模型能力的进化而快速迭代
  2. 少即是多:Vercel 移除了80%的工具,反而效果更好——不是越多越好
  3. 需要持续迭代:你今天设计的工具链,可能在下个月就被新的模型架构淘汰

这对 Harness Engineer 提出了极高的要求——他们必须既懂工程、又懂模型,还要有快速学习和适应的新能力。


第二章:定义——什么是 Harness Engineer

2.1 一句话定义

Harness Engineer 是设计和构建 AI Agent 运行基础设施的工程师,负责将模型的原始能力转化为可靠的任务执行系统。

这个定义听起来有点抽象,让我们用更直白的话来解释:

  • “设计和构建 AI Agent 运行基础设施”:Harness Engineer 不是写业务逻辑的人,而是构建 Agent 能够"跑起来"的环境的人。好比汽车工程师不是司机,而是造车的人。
  • “将模型的原始能力转化为可靠的任务执行”:模型本身能力很强,但需要有人帮它"配上轮子",才能真正完成任务。好比电动机很强大,但你需要有人把它装到风扇里,它才能帮你吹风。

2.2 Harness 与相关概念的区别

Tony Kipkemboi(曾在 CrewAI 工作)在其 Twitter 文章中[6]提出了一个非常清晰的"光谱模型"来解释 Agent Framework 和 Agent Harness 的区别:

原始代码 (Raw Code) Agent Framework (如 LangChain, LlamaIndex, CrewAI) Agent Harness (如 OpenClaw, Claude Code, OpenAI Operator)
最灵活 中间地带 封装程度高
责任最大 需要做架构决策 最省心
从底层逻辑开始构建 提供组件化工具,需自行组装 一切内置,开箱即用

让我用生活中的例子来解释这个光谱:

最左侧:原始代码(Raw Code)

  • 想象你要做一桌菜,从种菜开始
  • 你需要自己挖地、播种、浇水、收获、宰杀、烹饪…
  • 最大的灵活性(想做什么菜都可以),但也最麻烦
  • 适合:极简场景、完全没有现成工具可用的情况

中间:Agent Framework

  • 想象你要做一桌菜,但有人给你提供了:
  • 厨房(内存管理)
  • 菜刀和锅(工具)
  • 菜谱(编排逻辑)
  • 你需要选择用什么菜谱、怎么搭配,但不用从零开始
  • 代表产品:LangChainLlamaIndexCrewAI
  • 适合:想构建 Agent 的人,需要理解各部分如何配合

最右侧:Agent Harness

  • 想象你要做一桌菜,直接叫外卖
  • 有人帮你做好了一切,你只需要下单
  • 内存管理、工具调用、错误处理——全部帮你搞定
  • 代表产品:OpenClaw(你正在使用的工具)、Claude CodeOpenAI Operator
  • 适合:想直接使用 Agent 的人,快速部署

Tony Kipkemboi 特别提到[6]:

“Agent Frameworks and Agent Harnesses sit at different points on a spectrum of opinionation.”

(Agent 框架和 Agent Harness 处于一个"固执程度"光谱的不同位置。)

Framework 给你"建议",Harness 给你"决定"。Framework 是"你可以自己选",Harness 是"我已经帮你选好了"。

2.3 核心职责

基于对七篇文章的总结,Harness Engineer 的核心职责可以归纳为五点:

1. 上下文工程(Context Engineering)

  • 为 Agent 准备正确的上下文(而非堆砌提示)
  • 设计 AGENTS.md 等元信息文件
  • 确保 Agent 能理解项目结构、可用工具、约束条件

2. 中间件设计(Middleware Design)

  • 构建验证、循环检测、时间预算等控制层
  • 例如:LangChain 提出的 PreCompletionChecklistMiddleware 在 Agent 退出前强制执行验证[1]
  • LoopDetectionMiddleware 防止 Agent 陷入"doom loops"(鬼打墙)

3. 工具与架构(Tools & Architecture)

  • 定义 Agent 可用的工具集
  • 设计工具的粒度、参数、返回值格式
  • 编排工具的调用顺序和错误处理

4. 反馈循环(Feedback Loops)

  • 建立测试、验证和自我改进机制
  • 设计评估标准,让 Agent 能够自我评估任务完成质量
  • 构建"人类在环"(Human-in-the-Loop)机制

5. Action Space 设计(这是关键!)

  • 这是 Thariq(Claude Code 团队)在其文章[5]中特别强调的
  • 核心理念:像"为模型设计工具",而非"为自己设计工具"
  • 把自己放到模型的位置去思考:它需要什么工具才能完成任务?

第三章:核心技术——如何做好 Harness

3.1 构建与自验证(Build & Self-Verify)

LangChain 在其技术博客[1]中详细描述了一个关键实践:让 Agent 学会自我验证

问题背景(通俗解释)

想象一下,你让一个新员工写一份报告。这个员工写完后,自信地说"我写完了,看起来没问题",然后就把电脑一关、回家睡觉了。

你会放心吗?不会。因为他没检查错别字、没核实数据来源、没确认格式规范。

这就是 Agent 最常见的失败模式[1]:

“Agent 写完方案后重新阅读自己的代码,确认’看起来没问题’就停止了。”

模型有一种迷之自信——它觉得自己写的东西都是对的。但实际上,它经常会犯低级错误。

LangChain 的解决方案[1]:

  1. 添加系统提示指导

    计划与发现 → 构建(含测试)→ 验证 → 修复
    
  2. 使用 PreCompletionChecklistMiddleware

  • 代码是否能编译?

  • 是否有测试覆盖?

  • 是否符合项目规范?

  • 是否有明显的逻辑错误?

  • 在 Agent 完成任务后、退出前,强制执行验证清单

  • 清单内容包括:

  1. 效果验证
  • 仅通过修改 Harness(而非模型),编码 Agent 在 Terminal Bench 2.0 上从 Top 30 提升到 Top 5[1]
  • 分数从 52.8 提升到 66.5(+13.7分)

核心思路

  • 不要假设 Agent 会自觉做好每一件事——它有时候会偷懒
  • 通过 Harness 层面的机制,强制 Agent 完成"最后一公里"的验证工作
  • 这不是"不信任"模型,而是补足模型的短板

3.2 为 Agent 提供环境上下文

LocalContextMiddleware 是另一个关键组件[1]:

功能(通俗解释):

想象你要让一个实习生帮你干活,但你什么都没告诉他,只说了一句"帮我把事情办好"。

他会怎么做?当然是问你啊!“在哪里办?”“怎么办?”“用什么工具?”

Agent 也是一样的。你不告诉它工作目录在哪、不告诉它有哪些工具可用,它就会"蒙圈"。

LocalContextMiddleware 的作用

  • 映射工作目录和工具——告诉 Agent “你的工作范围在这里”
  • 教授 Agent 编写可测试代码——提示它们的工作将通过程序化测试来衡量
  • 时间预算注入——提醒 Agent 完成任务并转向验证,别在某一步卡太久

重要原则:不要给"1000页的说明书",要给"一张地图"

OpenAI 在其文章[2]中分享了一个失败的尝试:

“我们尝试了’大型 AGENTS.md’方法,但失败了:”

  • 上下文是稀缺资源,过大的指令文件会挤掉任务和代码
  • 过多指导反而无效——Agent 会"选择性忽略"
  • 会迅速腐朽——文档更新跟不上代码变化
  • 难以核实——不知道 Agent 到底看没看

正确的做法[2]:

  • AGENTS.md 作为内容目录(~100行),指向 docs/ 中的深层信息
  • 类似于书的目录——告诉你"想要什么信息,去哪一章找"
  • 不要把详细内容塞进 AGENTS.md,而是提供"索引"

3.3 鼓励 Agent 后退并重新考虑

LoopDetectionMiddleware[1] 是另一个重要创新:

问题背景(通俗解释)

有时候,人在遇到困难时会"钻牛角尖"——明知道这条路走不通,还是忍不住继续走。

Agent 也有这个问题!比如:

  • Agent 尝试修复一个 Bug,修复了10次都失败了
  • 但它不放弃——它认为自己的方法是对的,只是"执行有误"
  • 于是它陷入"doom loop"(鬼打墙),无限循环

LoopDetectionMiddleware 的作用

  • 跟踪每个文件的编辑次数
  • N次编辑后提示:“你已经修改这个文件 N 次了,重新考虑方法
  • 防止 Agent 陷入死循环

核心洞察

  • 人类在遇到困难时会"后退一步"重新思考——“这条路可能不对,换一条试试”
  • 但 Agent 往往会"坚持"当前方案——“我算过是对的,继续”
  • Harness 需要模拟这种"后退"的能力——当发现走不通时,要主动换路

3.4 推理计算预算分配

LangChain 在 Terminal Bench 2.0 上的实验[1]发现了一个有趣的现象:

gpt-5.2-codex 有4种推理模式

  • low:快速思考,省 Token
  • medium:平衡模式
  • high:深思熟虑,多花时间
  • xhigh:全力思考,花费最多时间

实验结果

  • 全程使用 xhigh:得分 53.9%(因为思考太久,超时了
  • 全程使用 high:得分 63.6%
  • "推理三明治"策略(xhigh-high-xhigh):得分最高

"推理三明治"是什么?[1]

阶段 推理模式 原因
制定计划 xhigh(最强) 需要全面思考,避免方向错误
执行计划 high(中等) 按计划执行,不需要想太多
验证结果 xhigh(最强) 需要仔细检查,确保质量

通俗解释

  • 做饭时:先想好要做什么菜(xhigh)→ 按步骤炒菜(high)→ 尝一尝味道对不对(xhigh)
  • 如果全程都在"全力思考",菜都烧糊了还没想完
  • 如果全程都在"快速思考",可能忘记放盐

启示

  • 不是越强的推理模式越好
  • Harness 需要为不同阶段配置不同的推理强度
  • 合理分配"思考预算"是一种核心技能

3.5 架构与约束

OpenAI 在其官方文章[2]中分享了他们的实践:

核心原则

“强制执行不变量(invariants)而非微观管理实施过程”

通俗解释

不要告诉 Agent “第一步做什么、第二步做什么…”(这叫微观管理)

而是告诉它"你必须遵守这些规则"(这叫强制执行不变量)

具体做法

1. 分层架构[2]:每个业务域分为固定层:

Types(类型定义)→ Config(配置)→ Repo(数据层)→ Service(服务层)→ Runtime(运行时)→ UI(界面)

这就像建筑的结构:

  • 地基(Types)
  • 管道(Config)
  • 砖块(Repo)
  • 房间布局(Service)
  • 电梯(Runtime)
  • 装修(UI)

2. 自定义 Linter

  • 通过自定义 linter 机械强制执行规则
  • “黄金原则”:带主观意见的机械规则,保持代码库可读性

“代码规范不是建议,是强制执行的法律。”

3. AI 垃圾回收[2]

OpenAI 发现了一个关键问题:

  • Codex(OpenAI 的编程 Agent)会"学坏"
  • 它会复制代码库中已有的模式——包括不理想的模式
  • 就像一个孩子会模仿父母的不良习惯

解决方案

  • 定期运行后台任务扫描偏差、更新质量等级、发起重构 PR
  • 技术债务像高息贷款:小额持续偿还优于一次性痛苦解决[2]

3.6 工具设计的艺术

ThariqClaude Code 团队)在其文章[5]中提出了一个独特的视角:

“To put myself in the mind of the model, I like to imagine being given a difficult math problem. What tools would you want in order to solve it? It would depend on your own skills!”

翻译:“要把自己放到模型的位置去思考,我喜欢想象自己面对一道数学难题。你需要什么工具来解题?这取决于你自己的能力!”

通俗解释

你是一个数学家,现在要解一道微分方程。你需要什么工具?

  • 纸笔?——最基本的
  • 计算器?——能算得更快
  • 数学软件(如 Mathematica)?——能处理更复杂的计算
  • 互联网?——能查资料

取决于你自己的能力——如果你不会用 Mathematica,给你也没用。

Agent 也是一样的

  • 如果模型不擅长"精确计算",给它一个计算器工具
  • 如果模型不擅长"记住长上下文",给它一个外部记忆工具
  • 工具要适配模型的能力,而不是人类的能力

错误的做法

  • 给 Agent 一堆人类觉得好用的工具
  • 结果 Agent 不会用,或者用不好

正确的做法

  • 观察 Agent 的行为模式
  • 发现它的弱点
  • 为它定制合适的工具

第四章:行业实践——从文章看趋势

4.1 OpenAI 的 100万行代码实验

OpenAI 在其技术博客[2]中公布了一个令人震惊的数据:

“5个月构建了一个100万行代码的产品,没有一行人工编写的代码

  • 人类掌舵,智能体执行
  • 只用了手工编写代码约 1/10 的时间

这是什么概念?

假设一个软件工程师一年能写 2 万行代码,100万行代码需要 50 个工程师工作一年。

但 OpenAI 只用了 5 个月,而且没有一个是人类写的代码

人类工作的转变[2]:

以前 现在
工程师写代码 工程师设计环境
解决具体问题 明确意图
debug 一个 bug 构建反馈回路
手动测试 定义验收标准

OpenAI 描述的自主能力[2]:

给定一个任务,Agent 现在可以:

  1. 验证代码库当前状态
  2. 重现已报告的 Bug
  3. 实施修复措施
  4. 通过运行应用验证修复
  5. 打开 Pull Request
  6. 回应代码审查反馈
  7. 检测并修复构建故障
  8. 仅在需要人类判断时才交由人工处理
  9. 合并更改

“Agent 做了 90% 的工作,人类只做 10%——而且是最高价值的 10%。”

4.2 LangChain 的 Benchmark 提升

LangChain 展示了[1]通过优化 Harness 可以带来的实际效果:

成绩提升

  • 仅通过修改 Harness(而非更换模型),编码 Agent 在 Terminal Bench 2.0 上从 Top 30 提升到 Top 5
  • 分数从 52.8 提升到 66.5(+13.7分)

这意味着什么?

同样的学生(模型),换一个更好的学习方法(Harness),成绩从班级中游变成了前五。

关键洞察

  • 同样的模型,换一个更好的 Harness,表现可以提升一大截
  • 这证明了 Harness Engineering 的价值——它不是"锦上添花",而是"决定成败"

4.3 Phil Schmid 的框架对比

Phil Schmid 在其文章[3]中提出了一个精妙的类比:

“Agent Harness 是围绕 AI 模型管理长期运行任务的基础设施。”

类比说明

传统计算 AI Agent 系统 说明
CPU 模型 提供原始处理能力
RAM 上下文窗口 有限的 volatile 工作内存
操作系统 Agent Harness 管理启动、提供标准驱动
应用程序 Agent 在 OS 上运行的特定逻辑

结论[3]:

  1. Harness 必须是轻量级的
  • 每个新模型发布都有不同的最优 Agent 结构方式
  • 去年有效的 Harness,今年可能需要重构
  1. 构建可删除
  • 架构必须是模块化的
  • 准备好替换代码——不要和某个特定实现"绑定"
  1. Harness 是数据集

    “竞争优势不再是提示,而是 Harness 捕获的轨迹。”

  • 你用 Harness 收集的数据,才是真正的资产
  • 类似互联网公司重视"用户数据"——Harness 产生的数据同样重要

4.4 Latent Space 的争论

Latent Space 的一篇文章[4]引发了行业关于"Big Model vs Big Harness"的争论:

两派观点

Boris(OpenAI)[4]:

“所有秘密都在模型中。Harness 是’尽可能薄的 wrapper’。每3-4周重写一次。”

翻译:模型才是核心,Harness 不重要,我们几乎每个月都要重写。

Noam Brown(OpenAI)[4]:

“在推理模型出现之前,需要大量工程来创建 Agentic 系统。现在推理模型可以直接处理,不需要复杂脚手架。”

翻译:新一代模型很聪明,你不用帮它,它自己能搞定。

争议

  • METR(模型评估研究组织)的研究显示:Claude Code 和 Codex 并不比基本 scaffold 更好
  • 质疑 Harness 是否真的增加了价值

核心张力

这类似于金融领域的争论:

  • “人的价值”:真正的价值在于人的能力
  • “座位价值”:坐在那个位置本身就有价值

在 AI 领域:

  • “模型价值”:真正的价值在于模型的能力
  • “Harness 价值”:有了 Harness 才能发挥作用

答案可能是:Both(两者都有价值)

  • 模型能力强 → Harness 可以做得更薄
  • 但好的 Harness 仍然能显著提升模型表现

第五章:哲学视角——Harness Engineering 就是控制论

5.1 三次工业革命的重演

George(@odysseus0z)在其 Twitter 文章[7]中提出了一个令人深思的观点:

“Harness Engineering 本质上就是控制论(Cybernetics)的又一次重现。”

他描述了三个历史时刻:

第一次:瓦特离心调速器(1780年代)

之前 之后
工人站在蒸汽机旁边 配重飞球机制
手动调节阀门 自动感知转速、调节阀门
工作:转动阀门 工作:设计调速器

工人没有消失,只是工作改变了——从转动阀门变成设计调速器

第二次:Kubernetes

之前 之后
工程师手动 Controller 自动
重启服务 观察状态、检测偏差、自动调谐
工作:重启 工作:写规格说明

“你声明期望状态(3个副本、这个镜像、这些资源限制),Controller 持续观察实际状态。当它们出现偏差时,Controller 进行调谐:重启崩溃的 Pod、扩展副本、回滚不良部署。工程师的工作从重启服务变成编写系统调谐的规格说明。”[7]

第三次:现在

  • 工程师不再写代码[7]
  • 而是设计环境、构建反馈循环、编纂架构约束
  • 然后 Agent 写代码
  • 5个月100万行代码,零手动编写

5.2 共同的控制论原理

核心洞察[7]:

“Each time the pattern appears, it’s because someone built a sensor and actuator powerful enough to close the loop at that layer.”

翻译:每次模式的出现,都是因为有人构建了足够强大的传感器和执行器来在该层闭环。

什么是"闭环"?

想象一下:

  • 你的手碰到火 → 感觉疼(传感器)→ 缩手(执行器)→ 完成闭环
  • 恒温器设定25度 → 温度低于25度(传感器)→ 打开暖气(执行器)→ 温度到了关暖气 → 完成闭环

Norbert Wiener 在1948年给这个原理起了一个名字:控制论(Cybernetics)

  • 来自希腊语 κυβερνήτης(steersman,舵手)
  • 这也是 Kubernetes 名字的来源——“Kuber”=舵手,“netes”=航海

“你不再转动阀门。你来掌舵。”[7]

5.3 Harness Engineer 的本质

从控制论的视角来看,Harness Engineer 的核心工作就是:

  1. 构建传感器:让 Agent 能够感知环境状态
  2. 构建执行器:让 Agent 能够影响环境
  3. 构建反馈循环:让 Agent 能够根据反馈调整行为
  4. 定义目标函数:告诉 Agent 什么算是"成功"

这不是在"写代码",而是在**“设计控制系统”**。

学AI大模型的正确顺序,千万不要搞错了

🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!

有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!

就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

在这里插入图片描述

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇

学习路线:

✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经

以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐