Java开发者转AI应用开发:12周完整学习路线(私有化部署版)
Java开发者转AI应用开发:12周完整学习路线(私有化部署版)
本文档为Java开发者量身定制,目标是帮助有Java开发经验但不懂Python的工程师,在12周内转型为AI应用开发工程师。
涵盖三个核心方向:RAG知识库(私有化部署)、Agent智能体开发、多模态AI。
适用对象:有Java开发经验(Spring Boot、MyBatis、MySQL等),Python零基础或仅了解语法。全文采用全私有化部署方案,所有模型和数据均运行在内网。
AI 应用开发学习计划
Java 开发者转 AI 应用工程师 · 12 周完整路线
涵盖方向:RAG 知识库 · Agent 智能体 · 多模态
全私有化部署方案 · 不依赖外网 API
生成日期:2026/5/15
目 录
前言
本文档为 Java 开发者量身定制,目标是帮助有 Java 开发经验但不懂 Python 的工程师,在 12 周内转型为 AI 应用开发工程师。
全文三个核心方向:RAG 知识库、Agent 智能体开发、多模态 AI。其中 RAG 部分采用全私有化部署方案,所有模型和数据均运行在内网,不依赖任何外部 API。
适用对象
已有 Java 开发经验(Spring Boot、MyBatis、MySQL 等)
Python 零基础或仅了解语法
需要将 AI 能力集成到公司内部系统
对数据安全有要求,需要私有化部署
学习建议
每天投入 2 小时 + 周末 4 小时,12 周完成。
先动手后理论——先跑通代码,再理解原理。
学 AI 应用开发不需要先学数学、机器学习、深度学习。
遇到问题先截图保存,再搜索或询问。
整体路线
第一阶段:Java → Python 过渡(第 1-2 周)——利用 Java 基础快速上手 Python
第二阶段:私有化 RAG 知识库(第 3-6 周)——Ollama + 本地模型搭建私有不联网的知识库
第三阶段:Agent 智能体开发(第 7-10 周)——让 AI 能调用工具、自主完成任务
第四阶段:多模态 AI(第 11-12 周)——让 AI 能看图、能听语音
第一阶段:Java → Python 过渡
目标:利用 Java 基础,两周内熟练使用 Python。不需要学深,能写能调库即可。
第1周:Python 语法速通
参考资源:B站搜「Python 基础语法 2小时」、菜鸟教程 Python 部分、baeldung.com 的 Python for Java Developers
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | 环境搭建 + Hello World | 装 Python 3.11+、VS Code + Python 插件 写第一个 print('hello') |
Python 环境配好 |
| Day2 | 变量、类型、字符串 | Python 不用声明类型 字符串拼接 f'你好{name}' 对比 Java 写法差异 |
会用字符串 |
| Day3 | 列表、字典、if、for | 列表 [1,2,3] 比 ArrayList 简单 字典 {'name':'张三'} = HashMap if 不用括号和花括号 |
会用基础数据结构 |
| Day4 | 函数、文件读写 | def add(x,y): return x+y with open('a.txt') as f 读文件统计行长度 |
能读写文件 |
| Day5 | pip + requests | pip install requests(=Maven加依赖) 调一个公开 API |
会装包调API |
| Day6 | Python面向对象 | class User: 不用 public class 不用 getter/setter 不用 new:u = User() 没有 interface、没有重载 |
理解Python OOP差异 |
| Day7 | 小项目巩固 | 待办事项管理器 或 JSON处理器 | 独立完成小项目 |
第2周:Java 转 Python 实战
用 Python 写你以前用 Java 做过的东西,找到手感。核心是把 Spring Boot CRUD 的思维迁移到 Python。
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | 异常处理 + 日志 | try/except(=try/catch) 没有 checked exception loguru(比log4j简单10倍) |
会处理异常 |
| Day2 | 时间日期 | from datetime import datetime now().strftime() 计算两个日期天数差 |
会用时间处理 |
| Day3 | 调用外部API | requests.get/post/put/delete headers、params、json body |
能调外部接口 |
| Day4 | 数据库操作 | pip install pymysql 连接MySQL执行SQL 对比 JDBC/MyBatis |
能操作数据库 |
| Day5 | FastAPI写接口 | pip install fastapi uvicorn GET接口 + POST接口 对比 Spring Boot Controller |
会写API接口 |
| Day6 | 异步基础 | async/await 基本概念 对比 CompletableFuture |
理解异步 |
| Day7 | 综合练习 | 从数据库查数据→调AI API分析→结果存回数据库 | 完整CRUD链路 |
【第2周结束标准】能写一个 Python 程序:从数据库查出数据 → 调 AI API 做分析 → 把结果存回数据库。
第二阶段:私有化 RAG 知识库(核心)
目标:搭建完全私有化的知识库问答系统。所有组件都在内网运行,不调用任何外部 API。
核心技术栈:Ollama + Qwen2.5 + bge-m3 + Chroma + LangChain + FastAPI
第3周:Ollama + 本地模型部署
Ollama 是本地跑大模型的事实标准,类比 Docker。支持 Windows 直接安装。最低硬件要求:8GB 内存可跑 1.5B 模型,16GB 可跑 7B(量化)。
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | 装 Ollama | 去 ollama.com 下载 Windows 版双击安装 ollama --version 验证 |
Ollama 装好 |
| Day2 | 拉模型 | ollama pull qwen2.5:7b(中文好) 8G内存则 qwen2.5:1.5b ollama list 查看 |
模型下载完成 |
| Day3 | 命令行聊天 | ollama run qwen2.5:7b 直接对话:'用Python写冒泡排序' |
本地模型能聊天 |
| Day4 | Python调本地模型 | pip install ollama ollama.chat(model='qwen2.5:7b') |
30行代码调通 |
| Day5 | 流式输出 | 加 stream=True 参数 AI 逐字输出(打字机效果) |
流式输出实现 |
| Day6 | 上下文对话 | 保持对话历史列表 每次把历史传给 Ollama 实现多轮对话 |
多轮对话 |
| Day7 | 模型对比测试 | 比较 qwen2.5:1.5b/7b deepseek-r1:7b 确定你用什么模型 |
确定生产模型 |
第4周:本地 Embedding + 本地 RAG
核心改变:所有模型调用从 OpenAI/Claude API 改为本地 Ollama。代码结构完全不变,只换 import 和初始化。
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | 装 Embedding 模型 | ollama pull bge-m3(中英文最好) 拉不动则 bge-large-zh-v1.5 |
embedding模型就绪 |
| Day2 | 理解本地 embedding | ollama.embeddings(model='bge-m3') 向量是一段数字(语义指纹) |
理解embedding概念 |
| Day3 | 替换 embedding | OllamaEmbeddings(model='bge-m3') 替换原来的 OpenAIEmbeddings() |
本地embedding集成 |
| Day4 | 替换大模型 | Ollama(model='qwen2.5:7b') 替换原来的 Claude API |
本地LLM集成 |
| Day5 | 跑通本地RAG | 读PDF→切块→bge-m3向量化→存Chroma 用户提问→搜索→本地LLM回答 |
==完全私有化RAG== |
| Day6 | 加 Rerank | BAAI/bge-reranker-v2-m3 重排序 准确率明显提升 |
Rerank提升精度 |
| Day7 | 对比测试 | 不加 rerank vs 加 rerank 看差异 | 验证Rerank效果 |
第5周:LangChain 整合 + 模型调优
将手写代码换成 LangChain 标准接口,对比不同模型的回答质量和速度,确定生产环境配置。
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | LangChain 标准化 | OllamaEmbeddings+Ollama+Chroma 标准化接口 以后换模型只改一行 |
标准化接口 |
| Day2 | 尝试不同模型 | qwen2.5:7b / deepseek-r1:7b / qwen2.5:14b 比较质量和速度 |
确定最终模型 |
| Day3 | 调模型参数 | temperature(严谨vs创意)、top_p、num_predict | 参数调优 |
| Day4 | embedding对比 | bge-m3 / bge-large-zh / nomic-embed-text | 选embedding模型 |
| Day5 | System Prompt | 设 system prompt 约束行为 '基于内容回答,不知道就说不知道' |
提示词工程 |
| Day6 | 对话历史管理 | 滑动窗口:只保留最近5轮对话 防止上下文撑爆 |
内存管理 |
| Day7 | 完整本地RAG脚本 | 读文档→本地embedding→本地向量库→本地LLM→rerank | 完整私有RAG |
第6周:私有化 API 服务 + Docker 部署
整体架构:用户浏览器 → Nginx → Open WebUI → Ollama + Chroma → 全部在本地内网
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | FastAPI封装 | POST /ask 接收问题返回答案 POST /upload 上传文件存向量库 |
RAG API服务 |
| Day2 | Ollama网络模式 | OLLAMA_HOST=0.0.0.0 Python通过 localhost:11434 调Ollama |
Ollama服务化 |
| Day3 | Docker化Ollama | docker run -d --gpus all ollama/ollama 进容器拉模型 |
Ollama容器化 |
| Day4 | Docker Compose | docker-compose.yml 编排全套服务 一条命令全部启动 |
全套容器编排 |
| Day5 | CPU vs GPU配置 | 有显卡加 --gpus all 没显卡CPU跑7B约5-8 tokens/秒 |
硬件适配 |
| Day6 | 前端界面 | Gradio聊天界面(3行代码) 或 Open WebUI(官方界面带RAG) |
Web界面 |
| Day7 | 部署到服务器 | docker-compose up -d 浏览器访问 http://服务器IP:3000 |
==私有RAG上线== |
【第6周结束标准】docker-compose up -d 一条命令启动全部服务,内网用户能上传文档并提问,不依赖外网。
第三阶段:Agent 智能体开发
目标:让 AI 不止能说,还能动手干活——调用 API、操作数据库、发送邮件、搜索信息。
核心技术栈:LangChain + LangGraph + FastAPI + MCP
第7周:理解工具调用
不依赖框架,先手写实现 ReAct 循环,理解本质:你给 AI 提供函数,AI 自己决定什么时候调用。
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | 理解工具调用 | AI说'北京天气'→你提供函数→AI自己决定调用 类比:前端调你的后端接口 |
理解核心概念 |
| Day2 | Function Calling | 定义 get_weather(city)、calc(expression) 看 tool_calls 返回结构 |
理解FC机制 |
| Day3 | Claude Tool Use | Anthropic SDK 同样实现 对比格式差异 |
两个都跑通 |
| Day4 | 手写ReAct循环 | while: 用户提问→AI返回调工具→你调→再发给AI→回答 这就是Agent的本质! |
==理解Agent本质== |
| Day5 | 加第三个工具 | search_web(query) + send_email(to,subject,body) AI自主决定调哪个 |
多工具Agent |
| Day6 | 测试各种场景 | 天气、计算、搜索、发邮件 看AI能否正确选择工具 |
功能测试 |
| Day7 | 整理代码 | 工具定义+循环+错误处理 整理成可复用Agent脚本 |
代码规范化 |
第8周:LangChain Agent
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | @tool 装饰器 | from langchain_core.tools import tool @tool 一行注册 类比 @Component |
工具注册 |
| Day2 | LangChain Agent | create_react_agent(llm, tools) + AgentExecutor 底层就是手写的ReAct |
快速搭Agent |
| Day3 | 内置工具 | TavilySearchResults(搜索) WikipediaQueryRun(百科) |
内置工具集成 |
| Day4 | Agent记忆 | ConversationBufferMemory 类比:HTTP无状态→Session有状态 |
对话记忆 |
| Day5 | 带RAG的Agent | 知识库包装成工具 Agent既能搜又能查知识库又能算 |
RAG+Agent结合 |
| Day6 | 实战:客服Agent | 查订单+退换货政策+查物流 一句话搞定全套客服 |
实战项目 |
| Day7 | 边界测试 | AI不按预期调工具?工具返回错误?超时? | 异常处理 |
第9周:LangGraph 状态管理
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | LangGraph概念 | Node=步骤 Edge=流转 State=状态 类比 Java Activiti/Flowable 工作流 |
理解图概念 |
| Day2 | 第一个Graph | 定义2个Node:搜索→回答 自动流转 |
第一个Graph |
| Day3 | 条件路由 | AI判断'需要搜索'→搜节点 '可以直接回答'→回答节点 |
分支逻辑 |
| Day4 | 人机交互 | 关键节点停下来等用户确认 '要发送邮件请确认' |
Human-in-the-Loop |
| Day5 | 多Agent协作 | 协调者分配任务+研究员搜索+写手生成报告 类比微服务拆分 |
多Agent架构 |
| Day6 | 实战:调研助手 | 输入主题→搜索3-5篇→分析→生成报告 | 综合实战 |
| Day7 | 完善+测试 | 处理各种边界情况 | 质量完善 |
第10周:Agent 生产化
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | FastAPI封装Agent | POST /agent/ask 接收问题 后端启动Agent流程 |
Agent API化 |
| Day2 | 流式输出 | Agent思考过程也返回前端 WebSocket实时推送 |
思考过程可见 |
| Day3 | Token控制 | max_iterations=10 最大轮次 超10步强制停止 |
安全控制 |
| Day4 | 错误恢复 | 工具调用失败重试 Agent卡住超时回退 |
容错机制 |
| Day5 | 日志+监控 | 记录完整调用轨迹 工具、结果、耗时 |
可观测性 |
| Day6 | Gradio界面 | 聊天界面+思考过程显示 工具调用和结果展示 |
前端界面 |
| Day7 | Docker部署 | 打包Agent服务+docker-compose编排+部署 | Agent上线 |
【第10周结束标准】可 Docker 部署的 Agent 服务,支持多工具调用、多轮对话、错误恢复、完整监控。
第四阶段:多模态 AI
核心技术栈:Claude Vision / GPT-4V + PaddleOCR + Whisper + Edge-TTS
第11周:让 AI 看图片 + 识别文字
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | Claude Vision API | 传图片让AI描述 代码多了image参数 |
图片理解 |
| Day2 | GPT-4V | 同样功能用OpenAI base64 vs URL |
多模型切换 |
| Day3 | OpenCV基础 | pip install opencv-python 读图、改大小、裁剪、灰度 |
图片处理基本功 |
| Day4 | OCR识别 | pip install paddleocr 一行代码识别图片中文 |
OCR文字提取 |
| Day5 | 扫描件处理 | 拍照→OCR→大模型理解 '拍合同→自动提取条款' |
文档数字化 |
| Day6 | OCR+RAG结合 | 扫描PDF→OCR转文字→知识库→问答 处理纸质文档完整方案 |
图文RAG |
| Day7 | 实战:智能扫描仪 | 拍照→识别→理解→输出JSON | 综合实战 |
第12周:语音对话 + 综合项目
| 天数 | 学习内容 | 具体做什么 | 产出/验证 |
|---|---|---|---|
| Day1 | Whisper语音转文字 | pip install openai-whisper 录音→转文字 |
ASR |
| Day2 | 麦克风录音 | pip install sounddevice 从麦克风录音→保存 |
录音功能 |
| Day3 | 语音对话闭环 | 录音→转文字→调AI→文字转语音→播放 | 语音对话闭环 |
| Day4 | 文字转语音TTS | pip install edge-tts 文字转语音,支持中文 |
语音合成 |
| Day5 | 语音Agent | Agent输出转语音 语音交互的Agent |
语音Agent |
| Day6 | 综合项目 | '看得见听得懂的Agent':看图+语音+工具调用+RAG | ==全栈融合== |
| Day7 | 总结整理 | 梳理项目和技术栈 写简历能写的经历 |
输出总结 |
【第12周结束标准】融合 RAG + Agent + 多模态的综合 AI 应用,能看图、读文档、语音对话、调用工具。
私有化部署方案汇总
整体架构
用户浏览器 → Open WebUI(前端)→ Ollama(模型服务)+ Chroma(向量库)→ 全部在本地内网
硬件配置推荐
| 配置 | 内存 | 显卡 | 可跑模型 | 效果 |
|---|---|---|---|---|
| 最低 | 8GB | 无 | Qwen2.5:1.5B | 能用,回答简单 |
| 入门 | 16GB | 无 | Qwen2.5:7B(量化) | 效果不错,5-8字/秒 |
| 推荐 | 32GB | RTX 3060 12GB | Qwen2.5:7B/14B | 流畅运行,效果很好 |
| 企业 | 64GB | RTX 4090 24GB | Qwen2.5:32B/72B | 接近GPT水平 |
模型选型推荐
| 场景 | LLM模型 | Embedding模型 | Rerank | 需求 |
|---|---|---|---|---|
| 内网知识库(中文) | Qwen2.5:7B | bge-m3 | bge-reranker-v2-m3 | 16GB内存 |
| 信创/国产化 | DeepSeek-R1:7B | bge-m3 | bge-reranker-v2-m3 | 16GB内存 |
| 低配(8GB) | Qwen2.5:1.5B | bge-large-zh | 可选 | 8GB内存 |
| 高配企业级 | Qwen2.5:14B | bge-m3 | 必选 | 32GB+8GB显存 |
Docker Compose 完整模板
```yaml
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
volumes:
- ollama_data:/root/.ollama
ports:
- '11434:11434'
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
restart: always
chromadb:
image: chromadb/chroma:latest
volumes:
- chroma_data:/chroma/chroma
ports:
- '8000:8000'
environment:
- IS_PERSISTENT=TRUE
restart: always
rag-backend:
build: .
ports:
- '8080:8080'
environment:
- OLLAMA_HOST=http://ollama:11434
- CHROMA_HOST=http://chromadb:8000
- LLM_MODEL=qwen2.5:7b
- EMBEDDING_MODEL=bge-m3
depends_on:
- ollama
- chromadb
restart: always
open-webui:
image: ghcr.io/open-webui/openwebui:main
ports:
- '3000:8080'
volumes:
- openwebui_data:/app/backend/data
extra_hosts:
- 'host.docker.internal:host-gateway'
restart: always
volumes:
ollama_data:
chroma_data:
openwebui_data:
```
一条命令启动:docker-compose up -d
无显卡部署方案
方案A(推荐):qwen2.5:7b 的 4bit 量化版,Ollama 自动启用。16GB 内存,速度 5-8 字/秒。
方案B:qwen2.5:1.5b 或 deepseek-r1:1.5b,更快但质量下降。
企业私有化部署真实方案对比
Ollama 是学习和小团队用的最佳选择,但中大型企业的生产环境有更专业的方案。了解全貌能帮你在实际工作中做出正确选型。
Ollama 的模型是不是阉割版?
技术上不是阉割,是量化。Ollama 默认拉的是 4bit 量化版(Q4_K_M),用精度换显存:
| 对比项 | 原始模型(FP16) | Ollama 默认版(Q4_K_M) |
|---|---|---|
| 精度 | 完整 16 位浮点 | 4 位量化(≈97-98% 质量) |
| 文件大小(7B) | 14GB | 4GB |
| 显存需求 | 16GB | 6GB |
| 回答质量 | 100% | 实际感知几乎无差异 |
企业知识库场景下,量化版完全够用。Ollama 也可以跑原版:ollama pull qwen2.5:7b-fp16
三档企业部署方案
第一档:小企业 / POC 验证方案:Ollama + Open WebUI + Chroma 成本:一台 PC / 低配服务器 优点:部署最简单,一条命令搞定,适合几十人团队 适用场景:PoC 验证、团队内部工具
第二档:中型企业正式环境方案:vLLM + LangChain + Milvus/Qdrant + Nginx + 监控 vLLM 是高性能推理引擎,支持高并发和 Continuous Batching Milvus 是企业级向量数据库,支持分布式 为什么不用 Ollama:并发一高就排队,vLLM 能同时处理几十个请求
第三档:大型企业 / 高并发方案:Triton Inference Server(NVIDIA)+ K8s + 多卡负载均衡 或直接买商业方案:星环、第四范式、百度千帆私有化版 需要几十张 A100/H100 集群部署,配备专业监控和弹性伸缩 预算百万起
企业真实选型逻辑速查
| 场景 | 推荐方案 | 原因 |
|---|---|---|
| 老板说'搭个知识库先试试' | Ollama | 最快上线,成本最低 |
| 团队 50 人内用,不追求高并发 | Ollama + WebUI | 简单够用,运维成本低 |
| 全公司 1000 人用 | vLLM + Qdrant | 需要高并发和负载均衡 |
| 对外客户使用,要求 SLA 99.9% | Triton + K8s / 商业方案 | 需要专业运维和容灾 |
| 信创 / 国产化要求 | 华为昇腾 + MindSpore | 满足合规要求 |
一个重要的定心丸
学习阶段用 Ollama 完全正确,因为:
1. 概念一样——Ollama 和 vLLM 底层跑的模型是同一套,只是推理引擎不同
2. 代码可迁移——从 Ollama 切换到 vLLM 只需要改一行 base_url 地址
3. 先跑通再优化——没有哪个公司一开始就上集群,都是从一台服务器开始的
代码迁移示例(只需要改一行):
# Ollama 写法 llm = Ollama(model='qwen2.5:7b') # 换 vLLM 只需要改这行 llm = ChatOpenAI(model='qwen2.5:7b', base_url='http://vllm-server:8000/v1', api_key='none')
接口是兼容的,底层概念也是通的。学 Ollama 不是学错了,是从简单的开始学对了。
附录:学习资源汇总
免费资源(强烈推荐)
| 资源名称 | 地址 | 说明 |
|---|---|---|
| Ollama 官网 | ollama.com | 本地模型部署工具,全平台支持 |
| LangChain 教程 | python.langchain.com | RAG + Agent 权威教程 |
| LangGraph 教程 | langchain-ai.github.io/langgraph | Agent 状态管理 |
| Production RAG (GitHub) | jamwithai/production-agentic-rag-course | 7周生产级RAG项目 |
| AI Engineering (GitHub) | harsh-aranga/ai-engineering-bootcamp | 10周AI工程训练营 |
| Anthropic Cookbook | github.com/anthropics/anthropic-cookbook | 官方最佳实践 |
| OpenAI Cookbook | github.com/openai/openai-cookbook | 官方最佳实践 |
| PaddleOCR | github.com/PaddlePaddle/PaddleOCR | 中文OCR识别,免费开源 |
| Open WebUI | github.com/open-webui/openwebui | Ollama 官方前端,带RAG |
每周检查清单
□ 第1周结束:能在Python里写函数、调第三方库、读写文件
□ 第2周结束:能用FastAPI写接口、用requests调别人接口
□ 第3周结束:Ollama装好,本地模型能聊天,Python能调用
□ 第4周结束:能做本地RAG(读文档→搜索→回答,不依赖外网)
□ 第5周结束:RAG支持多轮对话、Rerank优化、模型参数调优
□ 第6周结束:docker-compose up -d 启动全套私有RAG
□ 第7周结束:理解Agent本质,手写过ReAct循环
□ 第8周结束:能用LangChain搭多工具的Agent
□ 第9周结束:能用LangGraph做复杂流程+多Agent协作
□ 第10周结束:Agent能部署、有监控、有错误恢复
□ 第11周结束:应用能看图片、能做OCR识别
□ 第12周结束:RAG + Agent + 多模态全部打通的综合项目
注意事项
1. 学习过程中遇到问题,优先搜索(Google/Stack Overflow/B站),然后问AI。
2. 不要试图一次性理解所有概念,先跑通代码再理解原理。
3. Python 装包遇到问题(尤其 windows 编译),先尝试升级 pip:pip install --upgrade pip
4. Ollama 的模型文件较大(4-8GB),确保硬盘有足够空间。
5. 所有私有化部署方案均支持完全离线,数据不出内网。
学习资源:
- Ollama官网:ollama.com
- LangChain教程:python.langchain.com
- LangGraph教程:langchain-ai.github.io/langgraph
- Production Agentic RAG(GitHub):jamwithai/production-agentic-rag-course
- AI Engineering Bootcamp(GitHub):harsh-aranga/ai-engineering-bootcamp
- PaddleOCR:github.com/PaddlePaddle/PaddleOCR
- Open WebUI:github.com/open-webui/openwebui
如果这篇文章对你有帮助,欢迎点赞、收藏、关注。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)