从 Jetson Thor T5000 出发:一篇讲清 NVIDIA 新一代机器人计算平台、产品谱系、架构、性能、软件栈与落地路径
📺 B站:博主个人介绍
📘 博主书籍-京东购买链接*:Yocto项目实战教程
📘 加博主微信,进技术交流群: jerrydev
从 Jetson Thor T5000 出发:一篇讲清 NVIDIA 新一代机器人计算平台、产品谱系、架构、性能、软件栈与落地路径
很多人第一次看到 NVIDIA Jetson Thor T5000,都会下意识把它理解成一块“嵌入式 GPU”或者“Jetson 版显卡”。但严格来说,这个理解并不准确。T5000 不是传统意义上的独立显卡,也不是单独一颗裸芯片,而是 NVIDIA 面向机器人和边缘 AI 推出的高端 Jetson 模组(SoM)产品名;它的核心计算底座来自 Thor 这一代 SoC,而不是上一代的 Orin。官方把它定位为面向 Physical AI、humanoid、机器人、多传感器实时处理与边缘侧生成式 AI 的主力平台,最高可提供 2070 FP4 TFLOPS、128GB LPDDR5X、273GB/s 内存带宽,典型功耗范围覆盖 40W 到 130W。(NVIDIA)
真正让人混淆的,往往不是性能,而是命名。Jetson 体系里同时存在 Tegra、Orin、Thor、AGX Orin、T5000、Developer Kit 这些词。如果不先把它们之间的层级关系理顺,后面看规格、看软件栈、看案例时就很容易乱。简单说:Tegra 更像 SoC/平台家族名,Orin 和 Thor 是代际 SoC 名,Jetson AGX Orin 和 Jetson T5000 则是你实际能买到的模组产品名,Developer Kit 是带载板、接口和存储的开发套件。 NVIDIA 当前文档里仍然大量保留 Tegra 命名,例如 CUDA for Tegra、tegrastats、Tegra Combined UART 等,这说明 Tegra 这个名字并没有消失,只是更多退到了底层软件与文档体系里。(NVIDIA Docs)
一、先把命名关系讲透:T5000、Thor、Tegra、AGX Orin 到底是什么关系
先给出一张最不容易混淆的关系图:
NVIDIA
└── Tegra(SoC/平台家族名)
├── Orin(上一代 SoC)
│ ├── 内部代号:T234
│ └── 对外产品:
│ ├── Jetson AGX Orin
│ ├── Jetson Orin NX
│ └── Jetson Orin Nano
│
└── Thor(新一代 SoC)
├── 内部代号:T264
└── 对外产品:
├── Jetson T5000
├── Jetson T4000
└── Jetson AGX Thor Developer Kit
这张图背后的关键点有三个。
第一,T5000 不是 SoC 名,而是模组 SKU 名。官方 Jetson AGX Thor Developer Kit 用户指南写得很明确:该开发套件是 “Powered by the NVIDIA T5000 system-on-module”,也就是说开发套件里装的核心模组就是 T5000。(NVIDIA Docs)
第二,Thor 才是 SoC 这一层的代际名。在 Jetson Linux 的开发文档和迁移文档里,可以看到 Thor 对应的内部代号是 T264,而 Orin 对应 T234。这意味着从底层驱动、引导、BSP、接口适配来看,Thor 并不是“Orin 的小修小补”,而是一代新的 SoC 平台。(NVIDIA Developer)
第三,Tegra 不是“老名字已经废弃”,而是继续存在于底层软件体系。对上层营销材料来说,NVIDIA 现在更喜欢说 Orin、Thor、Jetson T5000;但对系统开发者来说,Tegra 仍是理解 Jetson 软件架构的重要线索。(NVIDIA Docs)
二、Jetson Thor T5000 到底是什么产品
从产品形态上看,Jetson T5000 属于 System-on-Module(SoM)。所谓 SoM,本质上就是把 CPU、GPU、内存、电源管理、启动存储、安全模块以及高速 I/O 封装成一个可量产、可嵌入的核心计算模块,然后再通过载板接入网口、USB、相机、CAN、PCIe、NVMe、电机控制器等外围系统。
这件事非常重要,因为它决定了 T5000 的使用方式和 PC 显卡完全不同。它不是插在 x86 主板 PCIe 槽里工作的“加速卡”,而是自己就是整台边缘 AI 设备的核心计算平台。你可以把它理解成“机器人主控电脑的核心板”,而不是“给某台电脑加速的显卡”。官方数据表和开发套件资料都把 T5000 明确描述为:基于 Blackwell GPU、14 核 Arm Neoverse-V3AE CPU、128GB LPDDR5X 的 Jetson 模组。(NVIDIA Docs)
如果你买的是开发套件而不是量产模组,那么你拿到的通常是 Jetson AGX Thor Developer Kit。这个开发套件除了 T5000 模组本体外,还配有完整的参考载板,官方列出的关键配置包括:1TB NVMe、M.2 Key M PCIe Gen5、M.2 Key E、USB Type-A、USB-C、Debug USB-C、5GbE RJ45、QSFP28(支持 4×25GbE)以及 Wi-Fi 6E / Bluetooth 等。这些接口规格本身就说明了 Thor 的定位并不是普通低速嵌入式板卡,而是面向 高吞吐传感器接入与边缘实时计算 的平台。(NVIDIA Docs)
三、为什么说 T5000 不是“AGX Orin 高配版”,而是完整换代
很多人第一次看到 T5000,会觉得它像是“AGX Orin 的后继高配版”。这个说法只能算半对。它的确是 Orin 之后更高一代的 Jetson 高端产品,但从架构角度看,Thor/T5000 更像一次完整换代,而不是简单堆高算力。
1. GPU 从 Ampere 进化到 Blackwell
Jetson AGX Orin 64GB 使用的是 2048 核 Ampere GPU + 64 Tensor Cores;而 T5000 使用的是 2560 核 Blackwell GPU + 96 个第五代 Tensor Cores,并且支持 MIG(Multi-Instance GPU)。官方还给出 T5000 的 AI 指标可达到 2070 FP4 TFLOPS / 1035 FP8 TFLOPS,而 Thor 系列整体被定义为比 AGX Orin 提供 7.5 倍以上 AI 计算能力 和 3.5 倍能效提升。(NVIDIA)
这意味着 Thor 的 GPU 升级不是简单“核更多”,而是面向生成式 AI 和 Transformer 推理做了结构与精度层面的针对性强化。尤其是 FP4/FP8 的支持,让它在边缘侧运行 LLM、VLM、VLA 一类模型时更具优势。
2. CPU 从 Cortex-A78AE 进化到 Neoverse-V3AE
AGX Orin 64GB 采用的是 12 核 Arm Cortex-A78AE;T5000 则升级到 14 核 Arm Neoverse-V3AE。这说明 Thor 的升级并不是“CPU 基本不动,只靠 GPU 拉性能”,而是整个 SoC 级别的更新。对于机器人这类强依赖中间件调度、传感器同步、控制闭环、网络通信和多进程协同的系统来说,CPU 架构升级的价值非常实际。(NVIDIA)
3. 内存系统明显强化
AGX Orin 64GB 的典型高配是 64GB LPDDR5,204.8GB/s;T5000 则直接来到 128GB LPDDR5X,273GB/s。这件事的意义并不只是“缓存更大”,而是决定了你能不能在边缘端真正同时承载更大的模型、更长上下文、更多路相机数据和更复杂的中间缓存。对于具身智能、机器人多模态系统来说,这往往比单一 benchmark 更重要。(NVIDIA Developer)
4. 高速 I/O 与多传感器能力更像是 Thor 的本命
Orin 已经很强,但 Thor 明显更强调“多传感器高速输入”。官方迁移文档和开发套件资料提到,T5000 支持 4×25Gbps XFI,开发套件上提供 QSFP28,并且 JetPack 7 侧强调了 Holoscan Sensor Bridge 与更完整的高速传感器通路支持。也就是说,Thor 的价值并不只是“边缘推理更快”,而是采、传、算、控 全链路都更偏向高端机器人和复杂传感器系统。(NVIDIA Developer)
5. 一个特别容易忽略的点:Thor 没有 DLA
这是迁移时最容易踩坑的地方之一。AGX Orin 有 2× NVDLA v2.0,很多开发者习惯把部分网络部署到 DLA 上;但官方迁移文档给出的结论很明确:Jetson T5000 不提供 DLA。这意味着从 Orin 迁移到 Thor 时,原来依赖 DLA 的部署策略不能原样照搬,Thor 更强调 GPU + TensorRT + PVA/OFA/VIC 这种协同式架构。(NVIDIA)
四、Jetson T5000 与 AGX Orin 的核心差异一表看懂
下面这张表适合直接收藏,作为选型和理解代际差异的速查表。表中信息来自 NVIDIA 官方规格页、Thor 数据表与 Orin 技术资料。(NVIDIA)
| 项目 | Jetson AGX Orin 64GB | Jetson T5000 |
|---|---|---|
| SoC 代际 | Orin / T234 | Thor / T264 |
| GPU 架构 | Ampere | Blackwell |
| CUDA / Tensor | 2048 CUDA + 64 Tensor | 2560 CUDA + 96 第五代 Tensor |
| CPU | 12 核 Cortex-A78AE | 14 核 Neoverse-V3AE |
| AI 指标 | 275 INT8 TOPS(Sparse) | 2070 FP4 TFLOPS / 1035 FP8 TFLOPS |
| DLA | 2× NVDLA v2.0 | 无 |
| PVA | v2 | v3 |
| 内存 | 64GB LPDDR5,204.8GB/s | 128GB LPDDR5X,273GB/s |
| 视频编解码 | 1 解码 + 1 编码 | 2 解码 + 2 编码 |
| 高速网络 | 1×10Gbps XFI | 4×25Gbps XFI |
| 典型功耗 | 15W–60W | 40W–130W |
| 模组尺寸 | 100mm × 87mm | 100mm × 87mm |
从这张表就能看出本质差别:Orin 是成熟高端通用边缘 AI 平台,Thor/T5000 则是把重点进一步推向边缘生成式 AI、复杂机器人和高速多传感器处理。
五、T5000 与 Orin 的“兼容性”不能想当然
很多硬件工程师看到 T5000 和 AGX Orin 模组尺寸同为 100mm × 87mm,会自然猜测两者也许可以直接共用载板。但官方迁移文档明确指出:两者虽然机械尺寸相同,但并不 pin-compatible。也就是说,老 Orin 的载板设计不能直接插上 T5000 就工作,供电、接口、引脚复用、散热等都需要重新评估。(NVIDIA Developer)
另一个需要注意的点是功耗。AGX Orin 的 MAXN 常见上限在 60W 级别,而 T5000 典型上限已经推到 130W。这意味着在量产产品中,散热器、风道、导热路径、电源适配器、板级供电和峰值电流设计都必须重新规划。对机器人系统来说,这不仅影响硬件尺寸,还会直接影响电池方案、整机重量和续航。(NVIDIA)
六、Jetson 产品线里,T5000 应该放在什么位置
当前 Jetson 产品线已经形成了比较清晰的分层。
如果你做的是高端 humanoid、复杂移动机器人、医疗机器人或者需要在边缘同时跑多模态感知与大模型推理的系统,那么 T5000 / Thor 是新一代主力候选;如果你做的是已经比较成熟的工业视觉、巡检、配送、AMR、协作机械臂、边缘视频分析,那么 AGX Orin 仍然是更成熟、生态更完整、量产案例更多的选择;如果你受限于体积、功耗和成本,则 Orin NX / Orin Nano 更合适。NVIDIA 官方 Jetson 家族页已经把 Thor 明确列为面向 physical AI and robotics 的高端系列,而 Orin 仍是成熟广泛的主力家族。(NVIDIA)
可以用下面这个简表快速理解:
| 产品线 | 适合什么场景 | 典型特点 |
|---|---|---|
| Jetson T5000 | humanoid、复杂机器人、边缘大模型、多传感器融合 | 性能最高,内存最大,功耗与成本也最高 |
| Jetson T4000 | 需要 Thor 架构但功耗更紧的产品 | 同代平台,配置略低于 T5000 |
| Jetson AGX Orin | 量产工业机器人、工业视觉、移动机器人 | 生态成熟,案例多,软件经验丰富 |
| Jetson Orin NX | 小尺寸高性能产品 | 适合空间敏感型嵌入式系统 |
| Jetson Orin Nano | 入门、教育、轻量生成式 AI | 成本与门槛最低 |
七、Thor 的软件栈:为什么说它代表了 Jetson 的新阶段
理解 Thor,不能只看硬件。JetPack 7 才是 Thor 真正进入产品化和开发者生态的关键入口。官方 JetPack 页面和 Jetson Linux 38.4 发布说明显示,Thor 平台的软件栈已经转向 Ubuntu 24.04、Linux Kernel 6.8、模块化云原生架构,并明确支持 MIG、Holoscan Sensor Bridge 等 Thor 关键特性。JetPack 7 被官方直接描述为对 Jetson Thor 平台的“全支持”版本。(NVIDIA Docs)
这和 Orin 所处的软件阶段并不完全一样。Orin 当然依然强大且成熟,但 Thor 代表的是 Jetson 新一代软件平台方向。JetPack SDK 官方文档也明确说明,JetPack 不只是“系统镜像”,而是包含 Jetson Linux、内核、驱动、CUDA、图形、多媒体、计算机视觉库、样例、文档以及更高层 SDK 的完整开发环境。(NVIDIA Docs)
1. TensorRT:推理部署的核心引擎
TensorRT 官方定义非常明确:它是 优化和加速 NVIDIA GPU 上深度学习推理 的 SDK,支持从 PyTorch、ONNX 等框架导入模型,并支持 FP32 / FP16 / BF16 / FP8 / INT8、动态 shape 与 Transformer/LLM 优化。对于 Thor 来说,TensorRT 是你真正把 Blackwell 性能转化成业务吞吐和延迟的核心工具。(NVIDIA Docs)
2. DeepStream:多路视频与流媒体分析的工程底座
DeepStream 的定位是 流式视频分析工具包,能处理来自 USB/CSI 摄像头、视频文件、RTSP 流 的输入,并构建多路实时分析应用。对于做安防、仓储、巡检、工业视觉的人来说,它比“自己写一堆 OpenCV + PyTorch 脚本”更接近真正的工程交付方式。官方页面已经明确写到较新的 DeepStream 版本支持 Jetson Thor。(NVIDIA Docs)
3. Isaac ROS / Isaac Sim:机器人开发主线
Isaac ROS 面向 ROS 2 机器人应用开发,提供导航、感知等现成包;Isaac 平台整体则覆盖 仿真、机器人学习、CUDA 加速库、AI 模型与参考工作流。如果你真正要做机器人,而不是单纯推理 demo,那么 Thor 最自然的软件路径通常是:Isaac Sim / Isaac Lab 做仿真与数据,Isaac ROS 组织运行时节点,TensorRT 负责核心推理,JetPack 提供底层系统支持。(NVIDIA Developer)
八、理解 Thor 的正确方法:不是“GPU 一把梭”,而是整个平台协同
很多人理解 Jetson,会沿用 PC 世界的思维:CPU 负责系统,GPU 负责模型推理。但 Thor 真正强大的地方,在于它把 PVA、OFA、VIC、GPU、CPU、高速 I/O、ROS 中间件 都整合到了一套适合机器人闭环的架构里。
下面给出一张适合直接放进 CSDN 的“文本流程图”:
传感器输入
相机 / 双目 / 深度相机 / LiDAR / 麦克风 / 编码器 / CoE
↓
数据搬运与预处理
VIC(缩放、颜色空间、几何变换)
OFA(光流、双目视差)
PVA(视觉算法卸载)
↓
AI 推理层
TensorRT / CUDA / PyTorch / vLLM / SGLang
↓
机器人中间件
Isaac ROS / ROS 2 / 自研调度系统
↓
控制与执行
规划 / 状态机 / 控制器 / 执行器
↓
闭环验证
Isaac Sim / Isaac Lab / 合成数据 / HIL / SIL
这张流程图真正表达的是:不是所有任务都应该扔给 GPU。一些图像预处理、双目视差、运动估计类任务,交给 PVA、OFA、VIC 更合理;GPU 应该尽量留给 LLM、VLM、检测、分割、跟踪、策略网络等真正吃算力的部分。这种“专用引擎卸载 + GPU 聚焦核心推理”的思路,是 Thor 相比传统嵌入式平台更高级的地方。(NVIDIA Developer)
九、想真正上手 Thor,最先要学会的工具和命令
如果你手里拿的是官方开发套件,那么最先接触到的通常是 JetPack、Docker、TensorRT 和系统性能管理工具。以下命令形式与 Thor 官方文档推荐方式一致,适合做为最小上手入口。(NVIDIA Docs)
1. 安装 JetPack
sudo apt update
sudo apt install nvidia-jetpack
2. 如果只想补 CUDA 开发环境
sudo apt install nvidia-cuda-dev
3. 配置 Docker 运行时
sudo apt-get update
sudo apt install -y nvidia-container-toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl daemon-reload
sudo systemctl restart docker
4. 切换到高性能模式并观察系统状态
sudo nvpmodel -m 0
sudo jetson_clocks
tegrastats
这几条命令看似简单,但已经覆盖了 Jetson 平台开发中最核心的三件事:系统环境、容器运行时、性能观察与调优。很多初学者一上来就想跑模型,却忽略了电源模式、频率锁定和热设计,结果 benchmark 浮动非常大。

十、一个适合 Jetson/Thor 的 TensorRT 最小代码骨架
如果你想从“能装系统”走到“能部署模型”,最值得先掌握的是 TensorRT 的最小闭环。下面这段 Python 代码就是一个非常典型的 ONNX → TensorRT Engine 的骨架,适合作为理解模板。
import tensorrt as trt
TRT_LOGGER = trt.Logger(trt.Logger.WARNING)
def build_engine(onnx_path: str):
builder = trt.Builder(TRT_LOGGER)
network = builder.create_network(
1 << int(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)
)
parser = trt.OnnxParser(network, TRT_LOGGER)
with open(onnx_path, "rb") as f:
ok = parser.parse(f.read())
if not ok:
errs = [str(parser.get_error(i)) for i in range(parser.num_errors)]
raise RuntimeError("\n".join(errs))
config = builder.create_builder_config()
config.set_memory_pool_limit(trt.MemoryPoolType.WORKSPACE, 2 << 30)
if builder.platform_has_fast_fp16:
config.set_flag(trt.BuilderFlag.FP16)
serialized_engine = builder.build_serialized_network(network, config)
runtime = trt.Runtime(TRT_LOGGER)
engine = runtime.deserialize_cuda_engine(serialized_engine)
return engine
这段代码背后的思路就是 Jetson 上最常见的推理部署流程:训练模型 → 导出 ONNX → TensorRT 构建引擎 → 运行时推理。TensorRT 官方文档说明它支持多精度推理、动态 shape 与不同框架的模型导入;这也是为什么它几乎成了 Jetson 平台推理部署的必修课。(NVIDIA Docs)
十一、市场上的成熟案例怎么看:Orin 已成熟,Thor 正在导入高端场景
写 Jetson 相关文章时,最容易犯的错误,是把 Orin 生态的成熟案例 直接当成 Thor 已经全面量产的证据。这两者要分开看。
1. Orin 生态已经有大量公开成熟案例
Serve Robotics 是非常典型的例子。NVIDIA 官方案例显示,Serve Robotics 已经部署了 1000 多台机器人,覆盖 2500 多家餐厅和五大城市,属于明确的规模化落地。这类案例说明,Jetson Orin 已经在真实商用机器人系统中积累了大量经验。(NVIDIA)
Kawasaki 的轨道维护案例则说明 Orin 也被用于工业优化系统。NVIDIA 官方案例给出的信息很明确:Kawasaki 将 Jetson Orin 与 cuOpt 结合,用于轨道维护与巡检优化。(NVIDIA)
Universal Robots 的案例进一步说明 Orin 在工业协作机器人中的成熟度。官方案例提到,其 AI Accelerator 方案集成了 Isaac 平台的关键组件,并运行在 Jetson AGX Orin 上,用于 UR 系列协作机器人。(NVIDIA)
2. Thor 的公开信号更像“高端导入阶段”
Thor 现在已经不是概念产品。NVIDIA 官方新闻稿明确表示,Jetson Thor 已可用,而且早期采用者包括 Agility Robotics、Amazon Robotics、Boston Dynamics、Caterpillar、Figure、Hexagon、Medtronic、Meta 等。这说明它的市场定位非常清晰:不是给普通入门项目准备的,而是给顶级机器人和工业系统公司准备的下一代边缘计算底座。(NVIDIA Newsroom)
到了 2026 年初,NVIDIA 的新闻稿又进一步披露,Boston Dynamics、Humanoid、RLWRLD 等已经把 Jetson Thor 集成到现有 humanoid 系统中,以增强导航和操作能力。这类消息的意义在于:Thor 已经开始进入真实机器人系统,而不是只停留在开发板展示阶段。(NVIDIA Newsroom)
因此,一个务实判断是:今天的成熟量产案例主体仍在 Orin,下一波更高端、更复杂的机器人平台正在向 Thor 迁移。
十二、如何正确理解 Thor 的性能数字
T5000 的 2070 FP4 TFLOPS 很容易让人兴奋,但也容易让人误判。要理解这个数字,至少要记住两件事。
第一,它不是“所有任务都比 Orin 快 7.5 倍”。官方“7.5× AI compute”是平台级指标,不同任务的真实收益会受到模型结构、精度、量化、内存访问模式、输入分辨率、I/O、前后处理以及软件优化程度的影响。换句话说,营销数字可以帮助你理解产品上限,但不能直接替代工程实测。(NVIDIA)
第二,Thor 的优势不只是算得更快,而是更适合在边缘侧同时做多件事。它更大的内存、更快的带宽、MIG、更强的 I/O,以及更偏机器人化的软件支持,共同决定了它更适合复杂系统,而不是单一 benchmark。真正的价值场景是:多路感知 + 低延迟推理 + 实时决策 + 控制闭环 同时存在。
十三、如果要给 Jetson Thor T5000 下一个清晰结论
如果你把它当“Jetson 版显卡”,你会误解它。
如果你把它当“AGX Orin 升级款”,你也只理解了一半。
更准确的说法是:Jetson T5000 是基于 Thor SoC 的新一代高端 Jetson 模组,它代表 NVIDIA 正在把 Jetson 从“边缘 AI 开发板”推进为“机器人时代的边缘超级计算模块”。 它比 Orin 更适合承载具身智能、humanoid、多传感器融合、边缘生成式 AI 和高价值机器人系统;但与此同时,它也意味着更高的成本、更高的功耗、更复杂的散热与更高的系统设计门槛。(NVIDIA)
对开发者来说,最重要的不是背住每一个参数,而是掌握下面这条主线:
命名层面:Tegra 是家族,Thor/Orin 是 SoC,T5000/AGX Orin 是模组。
架构层面:Thor = Blackwell GPU + Neoverse-V3AE + LPDDR5X + 更强 I/O。
软件层面:JetPack 7 + TensorRT + DeepStream + Isaac 是主战场。
市场层面:Orin 是成熟量产主力,Thor 是高端下一代方向。
你一旦把这四层打通,Jetson 这条产品线基本就算真正入门了。
参考资料
- NVIDIA Jetson Thor 官方产品页:Jetson Thor 系列定位、T5000/T4000、性能与功耗。(NVIDIA)
- Jetson AGX Thor Developer Kit 用户指南:T5000 模组、开发套件组成与接口。(NVIDIA Docs)
- Jetson Thor Series Modules 数据表:T5000 内存、带宽、编解码与规格。(NVIDIA Developer)
- Jetson T5000 与 AGX Orin 迁移文档:T264/T234、pin 不兼容、DLA 差异、接口对比。(NVIDIA Developer)
- Jetson AGX Orin 官方规格页与技术资料:Ampere GPU、A78AE CPU、Orin 产品线。(NVIDIA)
- JetPack SDK 官方介绍:JetPack 软件栈整体构成。(NVIDIA Docs)
- JetPack 7 / Jetson Linux 38.4 发布资料:Ubuntu 24.04、Kernel 6.8、Thor 支持。(NVIDIA Docs)
- TensorRT 官方文档:推理优化、ONNX/PyTorch 支持、多精度能力。(NVIDIA Docs)
- DeepStream 官方文档:多路流媒体视频分析与 Thor 支持。(NVIDIA Docs)
- Isaac ROS / Isaac 平台官方页面:机器人开发、仿真与工作流。(NVIDIA Developer)
- NVIDIA 官方案例:Serve Robotics、Kawasaki、Universal Robots。(NVIDIA)
- NVIDIA 官方新闻:Jetson Thor 早期采用者与机器人集成进展。(NVIDIA Newsroom)
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)