终端里的 AI 编程神器:DeepSeek-TUI 深度体验

不用打开浏览器,不用切换窗口,直接在终端里让 AI 帮你写代码、改文件、跑命令——这就是 DeepSeek-TUI 想做的事。


它解决了什么问题?

每一位开发者都有过这样的体验:

  • 代码写到一半,打开浏览器问 AI,复制粘贴答案,再切回编辑器,来回折腾;
  • 想让 AI 帮你批量重构代码,却只能一段一段地喂给它;
  • 用云端 AI 工具,担心代码泄露,担心联网限制,担心账单暴增。

DeepSeek-TUI 把 AI 编程助手直接搬进了终端。 它不是一个聊天框,而是一个真正意义上的"编程智能体"——它能读写你的文件、执行 shell 命令、管理 git、搜索网页,并支持并行调度多个子智能体。全程不需要离开你的终端,也不需要 IDE 插件,键盘驱动,极速响应。

对于中文用户而言,还有一个实际的成本考量:DeepSeek V4 系列模型的 API 定价约为同类 Claude/GPT 模型的 1/20,而且 DeepSeek 对中文 token 的计量也更加友好,不存在其他平台对非英文语言的"隐形溢价"。


DeepSeek-TUI 是什么?

DeepSeek-TUI 是一个完全运行在终端里的 AI 编程智能体,由开发者 Hunter Bown(GitHub: Hmbown)使用 Rust 构建,专为 DeepSeek V4 系列模型(deepseek-v4-pro / deepseek-v4-flash)量身打造。

项目于 2026 年 5 月 1 日爆发式增长,单日新增超 580 颗 Star,引发了开发者社区广泛关注。

核心能力一览

🤖 原生工具集

DeepSeek-TUI 给模型配备了一套完整的"手脚",可以直接操作你的工作区:

  • 文件操作:读取、编辑、创建文件,应用 patch 补丁
  • Shell 执行:运行任意终端命令
  • Git 管理:提交、切换分支、查看 diff
  • 网页搜索 / 浏览:实时检索外部信息
  • MCP 服务器:支持扩展外部工具协议

🧠 思考模式流式输出(Chain-of-Thought)

DeepSeek V4 的推理过程会实时显示在终端里,你可以看到模型如何一步步思考你的问题——不再是黑盒,而是透明的推理链。

⚡ 原生 RLM 并行推理

这是 DeepSeek-TUI 最具特色的功能之一。它内置了 rlm_query 工具,可以同时调度 1 到 16 个 deepseek-v4-flash 子任务并行运行,适合批量分析、任务拆解、并行推理等场景。成本极低,速度却大幅提升。

💰 实时成本追踪

每次会话的 token 用量和费用都实时显示在 TUI 界面上,DeepSeek 的上下文缓存(Context Caching)也会被自动计入统计——你随时知道花了多少钱。

🌐 百万 token 上下文窗口

默认支持 100 万 token 的超长上下文,整个大型项目的代码库都可以一次性纳入模型视野。

🌍 中文界面支持

最新版本支持通过 settings.toml 设置语言,UI 界面(输入框、历史搜索、帮助面板等)可以完整切换为中文。
在这里插入图片描述


怎么用?

第一步:安装

方式一:从源码编译(推荐,需要 Rust 1.85+)

git clone https://github.com/Hmbown/DeepSeek-TUI.git
cd DeepSeek-TUI
cargo install --path crates/tui --locked
cargo install --path crates/cli --locked

方式二:直接下载预编译二进制

前往 GitHub Releases 页面,下载对应平台的二进制文件,解压后放入 PATH 即可。

国内用户可配合 TUNA、rsproxy、腾讯云 COS 或阿里云 OSS 镜像加速下载:

export DEEPSEEK_TUI_RELEASE_BASE_URL="https://你的镜像地址"

第二步:配置 API Key

首次启动会自动提示你输入 DeepSeek API Key,也可以提前配置:

# 方式一:命令行登录
deepseek login --api-key "YOUR_DEEPSEEK_API_KEY"

# 方式二:环境变量
export DEEPSEEK_API_KEY="YOUR_DEEPSEEK_API_KEY"

DeepSeek API Key 可在 platform.deepseek.com 申请,10 美元的额度对普通用户来说可以使用 6~8 周。


第三步:启动与常用命令

deepseek                          # 启动交互式 TUI
deepseek "解释一下这个函数"        # 一次性提问(非交互模式)
deepseek --model deepseek-v4-flash "帮我写个单测"  # 指定模型
deepseek --yolo                   # YOLO 模式,自动确认所有工具操作
deepseek doctor                   # 检查配置和网络连通性
deepseek models                   # 列出可用模型
deepseek sessions                 # 查看历史会话
deepseek resume --last            # 恢复上次会话
deepseek serve --http             # 启动本地 HTTP/SSE API 服务

第四步:进阶使用技巧

快捷键

快捷键 功能
Alt+R 搜索历史输入记录
Alt+↑ 弹出最后一条排队消息重新编辑
/settings 打开设置面板
/config 交互式配置编辑器
/compact 手动压缩上下文

支持多种推理后端

除了 DeepSeek 官方 API,还可以接入 NVIDIA NIM、Fireworks 或自托管的 SGLang 服务:

# 使用 NVIDIA NIM
deepseek auth set --provider nvidia-nim --api-key "YOUR_NVIDIA_API_KEY"
deepseek --provider nvidia-nim

# 使用 Fireworks
deepseek auth set --provider fireworks --api-key "YOUR_FIREWORKS_API_KEY"
deepseek --provider fireworks --model deepseek-v4-pro

# 使用本地 SGLang
SGLANG_BASE_URL="http://localhost:30000/v1" deepseek --provider sglang --model deepseek-v4-flash

自定义技能(Skills)

你可以在工作区创建 .agents/skills/ 目录,放入包含 SKILL.md 的文件夹来定义自定义工作流,让智能体遵循你的项目规范:

.agents/skills/my-skill/SKILL.md
---
name: my-skill
description: 当需要遵循项目编码规范时使用这个技能。
---
# My Skill
这里写给智能体的指令……

适合哪些场景?

  • 高频小改动:UI 组件、路由处理、测试脚手架、文档生成
  • 代码重构:整个模块的批量修改,搭配并行 RLM 效率极高
  • 非英文团队:中文注释、中文 prompt 的项目,成本优势更显著
  • 成本敏感的持续任务:CI 清理、依赖更新 PR 草稿、隔夜批量任务
  • 不想离开终端的开发者:全程键盘驱动,不打断开发心流

总结

DeepSeek-TUI 是 2026 年终端 AI 工具领域的一匹黑马。它的核心价值在于三点:

  1. 原生性:工具调用协议、prompt 设计、流式推理全部针对 DeepSeek V4 深度定制,而不是套一层 OpenAI 格式的包装;
  2. 完整性:文件、Shell、Git、网页、子智能体、MCP——真正的全套工具,不是玩具;
  3. 经济性:API 计费模式加上 DeepSeek 本身极具竞争力的定价,让 AI 编程助手不再是"土豪专属"。

如果你是一个重度终端用户,又想在日常开发中引入 AI 编程助手,DeepSeek-TUI 值得认真体验一番。

项目地址:https://github.com/Hmbown/DeepSeek-TUI

觉得有用的话,欢迎去 GitHub 点个 ⭐ 支持作者!


本文基于 DeepSeek-TUI v0.8.x 版本撰写,项目仍在活跃开发中,部分功能细节以官方文档为准。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐