
一句话定位
DeepSeek TUI 是一个面向 DeepSeek V4 的终端原生编程 Agent:它把模型推理、文件编辑、命令执行、Git、MCP、子智能体、LSP 诊断和成本追踪都放进一个键盘驱动的 TUI 工作流里。
如果说很多 AI 编程工具是在编辑器里“补代码”,DeepSeek TUI 更像是在终端里启动一个会读项目、会改文件、会跑命令、会看诊断、还能控制权限和成本的本地协作环境。
基础信息卡片
| 项目 | 信息 |
|---|---|
| 项目名称 | DeepSeek TUI |
| GitHub | https://github.com/Hmbown/DeepSeek-TUI |
| 项目定位 | Terminal coding agent for DeepSeek models |
| 主要语言 | Rust |
| License | MIT |
| 适配模型 | DeepSeek V4,包含 deepseek-v4-pro / deepseek-v4-flash |
| 安装方式 | npm、Cargo、Homebrew、Release 二进制、Docker |
| 支持平台 | Linux x64/ARM64、macOS x64/ARM64、Windows x64 |
解决什么问题
AI 编程工具现在很多,但不少工具有一个共同问题:要么偏聊天,要么偏编辑器补全,要么把自动化能力藏得很深。
DeepSeek TUI 解决的是另一类需求:
- 你习惯在终端里工作;
- 你希望 AI 能直接理解当前工作区;
- 你希望它不仅能回答,还能读文件、改文件、跑命令、管理 Git;
- 你又不希望它无边界地乱动项目;
- 你还想看清楚模型在用什么上下文、花了多少 token、是否命中前缀缓存。
所以它不是一个简单的“DeepSeek 聊天终端”,而是一个围绕真实代码工作流设计的 TUI Agent。
核心特点
1. 为 DeepSeek V4 做了原生适配
DeepSeek TUI 的第一大特点,是它不是泛泛接一个 OpenAI-compatible 接口就结束,而是围绕 DeepSeek V4 的能力做了细化设计。
它支持:
deepseek-v4-pro/deepseek-v4-flash;- 100 万 token 上下文;
- 思考模式流式输出;
- 前缀缓存感知的成本统计;
- 根据任务自动选择模型和 thinking level 的 Auto mode。
这意味着它更适合拿来跑长上下文任务:读大项目、跨文件排查问题、做架构梳理、分批分析代码,而不是只处理单个函数级别的小问答。
2. Auto mode:模型和思考强度都可以自动选
项目里比较有辨识度的设计是 Auto mode。
使用:
deepseek --model auto或者在 TUI 里:
/model autoAuto mode 会在每轮真正执行前,先做一次轻量路由判断,再为当前任务选择:
- 使用
deepseek-v4-flash还是deepseek-v4-pro; - thinking 使用
off、high还是max。
简单问题可以走 Flash + thinking off;复杂的调试、架构、安全审查、发布任务,则可以升级到更强模型或更高思考强度。
这个设计很实用,因为真实开发任务不是每一轮都值得用最高成本配置。让工具按任务选择档位,比用户手动频繁切模型更自然。
3. 终端里完整跑一个编程 Agent 工作流
DeepSeek TUI 的工具集覆盖得比较完整:
- 文件读写;
- shell 命令执行;
- Git 操作;
- 网页搜索和浏览;
- apply-patch;
- 子智能体;
- MCP Server;
- RLM 批量分析;
- HTTP/SSE runtime API。
官方架构里,它的链路大致是:
deepseek 调度器 CLI
→ deepseek-tui 伴随二进制
→ ratatui 终端界面
→ 异步 Agent Engine
→ OpenAI-compatible streaming client
→ 工具注册表和运行结果回流也就是说,它不是只把模型输出显示在终端里,而是有一套完整的工具调用、会话状态、任务队列和诊断反馈机制。
4. 三种模式:Plan、Agent、YOLO,把权限边界摆在明面上
很多 Agent 工具容易让用户困惑:它到底会不会改文件?会不会直接跑命令?会不会做危险操作?
DeepSeek TUI 把交互模式分成三类:
| 模式 | 适合场景 |
|---|---|
| Plan | 只读探索,先理解项目和方案 |
| Agent | 默认交互模式,关键操作需要审批 |
| YOLO | 可信工作区自动批准,更适合隔离环境或高熟练用户 |
这个分层对日常使用很重要。新项目、新需求、新仓库,先用 Plan 让它读懂;方向确认后再进 Agent;只有非常明确、可回滚、环境隔离时才考虑 YOLO。
5. side-git 工作区回滚:不污染项目自己的 Git
DeepSeek TUI 还有一个很实用的安全设计:工作区回滚。
它通过 side-git 记录每轮操作前后的快照,支持:
/restore以及 revert_turn 这类按轮次回滚能力。
关键点是:它不依赖也不污染你项目自己的 .git。这对 AI 编程特别有用,因为 AI Agent 往往会连续做多轮修改,如果中间某一步方向错了,用户需要一个比手动 git checkout 更贴近“会话轮次”的回滚方式。
6. LSP 诊断会回流到下一轮推理
另一个值得突出的是 LSP diagnostics。
项目支持在每次编辑后,通过这些语言服务拿到错误和警告:
- rust-analyzer;
- pyright;
- typescript-language-server;
- gopls;
- clangd。
这些诊断不会只是展示给用户看,而是会反馈进下一轮模型上下文。也就是说,Agent 改完代码后,可以更快知道“哪里红了”“类型哪里不对”“下一步该修哪里”。
这让它比单纯的文本编辑型 Agent 更接近真实开发环境。
7. 成本追踪和前缀缓存感知
DeepSeek TUI 不是只告诉你模型回答了什么,也会追踪:
- 每轮 token 用量;
- 会话级 token 用量;
- 成本估算;
- cache hit / miss;
- 前缀缓存相关信息。
对长上下文 Agent 来说,这个功能非常关键。因为真正跑项目时,成本不只来自“这次问了什么”,还来自历史上下文、文件内容、工具结果和反复推理。
如果你经常把 AI 用在大仓库里,能看见成本结构本身就是一种控制能力。
8. 本地二进制分发,不把运行时绑死在 Node 或 Python 上
DeepSeek TUI 使用 Rust 编写,发布的是自包含二进制。
虽然可以通过 npm 安装:
npm install -g deepseek-tui但 npm 包更像下载器,会拉取对应平台的预编译 Rust 二进制。项目本身也支持:
cargo install deepseek-tui-cli --locked
cargo install deepseek-tui --locked以及 Homebrew、Release 二进制和 Docker。
这种分发方式对终端工具很友好:安装入口多,但运行时尽量简单。
9. 中国大陆和 ARM64 场景考虑得比较细
README 里专门写了中国大陆镜像安装方式,也说明了 Linux ARM64 的预构建支持。
比如 npm 可以使用:
npm install -g deepseek-tui --registry=https://registry.npmmirror.comCargo 可以配置清华镜像源。
这类细节看起来不是核心功能,但会直接影响工具能不能顺利装上。尤其是国内网络环境、树莓派、Graviton、国产 ARM 设备、HarmonyOS PC 这类环境,安装体验往往比功能介绍更先决定用户是否继续尝试。
适合谁
DeepSeek TUI 比较适合这些人:
- 已经在用 DeepSeek API,希望有一个终端里的编程 Agent;
- 喜欢 TUI、键盘驱动、命令行工作流;
- 经常处理大仓库、长上下文、多文件任务;
- 希望 AI 能跑命令、改文件,但仍然保留审批和回滚;
- 想把 MCP、子智能体、LSP 诊断、任务队列接进本地开发流程;
- 希望对 token 和成本有更细粒度感知。
如果你已经熟悉 Codex CLI、Claude Code、Gemini CLI 这类终端 Agent,DeepSeek TUI 的价值在于:它把 DeepSeek V4 的上下文、推理、缓存和成本能力做成了更贴近本地开发的终端体验。
快速上手
最简单的安装方式:
npm install -g deepseek-tui检查版本:
deepseek --version首次启动:
deepseek也可以提前配置 API Key:
deepseek auth set --provider deepseek检查配置状态:
deepseek auth status验证安装:
deepseek doctor推荐第一次使用时,不要直接 YOLO。可以先从自动模型选择开始:
deepseek --model auto然后让它先读项目、给计划:
先阅读这个项目的目录结构,说明主要模块和启动方式,不要修改文件。确认理解正确后,再让它进入具体实现或修复任务。
结论
DeepSeek TUI 最值得关注的地方,不是“它又做了一个终端聊天界面”,而是它把 DeepSeek V4 的能力包装成了一套比较完整的本地 Agent 工作流。
它的特点很明确:
- 面向 DeepSeek V4 深度适配;
- 终端原生 TUI;
- Auto mode 自动选择模型和思考强度;
- Plan / Agent / YOLO 三种权限模式;
- side-git 回滚;
- LSP 诊断回流;
- MCP、子智能体、RLM、HTTP/SSE API;
- 成本和前缀缓存可见。
如果你想找一个“更懂 DeepSeek、更贴近终端开发、更强调可控性”的编程 Agent,DeepSeek TUI 值得试一下。
