Codex CLI「/斜杠命令」完全操作指南
·
🎮 OpenAI Codex CLI「/斜杠命令」完全操作指南 — 每一个命令都给你讲透!
📌 说明: 本文详细拆解 Codex CLI 交互模式下的全部
/斜杠命令,每个命令都包含:功能说明、语法格式、参数详解、使用场景、实操示例和注意事项。建议收藏备查。
📑 目录
一、什么是「/斜杠命令」?
在 Codex CLI 的交互模式(直接输入 codex 回车进入)中,除了用自然语言对话,还可以输入以 / 开头的元命令来控制 Codex 自身的行为。
# 先进入交互模式
cd your-project
codex
# 然后就可以使用 / 命令了
> /help
> /model o3
> /diff
💡 斜杠命令 vs 自然语言的区别
┌─────────────────────────────────────────────────────────┐
│ 自然语言输入: │
│ "帮我重构 auth.py" → 发送给 AI 模型处理 │
│ │
│ / 斜杠命令: │
│ "/model o3" → 由 Codex 客户端本地处理 │
│ 不消耗 Token,不发送给 AI │
└─────────────────────────────────────────────────────────┘
二、命令总览速查表
| 命令 | 作用 | 消耗Token |
|---|---|---|
/help |
显示帮助信息 | ❌ |
/model |
查看/切换模型 | ❌ |
/approval |
查看/切换审批模式 | ❌ |
/context |
查看上下文使用情况 | ❌ |
/clear |
清空对话历史 | ❌ |
/history |
查看对话历史记录 | ❌ |
/undo |
撤销上一次文件修改 | ❌ |
/diff |
查看本次会话所有文件改动 | ❌ |
/compact |
压缩对话历史,释放上下文窗口 | ⚠️ 少量 |
/bug |
提交 Bug 报告 | ❌ |
/quit /exit |
退出 Codex | ❌ |
三、每个命令详细拆解
3.1 /help — 帮助信息
📋 基本说明
功能:显示所有可用的斜杠命令及简要说明
语法:/help
参数:无
别名:无
🖥️ 实操演示
> /help
Available commands:
/help Show this help message
/model Show or change the current model
/approval Show or change the approval mode
/context Show context window usage
/clear Clear conversation history
/history Show conversation history
/undo Undo the last file change
/diff Show all file changes in this session
/compact Compact conversation history
/bug Report a bug
/quit Exit Codex
💡 使用建议
✅ 刚开始用 Codex 时第一个敲的命令
✅ 忘记某个命令的名字时查一下
✅ 不消耗任何 Token
3.2 /model — 查看与切换模型
📋 基本说明
功能:查看当前使用的模型 / 实时切换到其他模型
语法:
/model ← 查看当前模型
/model <model_name> ← 切换到指定模型
参数:model_name — 目标模型的名称
🖥️ 实操演示
# 查看当前模型
> /model
Current model: o4-mini
# 切换到 GPT-4.1
> /model gpt-4.1
Model changed to: gpt-4.1 ✓
# 切换到 o3(最强推理)
> /model o3
Model changed to: o3 ✓
# 切换回便宜的模型
> /model o4-mini
Model changed to: o4-mini ✓
🎯 常见模型名称参考
# OpenAI 官方模型
/model o4-mini # 默认,快速便宜,日常首选
/model o3 # 最强推理,复杂任务用
/model gpt-4.1 # 综合能力强
/model gpt-4.1-mini # 4.1 的轻量版
/model gpt-4.1-nano # 最便宜,简单任务用
# 如果配置了其他 Provider
/model deepseek-coder-v2 # Ollama 本地模型
/model claude-sonnet-4 # 通过 OpenRouter
/model gemini-2.5-pro # Google Gemini
💡 实战场景
# 场景1:先用便宜模型探索,再用强模型精修
> /model o4-mini
> 帮我分析这个项目的架构
# ... 看完分析结果,觉得需要更深入的设计 ...
> /model o3
> 基于刚才的分析,设计一个更好的微服务拆分方案
# 场景2:写注释用便宜的,写核心逻辑用贵的
> /model gpt-4.1-nano
> 给 src/utils.py 的所有函数加上 docstring
> /model gpt-4.1
> 实现 src/auth.py 的 JWT 认证逻辑,注意安全性
⚠️ 注意事项
1. 切换模型后,之前的对话历史会保留在上下文中
2. 不同模型的上下文窗口大小不同,切换后可能需要 /compact
3. 如果模型名称输错,会报错提示
4. 切换模型不会中断当前会话
5. 切换到本地模型(如 Ollama)需要先在配置中设置好 provider
3.3 /approval — 查看与切换审批模式
📋 基本说明
功能:查看当前审批模式 / 实时切换审批权限级别
语法:
/approval ← 查看当前模式
/approval <mode> ← 切换到指定模式
参数:mode — suggest | auto-edit | full-auto
🖥️ 实操演示
# 查看当前模式
> /approval
Current approval mode: suggest
# 切换到自动编辑
> /approval auto-edit
Approval mode changed to: auto-edit ✓
# 切换到全自动
> /approval full-auto
Approval mode changed to: full-auto ✓
⚠️ Warning: Codex will now automatically execute commands in sandbox.
# 切回保守模式
> /approval suggest
Approval mode changed to: suggest ✓
🎯 三种模式对比
┌──────────────────────────────────────────────────────────┐
│ /approval suggest │
│ ├── 读文件: ✅ 自动 │
│ ├── 改文件: ❌ 每次都问你 │
│ ├── 跑命令: ❌ 每次都问你 │
│ └── 适合:初次接触项目、生产环境、不确定 AI 会干啥时 │
├──────────────────────────────────────────────────────────┤
│ /approval auto-edit │
│ ├── 读文件: ✅ 自动 │
│ ├── 改文件: ✅ 自动执行 │
│ ├── 跑命令: ❌ 每次都问你 │
│ └── 适合:日常开发,信任 AI 改代码但命令要自己把关 │
├──────────────────────────────────────────────────────────┤
│ /approval full-auto │
│ ├── 读文件: ✅ 自动 │
│ ├── 改文件: ✅ 自动执行 │
│ ├── 跑命令: ✅ 自动执行(沙箱内) │
│ └── 适合:有 Git 保底、跑测试修 Bug、自动化流水线 │
└──────────────────────────────────────────────────────────┘
💡 实战场景
# 场景:从保守到激进,逐步放权
# 第一步:先用 suggest 看看 AI 打算怎么改
> /approval suggest
> 优化 src/database.py 的连接池管理
# AI 展示了修改方案,你看了觉得靠谱 ...
# 第二步:切换到 auto-edit 让它动手
> /approval auto-edit
> 按你刚才的方案来改吧
# AI 自动编辑文件 ✓
# 第三步:需要跑测试了,切到 full-auto
> /approval full-auto
> 运行 pytest 确认改动没有破坏已有功能
# AI 自动执行 pytest 并报告结果 ✓
⚠️ 注意事项
1. suggest → auto-edit → full-auto 权限递增,随时可切
2. full-auto 模式下命令在沙箱中运行,但仍需谨慎
3. 建议在有 Git 版本控制的项目中才使用 full-auto
4. 模式切换立即生效,不影响已有对话历史
5. 可以在 config.yaml 中设置默认模式,免得每次手动切
3.4 /context — 查看上下文窗口使用情况
📋 基本说明
功能:显示当前对话消耗了多少上下文窗口(Token 用量)
语法:/context
参数:无
🖥️ 实操演示
> /context
Context window usage:
Model: o4-mini
Max tokens: 128,000
Used tokens: 23,456 (18.3%)
Remaining: 104,544 (81.7%)
Breakdown:
System prompt: 1,200 (0.9%)
Instructions: 800 (0.6%)
Conversation: 18,456 (14.4%)
File contents: 3,000 (2.3%)
██████░░░░░░░░░░░░░░░░░░░ 18.3%
💡 实战场景
# 场景1:长时间对话后检查剩余空间
> /context
# 发现已经用了 85%,该压缩了
> /compact
# 场景2:决定是否需要切换到更大上下文的模型
> /context
# 发现 128k 快满了,但任务还没完
> /model gpt-4.1 # 切到支持更大上下文的模型
# 场景3:排查为什么 AI "忘记"了之前的对话
> /context
# 发现上下文已经 95%,早期对话被截断了
> /compact
# 或者 /clear 重新开始
⚠️ 注意事项
1. 上下文窗口满了之后,AI 会"遗忘"最早的对话内容
2. 文件内容(AI 读取的源码)也占用上下文空间
3. 不同模型的上下文窗口大小不同:
- o4-mini: 128k
- gpt-4.1: 1M (超大!)
- o3: 200k
4. 接近上限时建议用 /compact 压缩或 /clear 重置
5. 项目越大(文件越多),上下文消耗越快
3.5 /clear — 清空对话历史
📋 基本说明
功能:清空当前会话的全部对话历史,回到初始状态
语法:/clear
参数:无
🖥️ 实操演示
# 当前对话已经很长了
> /context
Used tokens: 98,000 (76.6%)
# 清空重来
> /clear
Conversation history cleared. ✓
Starting fresh with system instructions only.
# 验证
> /context
Used tokens: 2,000 (1.6%) # 只剩系统指令的开销
💡 什么时候该用 /clear?
# ✅ 场景1:切换到完全不同的任务
> 帮我写认证模块 # 前面聊了半天认证
> ...
> /clear # 清掉认证相关的上下文
> 帮我设计数据库表结构 # 全新的任务
# ✅ 场景2:AI 产生了"幻觉",越聊越偏
> /clear # 直接清空,从头来过
# ✅ 场景3:上下文快满了
> /context # 95% 了
> /clear # 清空释放空间
# ❌ 不该用的场景:任务还没做完就 clear
# 如果只是想节省上下文,用 /compact 更好
🔄 /clear vs /compact 的区别
┌────────────────────────────────────────┐
│ /clear │
│ - 彻底删除所有对话记录 │
│ - AI 完全忘记之前聊了什么 │
│ - 上下文几乎回到 0 │
│ - 适合:换任务、重头来过 │
├────────────────────────────────────────┤
│ /compact │
│ - 压缩对话,保留关键信息摘要 │
│ - AI 还记得"大概聊了什么" │
│ - 上下文显著减少但不归零 │
│ - 适合:继续当前任务但省空间 │
└────────────────────────────────────────┘
3.6 /history — 查看对话历史
📋 基本说明
功能:显示当前会话中的完整对话历史记录
语法:/history
参数:无
🖥️ 实操演示
> /history
=== Conversation History ===
[1] User:
帮我看看 src/auth.py 的代码质量
[2] Assistant:
我来分析一下 src/auth.py ...
(阅读了 src/auth.py)
发现以下问题:
1. login() 函数没有限流
2. 密码没有使用 bcrypt 加密
3. JWT token 没有设置过期时间
...
[3] User:
修复问题 1 和 2
[4] Assistant:
好的,我来修复这两个问题。
(修改了 src/auth.py)
(修改了 requirements.txt — 添加了 bcrypt)
...
[5] User:
/history ← 你在这里
=== End of History (5 messages, 12,345 tokens) ===
💡 使用场景
# 场景1:回顾 AI 做了哪些修改
> /history
# 可以看到完整的对话流程和每一步的操作
# 场景2:写工作日志/周报时回顾
> /history
# 复制关键内容作为开发记录
# 场景3:调试 — AI 的回答不对,看看上下文是什么
> /history
# 检查是否有误导 AI 的对话内容
3.7 /undo — 撤销上一次文件修改 ⭐ 最重要的安全命令
📋 基本说明
功能:撤销 Codex 最近一次对文件的修改,恢复到修改前的状态
语法:/undo
参数:无
🖥️ 实操演示
# AI 修改了文件
> 把 src/config.py 中的数据库连接改成环境变量读取
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)