🎮 OpenAI Codex CLI「/斜杠命令」完全操作指南 — 每一个命令都给你讲透!


📌 说明: 本文详细拆解 Codex CLI 交互模式下的全部 / 斜杠命令,每个命令都包含:功能说明、语法格式、参数详解、使用场景、实操示例和注意事项。建议收藏备查。


📑 目录

一、什么是「/斜杠命令」?

在 Codex CLI 的交互模式(直接输入 codex 回车进入)中,除了用自然语言对话,还可以输入以 / 开头的元命令控制 Codex 自身的行为

# 先进入交互模式
cd your-project
codex

# 然后就可以使用 / 命令了
> /help
> /model o3
> /diff

💡 斜杠命令 vs 自然语言的区别

┌─────────────────────────────────────────────────────────┐
│  自然语言输入:                                           │
│  "帮我重构 auth.py"  → 发送给 AI 模型处理                 │
│                                                         │
│  / 斜杠命令:                                             │
│  "/model o3"         → 由 Codex 客户端本地处理            │
│                         不消耗 Token,不发送给 AI          │
└─────────────────────────────────────────────────────────┘

二、命令总览速查表

命令 作用 消耗Token
/help 显示帮助信息
/model 查看/切换模型
/approval 查看/切换审批模式
/context 查看上下文使用情况
/clear 清空对话历史
/history 查看对话历史记录
/undo 撤销上一次文件修改
/diff 查看本次会话所有文件改动
/compact 压缩对话历史,释放上下文窗口 ⚠️ 少量
/bug 提交 Bug 报告
/quit /exit 退出 Codex

三、每个命令详细拆解


3.1 /help — 帮助信息

📋 基本说明
功能:显示所有可用的斜杠命令及简要说明
语法:/help
参数:无
别名:无
🖥️ 实操演示
> /help

Available commands:
  /help       Show this help message
  /model      Show or change the current model
  /approval   Show or change the approval mode
  /context    Show context window usage
  /clear      Clear conversation history
  /history    Show conversation history
  /undo       Undo the last file change
  /diff       Show all file changes in this session
  /compact    Compact conversation history
  /bug        Report a bug
  /quit       Exit Codex
💡 使用建议
✅ 刚开始用 Codex 时第一个敲的命令
✅ 忘记某个命令的名字时查一下
✅ 不消耗任何 Token

3.2 /model — 查看与切换模型

📋 基本说明
功能:查看当前使用的模型 / 实时切换到其他模型
语法:
  /model              ← 查看当前模型
  /model <model_name> ← 切换到指定模型
参数:model_name — 目标模型的名称
🖥️ 实操演示
# 查看当前模型
> /model
Current model: o4-mini

# 切换到 GPT-4.1
> /model gpt-4.1
Model changed to: gpt-4.1 ✓

# 切换到 o3(最强推理)
> /model o3
Model changed to: o3 ✓

# 切换回便宜的模型
> /model o4-mini
Model changed to: o4-mini ✓
🎯 常见模型名称参考
# OpenAI 官方模型
/model o4-mini          # 默认,快速便宜,日常首选
/model o3               # 最强推理,复杂任务用
/model gpt-4.1          # 综合能力强
/model gpt-4.1-mini     # 4.1 的轻量版
/model gpt-4.1-nano     # 最便宜,简单任务用

# 如果配置了其他 Provider
/model deepseek-coder-v2       # Ollama 本地模型
/model claude-sonnet-4    # 通过 OpenRouter
/model gemini-2.5-pro          # Google Gemini
💡 实战场景
# 场景1:先用便宜模型探索,再用强模型精修
> /model o4-mini
> 帮我分析这个项目的架构
# ... 看完分析结果,觉得需要更深入的设计 ...
> /model o3
> 基于刚才的分析,设计一个更好的微服务拆分方案

# 场景2:写注释用便宜的,写核心逻辑用贵的
> /model gpt-4.1-nano
> 给 src/utils.py 的所有函数加上 docstring
> /model gpt-4.1
> 实现 src/auth.py 的 JWT 认证逻辑,注意安全性
⚠️ 注意事项
1. 切换模型后,之前的对话历史会保留在上下文中
2. 不同模型的上下文窗口大小不同,切换后可能需要 /compact
3. 如果模型名称输错,会报错提示
4. 切换模型不会中断当前会话
5. 切换到本地模型(如 Ollama)需要先在配置中设置好 provider

3.3 /approval — 查看与切换审批模式

📋 基本说明
功能:查看当前审批模式 / 实时切换审批权限级别
语法:
  /approval              ← 查看当前模式
  /approval <mode>       ← 切换到指定模式
参数:mode — suggest | auto-edit | full-auto
🖥️ 实操演示
# 查看当前模式
> /approval
Current approval mode: suggest

# 切换到自动编辑
> /approval auto-edit
Approval mode changed to: auto-edit ✓

# 切换到全自动
> /approval full-auto
Approval mode changed to: full-auto ✓
⚠️  Warning: Codex will now automatically execute commands in sandbox.

# 切回保守模式
> /approval suggest
Approval mode changed to: suggest ✓
🎯 三种模式对比
┌──────────────────────────────────────────────────────────┐
│  /approval suggest                                       │
│  ├── 读文件: ✅ 自动                                      │
│  ├── 改文件: ❌ 每次都问你                                 │
│  ├── 跑命令: ❌ 每次都问你                                 │
│  └── 适合:初次接触项目、生产环境、不确定 AI 会干啥时         │
├──────────────────────────────────────────────────────────┤
│  /approval auto-edit                                     │
│  ├── 读文件: ✅ 自动                                      │
│  ├── 改文件: ✅ 自动执行                                   │
│  ├── 跑命令: ❌ 每次都问你                                 │
│  └── 适合:日常开发,信任 AI 改代码但命令要自己把关           │
├──────────────────────────────────────────────────────────┤
│  /approval full-auto                                     │
│  ├── 读文件: ✅ 自动                                      │
│  ├── 改文件: ✅ 自动执行                                   │
│  ├── 跑命令: ✅ 自动执行(沙箱内)                          │
│  └── 适合:有 Git 保底、跑测试修 Bug、自动化流水线           │
└──────────────────────────────────────────────────────────┘
💡 实战场景
# 场景:从保守到激进,逐步放权

# 第一步:先用 suggest 看看 AI 打算怎么改
> /approval suggest
> 优化 src/database.py 的连接池管理
# AI 展示了修改方案,你看了觉得靠谱 ...

# 第二步:切换到 auto-edit 让它动手
> /approval auto-edit
> 按你刚才的方案来改吧
# AI 自动编辑文件 ✓

# 第三步:需要跑测试了,切到 full-auto
> /approval full-auto
> 运行 pytest 确认改动没有破坏已有功能
# AI 自动执行 pytest 并报告结果 ✓
⚠️ 注意事项
1. suggest → auto-edit → full-auto 权限递增,随时可切
2. full-auto 模式下命令在沙箱中运行,但仍需谨慎
3. 建议在有 Git 版本控制的项目中才使用 full-auto
4. 模式切换立即生效,不影响已有对话历史
5. 可以在 config.yaml 中设置默认模式,免得每次手动切

3.4 /context — 查看上下文窗口使用情况

📋 基本说明
功能:显示当前对话消耗了多少上下文窗口(Token 用量)
语法:/context
参数:无
🖥️ 实操演示
> /context

Context window usage:
  Model:           o4-mini
  Max tokens:      128,000
  Used tokens:     23,456  (18.3%)
  Remaining:       104,544 (81.7%)
  
  Breakdown:
    System prompt:   1,200  (0.9%)
    Instructions:      800  (0.6%)
    Conversation:   18,456 (14.4%)
    File contents:   3,000  (2.3%)

  ██████░░░░░░░░░░░░░░░░░░░ 18.3%
💡 实战场景
# 场景1:长时间对话后检查剩余空间
> /context
# 发现已经用了 85%,该压缩了
> /compact

# 场景2:决定是否需要切换到更大上下文的模型
> /context
# 发现 128k 快满了,但任务还没完
> /model gpt-4.1    # 切到支持更大上下文的模型

# 场景3:排查为什么 AI "忘记"了之前的对话
> /context
# 发现上下文已经 95%,早期对话被截断了
> /compact
# 或者 /clear 重新开始
⚠️ 注意事项
1. 上下文窗口满了之后,AI 会"遗忘"最早的对话内容
2. 文件内容(AI 读取的源码)也占用上下文空间
3. 不同模型的上下文窗口大小不同:
   - o4-mini: 128k
   - gpt-4.1: 1M (超大!) 
   - o3: 200k
4. 接近上限时建议用 /compact 压缩或 /clear 重置
5. 项目越大(文件越多),上下文消耗越快

3.5 /clear — 清空对话历史

📋 基本说明
功能:清空当前会话的全部对话历史,回到初始状态
语法:/clear
参数:无
🖥️ 实操演示
# 当前对话已经很长了
> /context
Used tokens: 98,000 (76.6%)

# 清空重来
> /clear
Conversation history cleared. ✓
Starting fresh with system instructions only.

# 验证
> /context
Used tokens: 2,000 (1.6%)    # 只剩系统指令的开销
💡 什么时候该用 /clear
# ✅ 场景1:切换到完全不同的任务
> 帮我写认证模块    # 前面聊了半天认证
> ...
> /clear              # 清掉认证相关的上下文
> 帮我设计数据库表结构  # 全新的任务

# ✅ 场景2:AI 产生了"幻觉",越聊越偏
> /clear              # 直接清空,从头来过

# ✅ 场景3:上下文快满了
> /context            # 95% 了
> /clear              # 清空释放空间

# ❌ 不该用的场景:任务还没做完就 clear
# 如果只是想节省上下文,用 /compact 更好
🔄 /clear vs /compact 的区别
┌────────────────────────────────────────┐
│  /clear                                │
│  - 彻底删除所有对话记录                   │
│  - AI 完全忘记之前聊了什么                │
│  - 上下文几乎回到 0                      │
│  - 适合:换任务、重头来过                  │
├────────────────────────────────────────┤
│  /compact                              │
│  - 压缩对话,保留关键信息摘要              │
│  - AI 还记得"大概聊了什么"               │
│  - 上下文显著减少但不归零                  │
│  - 适合:继续当前任务但省空间              │
└────────────────────────────────────────┘

3.6 /history — 查看对话历史

📋 基本说明
功能:显示当前会话中的完整对话历史记录
语法:/history
参数:无
🖥️ 实操演示
> /history

=== Conversation History ===

[1] User:
    帮我看看 src/auth.py 的代码质量

[2] Assistant:
    我来分析一下 src/auth.py ...
    (阅读了 src/auth.py)
    
    发现以下问题:
    1. login() 函数没有限流
    2. 密码没有使用 bcrypt 加密
    3. JWT token 没有设置过期时间
    ...

[3] User:
    修复问题 12

[4] Assistant:
    好的,我来修复这两个问题。
    (修改了 src/auth.py)
    (修改了 requirements.txt — 添加了 bcrypt)
    ...

[5] User:
    /history    ← 你在这里

=== End of History (5 messages, 12,345 tokens) ===
💡 使用场景
# 场景1:回顾 AI 做了哪些修改
> /history
# 可以看到完整的对话流程和每一步的操作

# 场景2:写工作日志/周报时回顾
> /history
# 复制关键内容作为开发记录

# 场景3:调试 — AI 的回答不对,看看上下文是什么
> /history
# 检查是否有误导 AI 的对话内容

3.7 /undo — 撤销上一次文件修改 ⭐ 最重要的安全命令

📋 基本说明
功能:撤销 Codex 最近一次对文件的修改,恢复到修改前的状态
语法:/undo
参数:无
🖥️ 实操演示
# AI 修改了文件
> 把 src/config.py 中的数据库连接改成环境变量读取
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐