当你有一个难题拿不准,问完 ChatGPT 再问 Claude,发现两边答案打架的时候——有没有想过,让它们直接吵一架?

CLI Assistant 就是干这事的:把多个 AI CLI 工具(Claude、Codex、Gemini、Kimi……)组织起来,让它们围坐一桌,开个正经的技术讨论会。

一句话介绍

CLI Assistant 是一个多 AI 讨论编排器。 你提出问题,它充当主持人,组织各个 AI 完成多轮讨论,最终输出会议纪要和可执行方案。


先看看它长什么样

$ python cli_assistant.py discuss "微服务通信用 gRPC 还是 REST?"
​
Phase 1: 收集各方观点
[Claude] 正在思考...
> gRPC 在性能上碾压 REST,尤其对高频调用场景...
> 但学习曲线陡峭,调试不如 REST 方便...
​
[Codex] 正在思考...
> 纯从工程实现角度,REST 的生态更成熟...
> gRPC 的 protobuf 序列化确实快,但很多团队驾驭不了...
​
[Kimi] 正在思考...
> 产品视角来看,REST 的可观测性更好...
> gRPC 对移动端不友好,需要额外适配层...
​
Phase 2: 讨论开始
[主持人: Claude] 引导多轮交锋...
...
Phase 3: 综合输出
[Claude] 最终方案已生成。

你只需要抛出问题,然后坐着看它们互相反驳——这不比你自己来回切换标签页强?


核心概念:三件事

1. AI 们各有分工

每个 AI 有自己的"角色设定",告诉它擅长什么:

AI 性格标签
Claude 架构设计师,系统性思维,喜欢画大图
Codex 硬核工程师,最关心能不能跑起来
Gemini 知识面广,什么都略懂
Kimi 产品经理视角,最关心用户体验

这些设定会影响它们在讨论中的发言风格。

2. 三阶段讨论流程

Phase 1 — 独立发言:所有 AI 同时看问题,各自给出第一反应,互相不知道别人说了什么(避免锚定效应)。

Phase 2 — 针锋相对:AI 们开始看到彼此的观点,由主持人引导进行多轮交锋。

Phase 3 — 综合输出:主持人整合所有观点,生成一份结构化的结论文档。

3. 你随时可以插嘴

每个阶段结束后,系统会暂停,问你要不要补充意见。比如:

Phase 2 第 2 轮结束:
是否补充意见?直接回车跳过,输入内容补充:
>

你可以加一句"性能不是首要考虑因素",AI 们下一轮就会把这个约束考虑进去。


快速上手

安装

git clone https://github.com/your-name/cli-assistant.git
cd cli-assistant
pip install -r requirements.txt

需要安装你打算用的 AI CLI(至少一个):

AI 安装命令
Claude Code npm install -g @anthropic-ai/claude-code
Codex npm install -g @openai/codex
Gemini CLI npm install -g @google/gemini-cli
Kimi 参考官方文档

开始讨论

最简单的用法——交互式向导

python cli_assistant.py
# 然后按提示操作:输入问题 → 选 AI → 选主持人 → 开始

一行命令直接开搞

python cli_assistant.py discuss "要不要引入 TypeScript?"

正式的技术评审会议(多阶段串联):

python cli_assistant.py new "缓存方案选型" \
  --preset tech_selection \
  --strategy balanced

这会自动走完:brainstorm → review → decision 三个阶段。


命令速查

命令 干啥的
python cli_assistant.py 无参数启动交互式向导(推荐新手)
python cli_assistant.py discuss "问题" 快速讨论模式,三阶段搞定
python cli_assistant.py new "议题" --preset tech_selection 完整会议,多阶段串联
python cli_assistant.py continue <topic_id> 继续上次会议的下一阶段
python cli_assistant.py list 查看所有历史会议
python cli_assistant.py show <topic_id> --proposal 查看结论文档
python cli_assistant.py test-round "测试" --agent claude 验证某个 AI 是否连通
python cli_assistant.py agent detect 自动检测安装了哪些 CLI

场景举例

场景 1:技术选型纠结

问题:数据库用 PostgreSQL 还是 MySQL?

python cli_assistant.py discuss "电商系统数据库选型:PostgreSQL vs MySQL"

Claude 会说 PostgreSQL 的高级特性多,Codex 会吐槽 MySQL 的方言问题,Gemini 会提到各自的生态……吵完你会得到一份对比分析,比你自己查文档快多了。

场景 2:代码评审

团队写了一段代码,想听听其他 AI 的意见:

python cli_assistant.py new "这段代码值得重构吗" \
  --mode review \
  --agents claude-sonnet,codex

场景 3:架构设计头脑风暴

python cli_assistant.py new "设计一个日活千万的即时通讯系统" \
  --preset architecture

会进行两轮 brainstorm + review + decision,比单问一个 AI 全面得多。


有意思的地方

1. 看 AI 们"吵架"比追剧还精彩

Claude 觉得这个方案"优雅",Codex 直接说"跑不起来",Gemini 跳出来说"你们俩说的都对但都不完整"——这种碰撞经常能发现单一 AI 想不到的盲点。

2. 结论可追溯

每一轮每个 AI 说了什么,原文都保存在 meetings/{topic_id}/ 目录下。如果最后结论有问题,可以回头看是谁在哪个环节带了节奏。

3. 可大可小

快速讨论一个想法,五分钟出结果。严肃的技术选型,可以走完整三阶段。不管哪种,流程都比你自己在多个 Chat 窗口之间复制粘贴清晰。

4. 任何 CLI 都可以加进来

只要能非交互调用的 CLI,配一条命令就能加入讨论。已经在规划接入更多工具了。


局限性

1. 速度取决于最慢的那个 AI

讨论是串行的(同一轮内部分 AI 可以并行),如果某个 AI 超时,整体会慢一些。

2. 成本叠加

每个 AI 调用都各自计费。开一次四人讨论,等于同时跑四个 AI 的 API。要省钱可以用 --strategy budget 限制模型。

3. 结果质量依赖 prompt 模板

默认的 prompt 模板偏向技术讨论场景,如果你的话题偏产品或运营,可能需要自己调整 config/prompts/ 下的模板文件。

4. Windows 支持待完善

部分 CLI 在 Windows 下需要额外配置(尤其是 Claude),文档里有详细说明。


怎么接入新的 AI CLI

config/agents.yaml 加一条配置:

my-ai:
  name: "My AI"
  cli: myai
  model: default
  command: 'myai -p "{prompt_file}"'
  prompt_method: file
  timeout: 120
  strengths: "你的 AI 擅长什么"
  cost_tier: medium

然后:

python cli_assistant.py test-round "测试连通性" --agent my-ai

验证能用之后,在 config/model_strategies.yaml 里把它加到某个策略的列表中,就能参与讨论了。


总结一下

CLI Assistant 解决的是一个很具体的问题:当你需要多方意见时,不用再自己当传声筒

把问题丢给它,泡杯咖啡,看 AI 们唇枪舌剑,最后收一份结构化的讨论纪要。

是偷懒,还是效率工具——看你怎么理解。


项目地址https://github.com/your-name/cli-assistant

有问题或想法:欢迎提 Issue,也欢迎提交 PR 接入更多 CLI。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐