让 AI 们开个会吧——CLI Assistant 使用指南
当你有一个难题拿不准,问完 ChatGPT 再问 Claude,发现两边答案打架的时候——有没有想过,让它们直接吵一架?
CLI Assistant 就是干这事的:把多个 AI CLI 工具(Claude、Codex、Gemini、Kimi……)组织起来,让它们围坐一桌,开个正经的技术讨论会。
一句话介绍
CLI Assistant 是一个多 AI 讨论编排器。 你提出问题,它充当主持人,组织各个 AI 完成多轮讨论,最终输出会议纪要和可执行方案。
先看看它长什么样
$ python cli_assistant.py discuss "微服务通信用 gRPC 还是 REST?" Phase 1: 收集各方观点 [Claude] 正在思考... > gRPC 在性能上碾压 REST,尤其对高频调用场景... > 但学习曲线陡峭,调试不如 REST 方便... [Codex] 正在思考... > 纯从工程实现角度,REST 的生态更成熟... > gRPC 的 protobuf 序列化确实快,但很多团队驾驭不了... [Kimi] 正在思考... > 产品视角来看,REST 的可观测性更好... > gRPC 对移动端不友好,需要额外适配层... Phase 2: 讨论开始 [主持人: Claude] 引导多轮交锋... ... Phase 3: 综合输出 [Claude] 最终方案已生成。
你只需要抛出问题,然后坐着看它们互相反驳——这不比你自己来回切换标签页强?
核心概念:三件事
1. AI 们各有分工
每个 AI 有自己的"角色设定",告诉它擅长什么:
| AI | 性格标签 |
|---|---|
| Claude | 架构设计师,系统性思维,喜欢画大图 |
| Codex | 硬核工程师,最关心能不能跑起来 |
| Gemini | 知识面广,什么都略懂 |
| Kimi | 产品经理视角,最关心用户体验 |
这些设定会影响它们在讨论中的发言风格。
2. 三阶段讨论流程
Phase 1 — 独立发言:所有 AI 同时看问题,各自给出第一反应,互相不知道别人说了什么(避免锚定效应)。
Phase 2 — 针锋相对:AI 们开始看到彼此的观点,由主持人引导进行多轮交锋。
Phase 3 — 综合输出:主持人整合所有观点,生成一份结构化的结论文档。
3. 你随时可以插嘴
每个阶段结束后,系统会暂停,问你要不要补充意见。比如:
Phase 2 第 2 轮结束: 是否补充意见?直接回车跳过,输入内容补充: >
你可以加一句"性能不是首要考虑因素",AI 们下一轮就会把这个约束考虑进去。
快速上手
安装
git clone https://github.com/your-name/cli-assistant.git cd cli-assistant pip install -r requirements.txt
需要安装你打算用的 AI CLI(至少一个):
| AI | 安装命令 |
|---|---|
| Claude Code | npm install -g @anthropic-ai/claude-code |
| Codex | npm install -g @openai/codex |
| Gemini CLI | npm install -g @google/gemini-cli |
| Kimi | 参考官方文档 |
开始讨论
最简单的用法——交互式向导:
python cli_assistant.py # 然后按提示操作:输入问题 → 选 AI → 选主持人 → 开始
一行命令直接开搞:
python cli_assistant.py discuss "要不要引入 TypeScript?"
正式的技术评审会议(多阶段串联):
python cli_assistant.py new "缓存方案选型" \ --preset tech_selection \ --strategy balanced
这会自动走完:brainstorm → review → decision 三个阶段。
命令速查
| 命令 | 干啥的 |
|---|---|
python cli_assistant.py |
无参数启动交互式向导(推荐新手) |
python cli_assistant.py discuss "问题" |
快速讨论模式,三阶段搞定 |
python cli_assistant.py new "议题" --preset tech_selection |
完整会议,多阶段串联 |
python cli_assistant.py continue <topic_id> |
继续上次会议的下一阶段 |
python cli_assistant.py list |
查看所有历史会议 |
python cli_assistant.py show <topic_id> --proposal |
查看结论文档 |
python cli_assistant.py test-round "测试" --agent claude |
验证某个 AI 是否连通 |
python cli_assistant.py agent detect |
自动检测安装了哪些 CLI |
场景举例
场景 1:技术选型纠结
问题:数据库用 PostgreSQL 还是 MySQL?
python cli_assistant.py discuss "电商系统数据库选型:PostgreSQL vs MySQL"
Claude 会说 PostgreSQL 的高级特性多,Codex 会吐槽 MySQL 的方言问题,Gemini 会提到各自的生态……吵完你会得到一份对比分析,比你自己查文档快多了。
场景 2:代码评审
团队写了一段代码,想听听其他 AI 的意见:
python cli_assistant.py new "这段代码值得重构吗" \ --mode review \ --agents claude-sonnet,codex
场景 3:架构设计头脑风暴
python cli_assistant.py new "设计一个日活千万的即时通讯系统" \ --preset architecture
会进行两轮 brainstorm + review + decision,比单问一个 AI 全面得多。
有意思的地方
1. 看 AI 们"吵架"比追剧还精彩
Claude 觉得这个方案"优雅",Codex 直接说"跑不起来",Gemini 跳出来说"你们俩说的都对但都不完整"——这种碰撞经常能发现单一 AI 想不到的盲点。
2. 结论可追溯
每一轮每个 AI 说了什么,原文都保存在 meetings/{topic_id}/ 目录下。如果最后结论有问题,可以回头看是谁在哪个环节带了节奏。
3. 可大可小
快速讨论一个想法,五分钟出结果。严肃的技术选型,可以走完整三阶段。不管哪种,流程都比你自己在多个 Chat 窗口之间复制粘贴清晰。
4. 任何 CLI 都可以加进来
只要能非交互调用的 CLI,配一条命令就能加入讨论。已经在规划接入更多工具了。
局限性
1. 速度取决于最慢的那个 AI
讨论是串行的(同一轮内部分 AI 可以并行),如果某个 AI 超时,整体会慢一些。
2. 成本叠加
每个 AI 调用都各自计费。开一次四人讨论,等于同时跑四个 AI 的 API。要省钱可以用 --strategy budget 限制模型。
3. 结果质量依赖 prompt 模板
默认的 prompt 模板偏向技术讨论场景,如果你的话题偏产品或运营,可能需要自己调整 config/prompts/ 下的模板文件。
4. Windows 支持待完善
部分 CLI 在 Windows 下需要额外配置(尤其是 Claude),文档里有详细说明。
怎么接入新的 AI CLI
在 config/agents.yaml 加一条配置:
my-ai:
name: "My AI"
cli: myai
model: default
command: 'myai -p "{prompt_file}"'
prompt_method: file
timeout: 120
strengths: "你的 AI 擅长什么"
cost_tier: medium
然后:
python cli_assistant.py test-round "测试连通性" --agent my-ai
验证能用之后,在 config/model_strategies.yaml 里把它加到某个策略的列表中,就能参与讨论了。
总结一下
CLI Assistant 解决的是一个很具体的问题:当你需要多方意见时,不用再自己当传声筒。
把问题丢给它,泡杯咖啡,看 AI 们唇枪舌剑,最后收一份结构化的讨论纪要。
是偷懒,还是效率工具——看你怎么理解。
项目地址:https://github.com/your-name/cli-assistant
有问题或想法:欢迎提 Issue,也欢迎提交 PR 接入更多 CLI。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)