8种麻将规则全对比:四川、长沙、广东、红中、日麻、国标、香港、台湾到底有啥区别?
中国各地的麻将规则差异巨大,经常出现"回老家打麻将发现规则完全不同"的窘境。作为一个做了大半年牌类AI的开发者,我刚好把主流的8种规则都跑了一遍训练,这里从规则、策略、AI训练难度三个维度做一次全面对比。
一、8种规则速览
| 规则 | 地区 | 张数 | 能吃牌? | 核心特色 | 人类入门难度 | AI训练难度 |
|---|---|---|---|---|---|---|
| 四川麻将(血战到底) | 四川/重庆 | 108张(无字牌) | 不能吃 | 定缺+血战到底 | 中 | 高 |
| 广东麻将(推倒胡) | 广东 | 136张 | 能吃 | 无番限制,胡了就行 | 低 | 低 |
| 长沙麻将 | 湖南 | 136张 | 能吃 | 将牌(2/5/8)+小胡自摸 | 中 | 中 |
| 红中麻将 | 全国 | 136张 | 能吃 | 红中为癞子万能牌 | 中 | 中 |
| 日本麻将(立直) | 日本/国际 | 136张 | 能吃 | 复杂番种+立直+里宝牌 | 高 | 极高 |
| 国标麻将(MCR) | 国际竞技 | 136张 | 能吃 | 81种番种+8番起胡 | 高 | 高 |
| 香港麻将 | 香港 | 136张 | 能吃 | 清一色/对对胡等经典番 | 中 | 中 |
| 台湾麻将 | 台湾 | 144张(含花牌) | 能吃 | 16张手牌+台湾特色番 | 中高 | 中 |
二、逐一详解
2.1 四川麻将(血战到底)
核心规则:
- 去掉所有字牌(东南西北中发白),只用万、条、筒共108张
- 开局必须定缺:选一个花色,该花色的牌必须全部打出才能胡
- 不能吃牌,只能碰和杠
- 血战到底:一人胡了不结束,继续打直到只剩一人
AI视角: 定缺选择是胜负关键。我的实现是在开局时对三个花色分别计算"有效进张数"和"组合潜力分",取最低的花色定缺。实测定缺准确率约92%。
2.2 广东麻将(推倒胡)
核心规则:
- 标准136张,含字牌
- 无番限制,凑齐胡牌牌型就可以胡
- 可以吃、碰、杠
- 自摸加倍
AI视角: 因为没有番数门槛,策略核心就是速度——最短路径胡牌。训练时只用win/loss二元reward就能收敛得很快,是所有规则里最容易训练的。
新手建议:如果你是麻将新手,从广东推倒胡开始学,规则最简单。
2.3 长沙麻将
核心规则:
- 标准136张
- 将牌概念:2、5、8为将牌,胡牌时将头是2/5/8可以加番
- 小胡自摸:平胡等小番型只能自摸
- 大胡可点炮:碰碰胡、清一色等大番可以点炮胡
- 独特番种:六六顺、碰碰胡、全求人等
AI视角: 难点在于小胡/大胡的路线判断。中盘时AI需要动态评估当前手牌走小胡自摸的期望值 vs 搏大胡的期望值。我的做法是用一个value network同时估计两条路线的EV,取高的走。
2.4 红中麻将
核心规则:
- 标准136张
- 红中是癞子(万能牌),可以替代任何一张牌
- 通常只能自摸胡
- 有红中的牌型比没有红中的番数低
AI视角: 红中的存在让状态空间膨胀了一个数量级——每张红中都要枚举它替代哪张牌最优。我的处理是把红中的替代计算单独抽成一个子模块,在出牌决策前先算好红中的最优分配。
2.5 日本麻将(立直/Riichi)
核心规则:
- 标准136张
- 立直:门清听牌时可宣告立直,增加番数但不能换牌
- 宝牌/里宝牌:翻开指示牌后对应的牌加番
- 振听规则:自己打出过的牌不能荣和(点炮胡)
- 番种体系极复杂,数十种役
AI视角: 日麻是8种规则里AI训练难度最高的。振听规则需要AI记住所有历史弃牌;立直决策是一个高风险高回报的博弈点(立直后手牌锁定);宝牌的期望值计算需要精确的概率模型。微软Suphx在这个规则上做到了天凤十段,用的是GRP(全局奖励预测)方法。
2.6 国标麻将(MCR)
核心规则:
- 标准136张
- 81种番种,从1番到88番
- 8番起胡:手牌总番数达到8番才能胡
- 国际麻将竞技的标准规则
AI视角: 81种番种的组合优化是巨大的搜索空间。关键trick是不去枚举所有可能的番种组合,而是维护一个"距离向量"——当前手牌距离每种高价值番型还差几张牌——然后贪心地向最近的高番方向靠拢。
2.7 香港麻将
核心规则:
- 标准136张
- 经典番种:清一色、对对胡、混一色、大三元等
- 起胡一般要求3番
- 规则相对传统,保留最多古典番种
AI视角: 和广东麻将类似但多了番数门槛,AI需要在速度和番数之间权衡。训练时用实际得分(而非二元胜负)做reward效果更好。
2.8 台湾麻将
核心规则:
- 144张(含8张花牌)
- 16张手牌(比大陆的13张多3张)
- 花牌自动补牌,摸到花牌算运气加成
- 台湾特色番种
AI视角: 16张手牌意味着组合可能性指数级增长。状态编码需要扩展,网络容量也要相应增大。花牌引入的随机性使得策略评估的方差更大。
三、AI训练难度排行
从实际训练经验排序(收敛所需的自对弈局数):
训练难度从低到高:
1. 广东推倒胡 ~500万局
2. 香港麻将 ~800万局
3. 长沙麻将 ~1200万局
4. 红中麻将 ~1500万局
5. 台湾麻将 ~2000万局
6. 四川血战 ~2500万局
7. 国标麻将 ~3000万局
8. 日本麻将 ~5000万局+
日麻的训练量是广东麻将的10倍——这就是信息复杂度的代价。
四、跨规则迁移实验
一个有意思的发现:在四川麻将上训练好的模型,直接放到广东麻将下对弈,胜率只有38%。
原因是策略取向完全不同:
- 四川:AI学会了极度追求速度(因为血战到底,越早胡越有利)
- 广东:虽然也追求速度,但吃碰的使用策略完全不同(四川不能吃)
不过底层的"牌面推断"能力(从弃牌推断对手手牌)是可以迁移的。用共享LSTM编码器+规则专属决策头的多任务架构,新规则的训练效率能提升约40%。
五、新手学习路线建议
广东推倒胡(入门,理解胡牌基本逻辑)
↓
长沙麻将(加入番种和将牌概念)
↓
四川血战(理解定缺和血战到底的策略深度)
↓
红中 / 香港(扩展变体理解)
↓
日麻 / 国标(进阶竞技水平)
六、总结
| 如果你想… | 推荐规则 |
|---|---|
| 快速入门 | 广东推倒胡 |
| 回湖南老家打牌 | 长沙麻将 |
| 和四川朋友打 | 四川血战 |
| 玩点国际范 | 日本麻将 |
| 参加比赛 | 国标麻将 |
| 随便玩玩 | 红中麻将 |
做了这么多规则的AI之后,最大的感悟是:麻将不是一种游戏,而是一个游戏家族。每种规则背后都是一个独立的策略世界。如果你也在研究牌类AI或博弈算法,欢迎评论区交流。
参考文献:
- Li et al., “Suphx: Mastering Mahjong with Deep Reinforcement Learning”, 2020
- Zha et al., “DouZero: Mastering DouDiZhu with Self-Play Deep Reinforcement Learning”, ICML 2021
- 中国国家体育总局棋牌运动管理中心, “中国麻将竞赛规则”, 1998
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)