中国各地的麻将规则差异巨大,经常出现"回老家打麻将发现规则完全不同"的窘境。作为一个做了大半年牌类AI的开发者,我刚好把主流的8种规则都跑了一遍训练,这里从规则、策略、AI训练难度三个维度做一次全面对比。

一、8种规则速览

规则 地区 张数 能吃牌? 核心特色 人类入门难度 AI训练难度
四川麻将(血战到底) 四川/重庆 108张(无字牌) 不能吃 定缺+血战到底
广东麻将(推倒胡) 广东 136张 能吃 无番限制,胡了就行
长沙麻将 湖南 136张 能吃 将牌(2/5/8)+小胡自摸
红中麻将 全国 136张 能吃 红中为癞子万能牌
日本麻将(立直) 日本/国际 136张 能吃 复杂番种+立直+里宝牌 极高
国标麻将(MCR) 国际竞技 136张 能吃 81种番种+8番起胡
香港麻将 香港 136张 能吃 清一色/对对胡等经典番
台湾麻将 台湾 144张(含花牌) 能吃 16张手牌+台湾特色番 中高

二、逐一详解

2.1 四川麻将(血战到底)

核心规则:

  • 去掉所有字牌(东南西北中发白),只用万、条、筒共108张
  • 开局必须定缺:选一个花色,该花色的牌必须全部打出才能胡
  • 不能吃牌,只能碰和杠
  • 血战到底:一人胡了不结束,继续打直到只剩一人

AI视角: 定缺选择是胜负关键。我的实现是在开局时对三个花色分别计算"有效进张数"和"组合潜力分",取最低的花色定缺。实测定缺准确率约92%。

2.2 广东麻将(推倒胡)

核心规则:

  • 标准136张,含字牌
  • 无番限制,凑齐胡牌牌型就可以胡
  • 可以吃、碰、杠
  • 自摸加倍

AI视角: 因为没有番数门槛,策略核心就是速度——最短路径胡牌。训练时只用win/loss二元reward就能收敛得很快,是所有规则里最容易训练的。

新手建议:如果你是麻将新手,从广东推倒胡开始学,规则最简单。

2.3 长沙麻将

核心规则:

  • 标准136张
  • 将牌概念:2、5、8为将牌,胡牌时将头是2/5/8可以加番
  • 小胡自摸:平胡等小番型只能自摸
  • 大胡可点炮:碰碰胡、清一色等大番可以点炮胡
  • 独特番种:六六顺、碰碰胡、全求人等

AI视角: 难点在于小胡/大胡的路线判断。中盘时AI需要动态评估当前手牌走小胡自摸的期望值 vs 搏大胡的期望值。我的做法是用一个value network同时估计两条路线的EV,取高的走。

2.4 红中麻将

核心规则:

  • 标准136张
  • 红中是癞子(万能牌),可以替代任何一张牌
  • 通常只能自摸胡
  • 有红中的牌型比没有红中的番数低

AI视角: 红中的存在让状态空间膨胀了一个数量级——每张红中都要枚举它替代哪张牌最优。我的处理是把红中的替代计算单独抽成一个子模块,在出牌决策前先算好红中的最优分配。

2.5 日本麻将(立直/Riichi)

核心规则:

  • 标准136张
  • 立直:门清听牌时可宣告立直,增加番数但不能换牌
  • 宝牌/里宝牌:翻开指示牌后对应的牌加番
  • 振听规则:自己打出过的牌不能荣和(点炮胡)
  • 番种体系极复杂,数十种役

AI视角: 日麻是8种规则里AI训练难度最高的。振听规则需要AI记住所有历史弃牌;立直决策是一个高风险高回报的博弈点(立直后手牌锁定);宝牌的期望值计算需要精确的概率模型。微软Suphx在这个规则上做到了天凤十段,用的是GRP(全局奖励预测)方法。

2.6 国标麻将(MCR)

核心规则:

  • 标准136张
  • 81种番种,从1番到88番
  • 8番起胡:手牌总番数达到8番才能胡
  • 国际麻将竞技的标准规则

AI视角: 81种番种的组合优化是巨大的搜索空间。关键trick是不去枚举所有可能的番种组合,而是维护一个"距离向量"——当前手牌距离每种高价值番型还差几张牌——然后贪心地向最近的高番方向靠拢。

2.7 香港麻将

核心规则:

  • 标准136张
  • 经典番种:清一色、对对胡、混一色、大三元等
  • 起胡一般要求3番
  • 规则相对传统,保留最多古典番种

AI视角: 和广东麻将类似但多了番数门槛,AI需要在速度和番数之间权衡。训练时用实际得分(而非二元胜负)做reward效果更好。

2.8 台湾麻将

核心规则:

  • 144张(含8张花牌)
  • 16张手牌(比大陆的13张多3张)
  • 花牌自动补牌,摸到花牌算运气加成
  • 台湾特色番种

AI视角: 16张手牌意味着组合可能性指数级增长。状态编码需要扩展,网络容量也要相应增大。花牌引入的随机性使得策略评估的方差更大。

三、AI训练难度排行

从实际训练经验排序(收敛所需的自对弈局数):

训练难度从低到高:
1. 广东推倒胡  ~500万局
2. 香港麻将    ~800万局
3. 长沙麻将    ~1200万局
4. 红中麻将    ~1500万局
5. 台湾麻将    ~2000万局
6. 四川血战    ~2500万局
7. 国标麻将    ~3000万局
8. 日本麻将    ~5000万局+

日麻的训练量是广东麻将的10倍——这就是信息复杂度的代价。

四、跨规则迁移实验

一个有意思的发现:在四川麻将上训练好的模型,直接放到广东麻将下对弈,胜率只有38%。

原因是策略取向完全不同:

  • 四川:AI学会了极度追求速度(因为血战到底,越早胡越有利)
  • 广东:虽然也追求速度,但吃碰的使用策略完全不同(四川不能吃)

不过底层的"牌面推断"能力(从弃牌推断对手手牌)是可以迁移的。用共享LSTM编码器+规则专属决策头的多任务架构,新规则的训练效率能提升约40%。

五、新手学习路线建议

广东推倒胡(入门,理解胡牌基本逻辑)
    ↓
长沙麻将(加入番种和将牌概念)
    ↓
四川血战(理解定缺和血战到底的策略深度)
    ↓
红中 / 香港(扩展变体理解)
    ↓
日麻 / 国标(进阶竞技水平)

六、总结

如果你想… 推荐规则
快速入门 广东推倒胡
回湖南老家打牌 长沙麻将
和四川朋友打 四川血战
玩点国际范 日本麻将
参加比赛 国标麻将
随便玩玩 红中麻将

做了这么多规则的AI之后,最大的感悟是:麻将不是一种游戏,而是一个游戏家族。每种规则背后都是一个独立的策略世界。如果你也在研究牌类AI或博弈算法,欢迎评论区交流。

参考文献:

  • Li et al., “Suphx: Mastering Mahjong with Deep Reinforcement Learning”, 2020
  • Zha et al., “DouZero: Mastering DouDiZhu with Self-Play Deep Reinforcement Learning”, ICML 2021
  • 中国国家体育总局棋牌运动管理中心, “中国麻将竞赛规则”, 1998
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐