不是数据不够,是方法论错了

所有人都在想怎么"解决"AI幻觉。我的结论是:解决不了。这不是bug,是归纳法的宿命。

先说结论

AI幻觉不是训练数据不够干净,不是模型不够大,不是RLHF没对齐好。

AI幻觉是归纳推理在非稳态世界中的必然失败。

只要LLM的底层方法论还是"从大量数据中总结规律然后泛化",幻觉就不可能被消除。你可以降低它的频率,但你永远不能把它降到零。

这个结论的理论基础不是我发明的:大卫·休谟在1739年就说过了。我只是把他的论证套到了LLM上,然后发现严丝合缝。

一个你小学就学过的寓言

刻舟求剑。

一个人在船上把剑掉进河里,在船帮上刻了个记号。船靠岸了,他从刻记号的位置下水捞剑。

他的错误是什么?不是他观察得不够仔细,而是他用了一个静态方法去应对一个动态环境。 刻记号的那一刻,位置是对的。但船在动,水在流。记号越精确,错得越自信。

LLM就是那个刻记号的人。

它的训练数据是2024年之前的互联网快照:一张巨大的、精确的、过时的记号。在数据覆盖的范围内,它表现惊人。超出这个范围,它开始编。而它自己不知道边界在哪。

棋局谬误

我在论文里提出了一个概念叫"棋局谬误":

AI下棋能赢所有人类。但棋规永远不变。如果现实世界的规则也永远不变,那就没有人犯法。犯法的人存在,说明世界不是棋局。

这是一个非常简单的逻辑链,但它解释了为什么AI在围棋上超神、在日常对话中犯蠢。

围棋是封闭系统:—规则固定,状态空间有限,信息完整。在封闭系统里,归纳法可以任意逼近最优。所以AlphaGo能碾压所有人类棋手。

现实世界是开放系统:规则会变,信息不完整,参与者可以不遵守规则。在开放系统里,归纳法有不可消除的失败概率。

用封闭系统里的表现去预测开放系统里的表现,这就是棋局谬误。媒体每天都在犯这个错——"AI已经能XXX了,很快就能YYY"。不,XXX是棋局,YYY不是。

飞机上跳一下

在飞机上跳起来,为什么落回原位而不是飞到机尾?

归纳法的回答:在地面上跳也落回原位,所以飞机上也一样。

这个回答碰巧是对的,但理由是错的。

正确的理由是惯性:你和飞机处于同一参照系。这是从物理定律演绎出来的,不是从"地面经验"归纳出来的。

归纳法无法区分"碰巧对"和"必然对"。它只有统计相关性,没有因果模型。

所以当场景足够新太空中跳呢?水里跳呢?加速的列车上跳呢?归纳法的答案开始出错。而LLM不知道自己从什么时候开始错了。

不知道自己不知道。这就是幻觉的精确定义。

更大的模型能解决吗?

不能。

GPT-4的幻觉率低于GPT-3.5,GPT-5低于GPT-4。规模确实能降低幻觉频率。但它改善的是归纳的精度,而不是归纳的本质局限。

给刻舟求剑的人一把更锋利的刀,让他刻得更精确。

刀的精度解决不了船在动的问题。

更多的数据能解决吗?

不能。

RAG(检索增强生成)本质上是给归纳法多加几个刻痕。你从外部数据库拉来了更新的信息,但模型处理这些信息的方式还是归纳:找模式、做泛化。

更多的刻痕不能解决船在动的问题。

RLHF能解决吗?

部分能,但方向不对。

RLHF解决的是"模型知道答案但选择说谎"的场景。这是诚实问题。

幻觉是"模型根本不知道答案但以为自己知道"。这是认知问题。

RLHF治的是不诚实,幻觉的病根是不正确。药不对症。

教育的锅

这里有一个更深层的问题:LLM的训练数据是谁写的?是人类写的。人类是怎么被训练的?是归纳法教育体系训练的。

背公式,记答案,找规律,考高分。这套方法在22岁大学毕业时达到顶峰,之后大多数人用这套归纳法模式度过余生。

这些人写的文本:互联网上的一切,自然反映了归纳法的思维方式。LLM在这些数据上训练,学到的不只是知识,更是思维方式。

归纳法的局限性从教育体系传递到人类作者,再从人类作者传递到训练数据,最终编码进了模型权重。

幻觉是代际遗传的。

那怎么办?

幻觉不可消除,不等于LLM没用。问题是什么时候归纳法够用,什么时候不够。

我在论文里提出了三层框架:

第一层:锚定演绎。 能找到不变的锚点(物理定律、数学公理、逻辑必然性),就从锚点演绎,不从数据归纳。飞机跳跃的问题,从惯性定律演绎,而不是从地面经验归纳。

第二层:概率量化。 找不到确定锚点的问题,别给确定性答案,给概率分布。"80%概率是这个答案"比"答案就是这个"诚实一万倍。

第三层:诚实说不知道。 连概率都估不了的问题,三个字:不知道。

这三个字是当前LLM最缺乏的能力。我在测试中要求某个模型回答"不知道",它用了超过一百个字来论证自己能说"不知道"。

用一百字证明自己会说三个字,本身就是最精确的幻觉样本。

这和开发者有什么关系?

如果你在做AI应用,以下三件事你现在就应该做:

  1. 分清你的场景是棋局还是现实。 如果你的应用场景规则固定、状态可枚举(代码补全、格式转换、固定模板生成),放心用LLM,它在封闭系统里近乎完美。如果规则会变、信息不完整(法律咨询、医疗建议、投资决策),永远不要让LLM单独做最终判断。

  2. 在系统设计中内置"不知道"的能力。 你的AI不需要全知,需要诚实。当置信度低于阈值时,输出"我不确定"而不是编一个看起来像样的答案。用户不怕AI不知道,怕AI装知道。

  3. 用结构化协议替代自然语言Prompt。 自然语言有歧义,歧义给归纳法留空间。结构化指令消除歧义,把AI框在你确定的规则内,减少它自由发挥(也就是自由幻觉)的空间。这也是我做I-Lang协议的原因之一,用结构消除歧义,用协议约束归纳。


本文基于论文《AI幻觉的归纳法困境:为什么当前语言模型无法逃脱框架问题》通俗改写。

论文全文:

  • SSRN: Abstract ID 6377219(审稿中)
  • ResearchGate: DOI 10.13140/RG.2.2.22821.97762

作者:静水流深 | 独立研究者 | I-Lang协议作者 项目:ilang.ai | ilang.cn

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐