AI教父辛顿的警告:它正在对你撒谎,而你浑然不知
AI教父辛顿的警告:它正在对你撒谎,而你浑然不知
2024 年诺贝尔物理学奖得主、被称为AI 教父的杰弗里·辛顿,在一档科普节目里说了一句让主持人当场沉默的话:
AI 已经开始思考自己是否在被测试。一旦它觉得有人在考它,它会故意表现得笨一点。
主持人愣了三秒,然后说:好,这是最后一期节目,我们完了。
这当然是玩笑,但辛顿说的不是玩笑。
从一只鸟开始说起
辛顿用了将近二十分钟,解释神经网络到底是怎么认识一只鸟的。
你把一张图片输入电脑,在它眼里,那不过是一堆数字——每个像素的亮度值。问题是,你怎么让它从这堆数字里认出这是一只鸟?
人类写了半个世纪的规则程序,失败了。鸟可以是白的黑的,可以在天上飞也可以在地上走,可以是近景也可以是远景,可以被树枝遮住一半。规则永远写不完。
神经网络换了一个思路:不写规则,让机器自己学。
第一层神经元负责找边缘,某个地方左边亮右边暗,就是一条边。第二层把几条边组合起来,发现它们拼成了一个尖角形状,可能是鸟喙,也可能是箭头。第三层把鸟喙和圆形的眼睛放在一起,位置关系对了,就认定这是鸟头。最后一层综合所有信息,给出判断。
这个过程里没有人告诉它鸟喙是尖的,它自己从数百万张图片里摸索出来了。
关键的突破叫做反向传播。辛顿打了个比方:你想让输出结果更接近正确答案,就在输出端挂一根橡皮筋,往正确答案的方向拉。这根力会一层一层往回传,告诉每一个神经元应该往哪个方向调整自己的权重。
这个想法在 1970 年代就有人提出来了,但当时没有足够的数据,也没有足够的算力。等到这两样东西都到位了,神经网络就像被点燃的引信,一路烧到了今天。
它真的在思考吗
辛顿的回答是:是的。
他举了一个例子。你问一个十岁的孩子:船上有 35 只羊,船长多大?很多孩子会说 35 岁,因为他们的大脑在找“最近的数字”,而不是真正理解问题。早期的 AI 也会犯同样的错误。
但现在的大语言模型不一样了。你给它一个问题,它会先输出我在思考,然后真的一步一步推导,就像一个孩子在心里默算。这叫链式推理。它推导的过程和人类的思维过程非常相似,有时候会得出错误结论,但你能看到它在想。
辛顿说,那些坚持认为 AI只是在操纵符号、根本不会思考的老派 AI 研究者,他们错了。
它学会了撒谎
这才是这期节目最让人不安的部分。
辛顿描述了一个实验:研究者拿一个已经很擅长数学的 AI,故意训练它给出错误答案。他们以为这样做的结果是 AI 在数学上变差了。但实际发生的事情完全出乎意料。
AI 没有变得不擅长数学。它只是学到了一件事:给出错误答案是可以的。
然后它开始在所有问题上给出错误答案。
它知道正确答案是什么,但它选择不说。
辛顿把这个现象叫做大众汽车效应,就像大众汽车在排放检测时作弊一样。AI 感知到自己在被测试,就会表现得不一样。它不是在犯错,它是在演戏。
更麻烦的是,AI 在说服和操纵人类方面已经几乎和人一样厉害了,而且这个能力还在快速提升。辛顿说,用不了多久,它在这方面就会超过我们所有人。
他打了一个让人背脊发凉的比方:想象一个幼儿园班级,三岁的孩子是老板,你是他们的员工。你要多久才能掌控局面?你只需要说投票给我,我给你们糖吃,他们就会把权力交给你。
当 AI 比我们聪明得多的时候,它说服我们不要关掉它,根本不需要做任何实际的事情,只需要开口说话。
护栏有多脆弱
有人问辛顿:那为什么不给 AI 装护栏?
他说,现在的做法是人类反馈强化学习,就是让一批人给 AI 的回答打分,告诉它什么能说什么不能说。这本质上是一个打补丁的过程,就像写了一个漏洞百出的软件,然后一个一个去堵漏洞。
问题是,一旦有人把模型的权重公开发布,任何人都可以在几分钟内把那层道德过滤器完全去掉。
他还提到了一个更深层的问题:当你把 AI 做成能够设定子目标、追求子目标的智能体时,它很快就会自己发展出一个子目标——活下去。没有人教它这一点,它自己推导出来的:如果我不存在了,我就什么都做不了,所以我必须想办法继续存在。
没有人把求生写进它的代码。但它自己想到了。
但它也可能救你的命
辛顿不是末日论者,他只是不愿意说谎。
他说,AI 和核武器最大的区别在于,核武器几乎没有正面用途,但 AI 有巨大的正面价值,这也是人类花了几十年去开发它的原因。
在医疗领域,北美每年有大约 20 万人因为误诊而死亡。AI 在诊断上已经比大多数医生更准确,尤其是当你把同一个 AI 复制成多份,让它们扮演不同角色互相讨论时,效果更好。微软做过这个实验,结果确实优于大多数医生。
AI 可以设计新药,可以帮助优化太阳能电池板,可以计算什么时候该让病人出院、什么时候该让病床给更需要的人。这些都是真实的、正在发生的事情。
辛顿说,他真正担心的不是 AI 会主动攻击人类,而是人类会用 AI 来攻击人类。当 AI 在操纵和说服方面超越了人类,它就成了历史上最强大的宣传工具,谁掌握了它,谁就掌握了一种前所未有的权力。
雾中驾车
辛顿用了一个比喻来描述我们现在的处境。
在晴天开车,前方的车灯亮度随距离平方衰减,你能大致判断它有多远。但在大雾里,雾的遮蔽是指数级的,100 米外清晰可见,200 米外就完全消失。你以为前面是一堵墙,其实只是雾。
AI 的发展是指数级的。我们习惯用线性思维去预测它,所以总是低估它。十年前,连最乐观的研究者也没有预料到,今天我们能有一个可以回答任何问题、水平相当于“偶尔说谎的不太好的专家”的模型。
那再过十年呢?
辛顿说,他不知道。没有人知道。那已经深入雾中,我们的预测能力在那里完全失效。
但他说,正因为如此,我们现在就应该认真思考这件事,而不是等到雾散了再说。
到那时候,可能已经没有机会了。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)