AI 圈怪象:一边造 AI 一边喊危险,怎么做都被骂,到底冤不冤?
最近 AI 圈又吵翻了,Anthropic CEO 达里奥・阿莫迪因为频繁预警 AI 风险,被网友直接比作 “原子弹之父” 奥本海默,争议直接炸锅。
但今天学长想跟大家聊的,不是他像不像奥本海默,而是所有顶尖 AI 大佬都逃不开的死循环:亲手推进前沿技术,又主动提醒风险,结果不管怎么做,都逃不过被质疑、被骂的命运。

事情的导火索,是 X 平台上一条评论。有网友转发了阿莫迪的采访,直言 “看他说话,就能明白杜鲁门为啥讨厌奥本海默”。视频里阿莫迪的观点很明确:我们的大模型已经无限接近人类智能,但整个社会,根本没意识到即将到来的风险。
这话一出,直接分成两派:
- 反对者骂他伪善:一边疯狂研发强 AI,一边装圣人卖焦虑,像奥本海默造完原子弹才说自己 “沾满鲜血”;
- 支持者觉得类比离谱:奥本海默是灾难发生后愧疚,阿莫迪是风险未现就提前预警,出发点完全不一样。
可往深了想,为什么这些站在 AI 最前沿的领袖,无论选哪条路,都会被揪着动机不放?
阿莫迪:坚守红线,反而成了 “供应链威胁”
阿莫迪不是第一次因为 “讲风险” 被针对。
今年 2 月,他直接拒绝了五角大楼 “所有合法用途” 的条款,死守 Anthropic 的两条安全红线。结果直接惹怒美方,国防部长把 Anthropic 标为 “供应链安全威胁”,特朗普更是下令所有联邦机构 6 个月内停用 Claude。
要知道,这个标签向来是针对外部对手的,用在美国本土科技公司身上,史无前例。

阿莫迪在内部备忘录里直白吐槽:公司不被喜欢,无非是没给相关方捐款、不刻意吹捧、支持 AI 监管、坚守安全红线不配合 “演戏”。没过多久,他又为备忘录的语气公开道歉。
你看,坚守原则,会被当成敌人;主动预警风险,会被质疑想抢占道德高地、谋求监管优势。
奥特曼:选择合作,被骂机会主义、背叛立场
如果说阿莫迪是 “硬刚被打压”,那 OpenAI 的奥特曼,就诠释了什么叫 “妥协也挨骂”。
就在 Anthropic 和五角大楼谈崩几小时后,奥特曼直接官宣 OpenAI 与国防部达成合作,还强调和 Anthropic 一样,禁止大规模监控和全自动武器研发。
消息一出,外界直接炸了:
大家觉得,真正重视 AI 安全,就该和 Anthropic 站在一起对抗,而不是被政府当成竞争对手 “逐个击破”。更尴尬的是,OpenAI 员工刚签完公开信声援 Anthropic,转头老板就签了军方合同,员工直呼 “被背叛”。
奥特曼后来也承认,公布协议的时机太草率,看起来像投机取巧。可即便修改了合同条款,外界依旧质疑这些限制,根本没有实际约束力。
哈萨比斯:十年承诺,抵不过世界变化
DeepMind 的哈萨比斯,又是另一种困境。
2014 年谷歌收购 DeepMind 时,承诺技术绝不用于军事;2018 年,哈萨比斯还联合签署公开信,呼吁严控致命自主武器。
可到了 2025 年,谷歌修改 AI 原则,直接删掉了 “不开发军事技术” 的承诺,DeepMind 技术也跟着谷歌云,卖给了多国军方。
面对《时代》周刊 “是否为了 AGI 妥协” 的追问,哈萨比斯回应:地缘政治不确定性加剧,世界变得更危险,不能再想当然认为民主价值会胜出,所以需要和政府合作。
今年 5 月,近 200 名 DeepMind 员工联名反对军事合同,公司却依旧坚持,只承诺不设计部署武器和监控类 AI 应用。
学长说句实在话:这个困局,看似无解,但警告不能停
阿莫迪、奥特曼、哈萨比斯,三位 AI 圈顶流,走了三条完全不同的路,结果全被骂:
- 坚守红线→博眼球、谋私利;
- 妥协合作→伪善、言行不一;
- 改变立场→为钱出卖初心。
根源就在于,他们既是技术开发者,又是安全倡导者,身份自带矛盾,每一句风险提醒,都会被解读成 “为自己公司牟利”。
但学长觉得,哪怕争议不断、被误解、被攻击,这些大佬依旧选择提前预警,远比等灾难发生后再放马后炮,要负责任得多。
技术从来都是双刃剑,AI 走到今天,早已不是几家公司的事,而是全人类的命题。比起纠结大佬们的动机,更该关注的,是如何真正守住 AI 的安全底线。

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)