敢问路在何方

我越来越觉得,我们这一代人也许正站在一个分水岭上。而我学的专业,也就是计算机,更像是直面时代洪流的最前沿战线,我没有伟人中流击水,浪遏飞舟的魄力,只是感觉到深深的迷茫。

过去很多默认成立的东西——关于能力的定义、学好一个专业技术就能走向未来的想象,都在 AI 的冲击下开始变得不再稳固。尤其是当我一次次真实地接触这些工具之后,我发现那种不安并不是凭空而来的:因为它正在一点点侵入过去只有人才能完成的工作结构。

也正因如此,我想仔细思索几个问题:AI 究竟是什么?它真正强在何处,又弱在何处?它会怎样改变社会原有的价值分配方式?而像我这样一个还没有真正进入社会的计算机学生,又该如何在这场变化中重新寻找自己的位置?

本文也主要围绕这几个问题展开

一、AI的原理

如果要用最经典的方式概括大语言模型的训练任务,其实可以写成一个非常朴素的公式:
P(下一个 token|前文)

说得直白一点,就是根据前文,从无数可能的候选项里,选择最有可能出现的下一个 token。就数学形式而言,这似乎只是一个条件概率问题;但当这个任务被放大到海量数据、巨大参数规模和复杂训练机制之后,它所表现出的能力,已经远远不只是像成语接龙这么简单。

我一直不太认同一种流行说法:把大语言模型说成是“只会统计词频,没有逻辑,LLM只是概率模型”。这种说法太粗糙了。在我的理解下语言从来不只是人说出来的话,它本身就是思维的一种外在承载方式。人类很多逻辑、因果、抽象、归纳,最后都要借助语言结构来表达。换句话说,语言并不是思维的全部,但至少是思维非常重要的一层表征。既然语言模型是在大规模语言数据上学习结构,那么它学到的当然不可能只是单纯的词语搭配,必然还包括大量常见的逻辑链条、表达模式和推理习惯。比如“因为……所以……”“如果……那么……”“先定义问题,再分析条件,再给出结论”,这些都是语言中早已沉淀下来的思维结构。

所以我认为,大模型并不能简单地被理解成一只只会学人说话的鹦鹉。它当然不等于人类的严谨理性,也未必拥有真正意义上的理解,但它至少已经通过对语言的建模,学会了相当一部分人类社会中可被语言承载的思维模式。这也是为什么它的表现会让人感到不安:它看起来不像传统工具那样只会执行命令,而更像是在某些层面上,开始逼近过去被我们视为智能的那部分工作。

二、AI的优势

AI 最显而易见的优势,我认为是效率。

人类解决问题,需要调动注意力、记忆、体力和情绪状态,需要休息,需要吃饭,需要克服拖延、厌烦和分心。而 AI 不需要。它不知疲倦,不会闹情绪,也不会因为昨晚没睡好而影响今天的输出质量。只要电力和算力允许,它就能持续地工作。

更重要的是,它在信息处理上的效率几乎是碾压式的。检索、归纳、摘要、改写、对比、组合、生成,这些本来需要大量时间的工作,在 AI 面前都可以被极大压缩。通过RAG向量化、检索增强、网页搜索、工具调用等技术,它不仅能快速接触大量信息,还能把不同来源、不同领域的内容拼接成一个看起来连贯的回答。单纯从“获取信息”和“初步整合信息”的效率看,人类几乎没有可比性。

但在我看来,如果 AI 只是停留在“聊天助手”阶段,它其实还没有真正具备大规模替代高薪白领工作的能力。它可以辅助你,却未必能独立承担完整责任。真正让我感到迷茫的,并不是所谓的AI聊天助手,而是能形成闭环的 AI 系统。

当一个模型架构不仅能回答问题,还能规划任务、自动写代码、运行测试、定位报错、修复 bug、继续迭代,再配合 MCP 之类的工具体系去调动外部程序、操作软件、读取环境、完成反馈,那么事情就彻底变了。因为很多过去被认为“需要专业人员反复参与”的脑力劳动,本质上也不过是在一个相对固定的流程中不断循环:理解需求、拆分任务、执行、检查、修补、交付。只要这个流程足够形式化,足够可拆解,理论上就存在被 AI 闭环系统接管的可能。

我自己在实际使用类似 Codex 这样的工具时,最强烈的感受并不是它真的有多聪明,而是它已经开始具备替代人的雏形了。这和过去那种AI 给你一些建议,最终还得你自己完成的感觉不一样。过去它像助手,现在它像一个能够独立推进任务的执行体。再加上像 OpenClaw 这种更深地嵌入操作系统、能够结合多种工具自动调用软件、自动反馈结果的系统,某些办公和软件开发流程被重塑,已经不再只是想象。

这才是我真正感到危险的地方。当AI开始能够通过一系列协议与架构感知世界,完成任务,那我作为人的价值又在哪

三、AI的弱点仍然存在

说了这么多 AI 的优势,也必须谈谈它的弱点。

在我的认知里,AI 的弱点主要有两类。

第一类,结构性的弱点

大语言模型说到底,仍然是从海量数据中,通过语言这一表征形式学习出来的系统。它擅长的是从既有数据中抽取模式、重组结构、模拟风格,而不是真正意义上从第一性原理出发建立严格无误的推理系统。它可以看起来很像会思考,但像不等于是。很难用一个词汇去表示这种差别,我想来想去,还是觉得自觉性比较恰当,模型的思考缺少自觉性。

我甚至有一个还不确定是否完全正确的想法:AI 所学习的数据来源,本身质量就是极其不均匀的。一个逻辑大师说过的话,一个顶级研究者写过的论文,一个普通大学生在论坛上的发言,都会共同进入这个巨大的语料池。那在这种情况下,模型学到的能力,必然是一种混合产物。它会综合不同层次的数据,得到一个非常强的平均表现,但这种平均,并不自动意味着它能稳定达到最顶级思维者的水准。

换句话说,我不认为一个建立在海量异质数据之上的大模型,可以理所当然地拥有超越最顶尖人类的严谨思辨能力。它很可能会强于大多数普通人,但它未必真的能在所有高精度、高一致性的推理任务中压过真正的顶尖专家。

不过问题也在于此,即便达不到,这也已经足够可怕了。因为现实社会并不需要每个人都达到逻辑大师的水平。相反,社会上的大多数工作,本来也不是给顶级思想家准备的,而是由大量“能力在正态分布中部偏上”的人完成的。如果 AI 可以轻松抵达这个位置,甚至更高,那么它带来的冲击就已经足够巨大。人类似乎在极限思维能力这件事上还保留一点优势,但在现实的就业竞争里,决定命运的往往不是极限,而是均值。

第二类,数据不足和任务特异性导致的弱点

还有一类 AI 不擅长的问题,是那些数据稀缺、任务特定、输出要求极强约束的领域。

举一个我比较关心的例子:脑科学。比如我们希望根据某些神经信号、脑电数据、fMRI 信息去研究人脑对刺激的响应结构。这类问题的特点是:数据量小、噪声大、个体差异显著、实验条件复杂、领域知识要求高。你不能指望把一个人的脑信号文件扔给通用大语言模型,它就直接帮你还原出此人刚刚看见了什么图像,或者精确解释这一段信号背后的认知机制。不是因为它不智能,而是因为它根本没有足够同类数据去支撑这种映射,也没有必要用一个面向通用语言任务的大模型去强行完成这么特化的工作。

这也是我觉得很多人会忽略的一点:并不是 token 足够便宜,模型足够大,就意味着所有任务都值得被统一收编。很多问题并不需要一个庞大的通用智能,而更需要一个针对具体数据结构、具体目标函数、具体实验范式精细设计的模型。通用模型的进步不等于在一切场景下都划算

此外,多模态与现实世界之间的深层连接仍然是一个巨大难题。尤其是涉及精密物理交互、长链条因果验证、严格实验反馈的领域,AI 目前还远没有强到可以一脚踏平所有障碍。机器人、VLA、具身智能这些方向都还在慢慢探索,进度比我想象的要慢。

所以我认为,那些和真实世界强相关、无法彻底被信息化抽象的行业,整体上会比纯互联网、纯文档流、纯标准化脑力劳动更晚被淘汰。

四、问题最终还是会落回我自己:那我还能处于什么位置?

说完 AI 的能力与边界,真正困扰我的问题才刚刚开始:
那我怎么办?

作为一个大二的学生。未来这件事,对我来说不是宏大叙事,而是非常具体的生存问题。几年之后,我要进入社会,要找工作,要在价值链里找到自己的位置。可偏偏我所学的专业,又恰好处在这场技术洪流的正中央。这种感觉其实很微妙:你明明知道自己学的东西很可能会被 AI 轻松替代甚至超越,但你还是必须继续学下去。因为除了向前走,你似乎也没有更体面的退路。

在我的理解里,一个人想在社会中获得报酬,本质上是因为他创造了价值,而价值最终可以被货币衡量。粗略地说,创造价值有两种主要途径。

第一种,是帮助他人创造价值
这类人的定位,更像是一种高效工具,参与既定流程,完成明确任务,为系统增添执行力。很多白领岗位、软件开发岗位,本质上都偏向这一类。

第二种,是发现价值、定义价值、组织价值
这类人的角色更像产品经理、创业者、决策者,或者某种意义上的资源整合者。他们不只是执行流程,而是在一定程度上参与决定“做什么”“为什么做”“为谁做”“怎么让这件事产生更大回报”。

如果按这个划分来看,第一类岗位在过去市场需求很大,但在 AI 时代也最危险。因为当你的主要功能是作为工具嵌入一个流程中时,你就必须接受一个残酷事实:工具是会被更高效的工具替代的。第二类岗位受到的直接冲击可能更小,甚至还会因为 AI 的存在而获得更强杠杆。但问题又来了:第二类岗位从来不是一个应届生可以轻易占据的位置。市场不会突然需要一大批刚毕业、没有经验、没有资源、没有市场感知的“价值定义者”。在 AI 时代,这个门槛甚至可能更高。

所以从这个角度看,我对自己的判断其实并不乐观。作为一个还没进入职场、缺乏行业经验、离市场很远的学生,我很难说自己有什么天然竞争力。有时候甚至会觉得,自己的竞争力之弱,仿佛只能和路边的大黄共享同一个饭碗。

五、那未来还有哪些方向值得押注?

虽然局势不算乐观,但也并非完全没有希望。至少目前看,我觉得还有几类方向相对值得关注。

1. 继续往上游走,进入AI本身的设计与研究

如果说大量“应用层执行工作”会被越来越强的 AI 系统吞掉,那么相对上游的模型设计、算法研究、系统架构、训练方法、数据工程等方向,至少短期内仍然有较强需求。AI 目前还没有真正实现自我迭代意义上的完全闭环,研究和推动 AI 本身发展的人,暂时还不会失去价值。

当然这条路也会很卷,而且会越来越卷。因为所有人都知道这地方相对更安全,所以自然会涌进去。但即便如此,这仍然是计算机领域里最有确定性的一条高价值路径之一。

2. 做交叉领域,尤其是AI+强行业知识的方向

我越来越觉得,单纯做“纯技术执行层”的风险会越来越高,而那些需要同时理解技术与领域知识的问题,价值会更好一些。比如 AI+医学、AI+脑科学、AI+材料、AI+教育、AI+工业场景等。这些方向之所以有意义是因为它们的真正门槛在于:你不只要会调模型,还得理解行业本身的问题结构、评价标准、现实约束和真实需求。

这种复合能力不会让你彻底免疫被替代,但至少能让你从一个纯工具人,变成一个半工具人?!

3. 走向硬件、自动化、嵌入式或更接近物理世界的方向

还有一类我认为相对更稳的方向,是那些与物理系统、真实设备、工业控制、自动化场景深度绑定的工作。不是说这些方向就不会被 AI 改造,而是它们被彻底替代的节奏通常更慢,因为它们涉及真实约束、现场环境、工程可靠性、硬件适配和现实反馈。

对我而言,由于专业课设置,兴趣等方面的因素,
这条路可能并不天然契合,但从宏观判断上看,它确实是未来值得重视的一类方向。

六、反过来说,哪些工作应该尽量避开?

如果说有什么岗位在未来尤其危险,我觉得不能只用“重复性低端劳动”来概括,因为这会让人误以为只有简单工作才危险。实际上,真正需要警惕的,是那些高度形式化的工作

所谓高度形式化,就是你的工作虽然看起来有技术含量,但其核心流程已经足够清晰、足够可拆解、足够标准化。比如:接受输入需求,调用已有知识和经验,完成开发或整理,再调试、修补、验收,形成闭环。这种工作可能并不低端,也未必轻松,但它最大的风险在于一旦流程被抽象清楚,就很容易成为 AI 系统接管的对象。

程序员之所以危险,不是因为程序员“不聪明”,而是因为软件开发流程本身具有非常强的形式化潜力。文员、数据整理、Excel 报表、基础分析助理等岗位也是同理。只要你的工作内容可以被描述成一套相对稳定的输入—处理—输出链条,你就必须警惕:这件事终有一天可能被自动化得比你更彻底。

这也是为什么我会觉得,未来真正应该尽量远离的,不是“体力劳动”或者“低学历岗位”这些表面标签,而是那些已经高度模板化、可闭环、可验证、可批量复制的工作。

七、本科阶段到底该学什么

说了这么多未来的判断,最后还是得落到一个最现实的问题上:
那现在该怎么办?

我现在越来越倾向于认为,本科阶段最重要的并不是盲目追逐最新热点,而是扎实地打基础,然后再根据自己的兴趣去学习自己以后可能会从事的领域知识,虽然我是这么想的,但是碍于认知局限性和懒惰的天性,我还是对一些基础的课程和我不感兴趣的课程想翘就翘了,这也没办法哈哈。

技术浪潮看起来日新月异,仿佛只要慢一步就会被甩下车。但真正往深处看就会发现,大多数所谓的新东西,其实都还是建立在一些更底层的能力之上:抽象能力、建模能力、分析复杂问题的能力,数学能力,以及把一个模糊问题拆成可解决子问题的能力。

这些能力可能不怎么被炒作,不像某个突然爆火的框架(比如openclaw)那样有传播性,但它们往往决定了你能不能跟上变化。因为具体工具会变,范式会变,热门方向会变,但真正的底层理解不会轻易过时。

除此之外,我觉得还有一件事同样重要:认清自己的定位。

不是所有人都适合去做最前沿的研究,不是所有人都适合创业,也不是所有人都适合一头扎进工业现场。一个人如果连自己想过什么样的生活都不清楚,那么所谓“职业规划”往往也只是跟着焦虑乱跑。技术只是手段,最后你还是要问自己:你到底想成为什么样的人,想用能力换取什么样的生活。

至少对我自己来说,我的物质欲望其实并不高。某种意义上,一瓶水,一个面包,一个栖身之所,已经足够维持生存。可与此同时,我在精神上的需求却又出奇地强烈。我想看得更远,理解得更多,想不只是活着,还想尽量明白自己所处的世界到底在发生什么。我也想在这个庞大而喧嚣的现实里,找到真正与我同行的灵魂。说得再直白一点,我希望自己未来的学习和工作,不只是为了不被淘汰,也是为了不让自己变得麻木。

八、结语

说了这么多,我并不是想得出一个悲观结论:好像未来已经注定,再怎么努力也无济于事。我的意思其实恰恰相反。

时代确实在变化,而且变化得很快。
AI 也确实会替代很多人,甚至可能比我们今天想象得还要彻底。
我也没有能力去改变环境,只有尝试改变自己,这只是一次我的思想基于现有认知和思维模式下的一次演绎

我仍然不知道未来最终会把我带到哪里。
我也并不觉得自己已经找到了答案。

这大概就是我目前对未来的全部理解。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐