【蒸汽教育求职干货】LLM时代,传统ML岗位还有前途吗?——一位机器学习工程师的深度思考
你有没有看过电影《星际穿越》?我最近老是想起里面主角库珀掉进黑洞的那个场景。五维空间里,时间被拉伸成实体,过去、现在、未来在你面前同时展开。那种感觉,混杂着恐惧、未知,但又隐隐约约透着一种进入全新维度的兴奋。我觉得,这跟现在我们这些搞机器学习(ML)的人看大语言模型(LLM)的心情,简直一模一样。
前两周,我辅导过的一个学生,是个非常优秀的男生,拿到了一个传统机器学习工程师(MLE)的offer,薪资和头衔都相当不错。但他半夜三点给我发微信,字里行间全是焦虑。他说:“老师,我感觉我还没毕业就要‘过时’了。现在网上铺天盖地都是生成式人工智能(GenAI)和LLM,我学的这些XGBoost、卷积神经网络(CNN)、推荐系统,是不是马上就要被扔进历史的垃圾堆了?”
我太理解他的感受了。这种恐慌是实实在在的,就像你坐在电影院里,看着库珀的飞船被黑洞的引力无情地撕扯。但我想跟大家说,别害怕,主动权其实还在我们自己手中。这根本不是一个时代的终结,恰恰相反,这是机器学习领域“第二曲线”的开启。
所谓的“时代终结”,不过是个伪命题
我们先来剖析一下这种恐慌究竟从何而来。原因很简单,LLM的能力太过强大。它能帮你编写代码,能自动分析数据,甚至连模型调参这种以前被认为是“炼丹师”核心手艺的活儿,它都能参与其中。这就使得很多人感觉,自己赖以为生的“手艺”,在一夜之间被彻底颠覆了,这种感觉实在是离谱。
但是,咱们先把这事儿弄清楚。工具的进化,从来都不等同于从业者的消亡。计算器被发明出来的时候,数学家失业了吗?并没有,他们反而能够从繁琐的计算中解脱出来,去探索更深层次的数学领域。Windows图形界面出现的时候,程序员失业了吗?同样没有,他们不用再死磕汇编语言,可以去构建更宏大、更复杂的软件系统。
LLM,就是我们这个时代的“计算器”和“图形界面”。它所替代的是那些重复性的、有固定范式的劳动,但它替代不了人的创造力、系统思维以及对商业问题的深刻理解。
我跟一位在谷歌做推荐系统架构师的朋友交流过,他给我举了一个特别生动的例子。他们组的核心广告推荐引擎,直到今天,发挥主要作用的依然是经典的XGBoost和LightGBM模型。这是为什么呢?因为在广告这种对每一分钱都要精打细算的商业场景中,模型的可解释性、训练成本和推理速度,是决定成败的关键因素。你得清楚地知道,为什么这个广告会推送给这个用户,每一次推荐的成本是多少,延迟高了0.1毫秒会对收入产生多大的影响。而这些,目前的LLM还无法提供如此精确的信息,它的输出太模糊了。
那么,LLM在他们系统中扮演着什么角色呢?我朋友说,LLM是一个非常强大的“特征提取器”和“召回工具”。他们会利用LLM去理解用户的搜索意图、分析商品评论的情感,把这些非结构化的信息,转化为高质量的嵌入表示(embedding),然后输送给下游的传统模型,从而实现更精准的排序。由此可见,LLM并非取代了传统模型,而是作为其一部分,让整个系统变得更加强大。它们是并肩作战的战友,而非相互敌对的对手。
版本更新了,你的技能点加对了吗?
所以,问题并非是“要不要转行”,而是“技能树要如何重新规划”。这就好比打游戏,游戏版本更新了,你不能直接删号重练,而是要深入研究新的天赋系统,把技能点加在最关键的地方。
有些“内功心法”是永远不会过时的,它们是你安身立命的根基,无论技术版本如何变化,这些东西都能让你在行业中立于不败之地。
首先是数学基础,比如统计学、概率论、线性代数。说真的,现在居然还有人觉得这些东西没什么用。这些知识是理解所有模型的“第一性原理”。没有扎实的数学基础,你看模型就永远如同面对一个黑箱,一旦模型出现问题,你连调试的方向都找不到。你可能只会无奈地说“我靠,又出问题了”,而一个数学基础扎实的人则会冷静地分析“看起来是梯度消失了,我检查一下激活函数”。这两者之间的差距显而易见。
其次是经典算法的运用智慧。你得清楚,在什么情况下该使用逻辑回归,什么时候适合采用深度学习,什么时候一个简单的规则系统就足以解决问题。对问题边界的准确判断能力,是区分高级工程师和初级工程师的核心标准。并不是所有问题都需要动用“歼星舰”级别的技术,有时候一把“瑞士军刀”就能更高效地解决问题。
当然,最重要的还是数据处理和特征工程。“垃圾进,垃圾出”,这个真理永远不会过时。无论模型本身多么强大,如果你给它提供的是一堆质量不佳的数据,那么它产出的结果也只能是更糟糕的。对业务数据有深刻的理解,能够从原始日志中清洗、构建出高质量特征的能力,永远是机器学习工程师的核心竞争力。
接下来,是你必须立刻拥抱的“新式武器”。这些是当前技术版本更新的重点内容,如果你不学习,就很可能会被行业淘汰。
第一个就是机器学习运维(MLOps)与面向大语言模型的运维(LLMOps)。说到这儿,我想起一件事——我见过太多学生,他们简历上写的项目,全都是在Jupyter Notebook里运行出来的。模型精度可能刷得很高,但你要是问他,这个模型如何部署上线?怎样进行版本控制?如何监控它的线上表现?他往往一问三不知。这就是现在企业极为头疼的“笔记本工程师”现象。从在Notebook中进行实验到将模型投入实际生产环境,这中间的巨大鸿沟,正是现在面试时最为看重的地方。你需要学会使用Docker来打包你的模型,用Kubernetes进行服务编排,用Prometheus进行监控,用持续集成/持续交付(CI/CD)工具链实现自动化部署。这才是真正的“工程”能力。
第二个是机器学习系统设计(ML System Design)。系统设计面试正在经历一场“复兴”。面试官不再满足于让你“设计一个推特(Twitter)的信息流”,他们会提出更具体、更贴近实际的问题,例如:“如果让你用LLM来优化YouTube的视频推荐系统,你会如何设计?怎样处理实时推荐的延迟问题?如何评估LLM带来的真实业务提升?如何控制高昂的API调用成本?”这类问题没有标准答案,考察的是你对整个系统的权衡和取舍能力。
第三个是LLM的集成与微调。要记住,要把LLM当作一个“组件”,而不是“万能的上帝”。你得学会如何利用公司自己的业务数据,对像Llama 3这样的开源大模型进行微调,使其更贴合你的业务需求。你还需要学会如何将LLM的输出,作为下游传统分类模型的输入,从而进行更精细化的判断。这种将不同技术“粘合”在一起的“胶水”能力和“整合”思维,在当今的行业中极为稀缺。
当然,有些技能的重要性正在相对“降低”。这并不是说这些技能完全没用了,而是它们的性价比越来越低了。比如,在Jupyter Notebook里无休止地手动调参。如今有太多自动化的AutoML工具可供使用,你花三天三夜调出来的参数,可能还不如机器运行半个小时的效果好。你的时间,应该投入到更有价值的事情上。再比如,从零开始复现一个已有的最优模型(SOTA模型)。除非你的目标是从事纯粹的研究工作,否则在工业界,这种工作的价值正在迅速下降。有那么多现成的、经过优化的开源模型可供使用,何必非要自己从头开始造轮子呢?老板很可能会觉得你的做法不太明智。
行业在“用脚投票”,你跟上了吗?
你或许会说,这些只是你个人的观点。那么,我们来看看行业自身的看法以及企业的实际做法。毕竟,企业是用真金白银在招聘人才,他们的行为最具说服力。
面试趋势的变化是最直接的信号。我一位在谷歌做面试官的朋友告诉我,他们现在面试机器学习工程师岗位时,花在机器学习系统设计上的时间,已经远远超过了传统的算法题。他分享了一个他最近经常问到的问题:“假设你是谷歌广告(Google Ads)团队的工程师,现在我们想利用Gemini来自动生成广告文案,你会如何设计这个系统?需要考虑哪些模块?如何建立A/B测试的框架来验证新系统的有效性?如果发现生成的文案存在冒犯性内容,你的应急预案是什么?”
从这个问题的设置可以看出,其中纯粹的LLM知识只占一小部分,更多的内容是在考察系统设计、评估框架、风险控制意识等综合能力。如果你仅仅只会调用一个API,是绝对无法回答好这个问题的。
企业的真实需求也很快从初期的狂热状态中冷静下来。去年上半年,确实有不少企业一窝蜂地涌入这个领域,招聘了一堆所谓的“提示词工程师”或者“人工智能应用工程师”,实际上这些人主要的工作就是进行API调用。但企业很快发现,这种方式根本无法建立起任何技术壁垒。你使用GPT - 4,其他企业也可以使用,那么企业的竞争优势在哪里呢?
真正的竞争优势,是围绕着LLM构建起来的、独一无二的、与自身业务深度绑定的复杂系统。而在这个系统中,恰恰充满了传统机器学习的智慧。例如,利用复杂的规则系统和传统分类模型,对喂给LLM的数据进行过滤和清洗;运用经典的统计学原理,设计严谨的A/B测试,以此来判断LLM到底为企业带来了多大的业务价值;借助成熟的推荐系统框架,对LLM生成的内容进行承接,并实现精准分发。我们蒸汽教育这边就一直强调,学生在做项目时不能仅仅停留在调用API的层面,必须构建一个完整的、具有商业逻辑的系统,这才是面试官希望看到的成果。
给焦虑的你的“求生指南”
说了这么多,我们来点实际的内容。如果你现在正感到焦虑,不知道该如何是好,这里有几条具体的行动建议,希望能成为你应对当前情况的“求生指南”。
第一,不要把你手中的机器学习教科书扔掉,恰恰相反,你要重新深入研读它,尤其是关于概率图模型、优化理论、因果推断这些章节。这些知识就像是“屠龙之术”,在LLM时代,它们会让你拥有更长远的眼光和更深入的见解。
第二,立刻、马上动手做一个端到端的项目。不要仅仅满足于在代码中调用model.fit()函数。你要把你的模型用Flask或者FastAPI打包成一个API服务,使用Docker将其容器化,然后部署到亚马逊云服务(AWS)或者谷歌云平台(GCP)上。让你的朋友、同学,甚至是网友,都能够真实地使用你的产品。这个过程,会迫使你学会机器学习运维(MLOps)的全套流程。
第三,在你的下一个项目中,强制自己使用至少一个传统机器学习模型和一个LLM,并让它们协同工作。例如,你可以使用LLM进行文本摘要,然后将摘要结果提供给一个XGBoost模型,用于情感分类。通过这个过程,你会真正理解不同技术“整合”所带来的价值。
第四,多去浏览Blind和一亩三分地等专业社区,查看真实的面试经验分享,尤其是那些失败的“面经”。你会发现,现在面试失败的人,很少是因为算法题没有做出来,更多的是在系统设计和对业务的理解方面出现了问题。这些真实的经验分享,比你阅读一百篇营销号贩卖的焦虑文章要有用得多。
写给你和你身边的人
最后,我想说,LLM并非是一场要将所有人都拍死在沙滩上的海啸。它更像是一股强大且不可逆转的洋流。它不会摧毁一切,但会彻底改变行业发展的航道。那些只盯着自己一亩三分地、不愿做出改变的从业者,可能会被这股洋流带到不知名的角落;而聪明的从业者,会及时调整自己的方向,利用这股洋流,更快地到达别人未曾涉足的新大陆。
写给你:别再仅仅盯着模型的精度了,那只是你职业价值的10%。抬起头,看看整个系统,关注产品的整体情况,了解商业的真实需求。你未来90%的价值,都蕴含在模型之外的领域。
如果你身边也有正在学习计算机科学(CS)和数据科学(DS)的朋友,或者你的父母还在为你“要不要转码”、“AI会不会让程序员失业”而担忧,我建议你把这篇文章转给他们看看。这不仅仅是一个技术路线的选择问题,更是一场认知层面的全面升级。
很多家长可能还停留在“学好数理化,走遍天下都不怕”的传统认知里,他们很难理解这场技术变革的深度和速度。让他们知道,今天孩子面临的挑战,已经不是“要不要学编程”这么简单了,而是“如何在一个被AI重新定义的时代里,找到自己不可替代的独特价值”。
这场求职的硬仗,从来不是你一个人在战斗。它需要你和你的家人并肩作战,互相理解,彼此支持,这样才能做出最适合你的、不会让你后悔的决策。
© 蒸汽教育 2026 全球留学生求职标杆企业
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)