本文来源于量化小论坛策略分享会板块精华帖,作者为PlumeSoft发布于2026年3月18日。

以下为精华帖正文:

声明

最近几个月在疯狂使用AI,越用越有感慨。

打不过就加入,这个帖子是由我构思,ChatGPT主笔,NotebookLM出图,应该也算是原创吧。

前言

做量化久了,我越来越习惯用模型、参数、反馈和优化去理解世界。

刚开始,这只是一种职业病:

  • 看到市场波动,我会先想到状态变量;

  • 看到收益曲线,我会想到样本内外;

  • 看到回撤,我会想到风险暴露和尾部惩罚;

  • 看到策略突然失效,我第一反应往往不是情绪,而是怀疑:是不是分布漂移了,是不是市场结构变了,是不是alpha被挤掉了。

但时间久了以后,我慢慢发现,这种思维方式不只适用于市场。

它同样适用于机器学习,也适用于人类成长,甚至适用于我们自己是怎么被环境、制度、文化和奖励机制,一步一步训练成今天这个样子的,更准确地说,量化做久了以后,我越来越难把“成长”理解成一个浪漫化的词。

在我眼里,成长越来越像一个系统在复杂环境里的在线更新过程:

图片

接收信息→形成判断→做出选择→接受反馈→修正参数→继续迭代

人是这样,AI是这样,交易系统也是这样。差别只在于载体不同,材料不同,反馈信号不同,但底层骨架,真的很像。

统一视角

我越来越觉得,人、AI、交易系统,本质上都在压缩经验。

如果把很多华丽的外壳剥掉,人、AI、交易系统都有一个共同结构:

输入信息—内部映射—输出决策—接受反馈—更新自身。

图片

  • 对人来说是:感知→判断→行动→反思

  • 对AI来说是:输入数据→生成预测→计算损失→更新参数

  • 对交易系统来说是:读取行情→计算特征→生成信号→执行下单→复盘归因

所以从这个角度看,我越来越倾向于把“聪明”理解成一种经验压缩能力。

所谓聪明,不一定是知道得更多,很多时候,只是能不能把过去看过的、做过的、亏过的、踩过的坑,压缩成一套未来还能继续调用的决策规则。

AI在做这件事,量化策略在做这件事,我自己也在做这件事。

所以如果让我用一句话概括三者的共同本质,我现在会这么说:

人、AI、交易系统,本质上都在把过去的经验压缩成未来可执行的决策规则。

这句话我现在越来越信。

真正决定我会长成什么样的是目标函数

只能说“都会学习”还不够,更关键的问题是:为什么大家都能学,最后却长成完全不同的东西?

我的答案是:真正决定路径的,不是学习能力,而是目标函数。

图片

这在机器学习里几乎是常识。

  • 你定义什么损失函数,模型就朝什么方向收敛;

  • 你优化点击率,它就更会制造点击;

  • 你优化停留时长,它就更会让人停下来;

  • 你优化短期准确率,它可能牺牲泛化;

  • 你优化某个局部指标,它就可能为了这个指标去扭曲整体表现。

模型本身并不知道什么叫“好”,它只是忠实地追随奖励。

量化交易也是一样,同样的数据,同样的框架,同样的算力,不同的人做出来的系统会完全不一样,原因并不神秘,往往只是因为大家优化的东西根本不同。

图片

  • 有人优化绝对收益,系统就高波动高回撤,但弹性极强;

  • 有人优化夏普,系统就更平滑,但上限有限;

  • 有人优化容量,很多“小而尖”的alpha要主动放弃;

  • 有人优化低回撤,持仓和交易频率自然会趋于保守;

  • 有人优化实盘可执行性,很多样本内好看的东西根本留不下来。

所谓风格,很多时候并不是什么玄学审美,而是目标函数长期塑造出来的结果。

我越来越觉得,人其实也一样。

  • 有人长期主义,有人只看眼前兑现;

  • 有人喜欢高收益高波动,有人只想稳一点;

  • 有人重外部认可,有人重内在一致性;

  • 有人愿意承担大回撤去搏跃迁,有人宁可慢,也要先保住本金、保住状态、保住继续参与游戏的资格。

这些差异,放在量化里叫风格,放在机器学习里叫目标函数,放在人身上,很多时候就被我们叫作价值观。

所以我现在越来越相信一句话:很多所谓“性格”,本质上是奖励函数写进灵魂之后留下的轨迹。

再说得更狠一点:一个人最后活成什么样,往往不是因为他想成为什么样,而是因为他长期奖励了自己什么。

量化最容易把我带偏的地方

量化最容易把我带偏的地方就是沉迷于优化“可优化的东西”,这里我想说一点更不那么好听,但我觉得很真实的反思。

做量化、做系统、做AI辅助开发,很容易上瘾。而最容易让我上瘾的,不一定是赚钱本身,而是“优化”这件事本身。

图片

因为优化是有即时反馈的:

  • 我改了一段代码,性能提升了;

  • 我换了一个数据结构,内存降下来了;

  • 我调整了一处处理流程,回测快了;

  • 我加了缓存、用了共享内存、改了float精度、看了火焰图、把热点函数抠出来重写,一看指标立刻变漂亮。

这种快感太强了,说白了,代码性能、工程优雅、系统整洁、工具熟练,这些都属于可优化的东西,而可优化不等于最重要。

量化人最容易掉进一个坑:因为某个东西好优化、容易看到数字改善,就误以为它是主矛盾。

于是我会不知不觉沉迷于:

  • CPU再降一点

  • 内存再省一点

  • 延迟再缩一点

  • PR再漂亮一点

  • 架构再优雅一点

  • 工具链再先进一点

这些事情有没有价值?当然有,而且很有价值。

但问题在于,如果策略本身没edge,研究问题不对,假设不成立,执行约束没吃透,市场理解不够深,那么再漂亮的工程,也只是把一台错误的机器造得更精密而已。

说得难听一点:很多时候,我不是在做研究,而是在精装修自己的幻觉。

这句话我现在回头看自己,感受特别深。

因为“优化”这件事太容易给人一种错觉:好像我一直在变强,但实际上,我可能只是在一个错误方向上,越来越熟练。

所以我现在会提醒自己一句话:可量化的改进,不等于真正的进步;容易优化的指标,不等于真正重要的变量。

另一个更致命的坑:沉迷样本的漂亮结果

如果说代码性能优化是“工程师的幻觉”,那么样本内过拟合就是“研究员的幻觉”。

而且后者更危险,因为它不只是让我浪费时间,它还会给我希望。

样本内这件事最可怕的地方,不在于它会骗我一次,而在于它会一次又一次、用越来越漂亮的方式骗我。

只要我有:

  • 足够大的参数空间

  • 足够灵活的组合方式

  • 足够多的因子

  • 足够多的评价指标

  • 足够强的计算资源

  • 足够长的炼丹时间

系统最后大概率都会给我“找”出一些很好看的东西。

问题从来不在于它找不到,问题在于它太容易找到了。

回测这件事最危险的地方就在这:它会制造一种“我离真理越来越近”的错觉。但很多时候,我只是离样本内越来越近。

尤其是做高频、做微结构、做离线拟合的时候,这个坑会被放大得更加夸张。

纸面成交的世界太干净了:

  • 没有真实竞争

  • 没有排队损耗

  • 没有信号泄漏

  • 没有执行摩擦

  • 没有实盘里那些回测看不见、但每天都在收税的细节

所以量化研究里最需要警惕的,从来不只是“不会优化”,而是“太会优化”。

因为不会优化,我最多做不出东西;太会优化,我会做出很多看起来很像东西的东西。

这几年我对这个坑最大的感受是:样本内最危险的,不是假,而是太像真。

再补一句我现在特别认同的话:过拟合不是模型学得太少,而是模型把不该记住的东西记得太牢。

而人也一样,很多执念、很多偏见、很多路径依赖,本质上也是一种人生层面的过拟合。

价值观可能就是我的损失函数

写到这里,我反而越来越理解“价值观”这个词了,以前总觉得这个词有点虚,但如果用系统和机器学习的语言去看,价值观其实一点都不虚。

我现在更愿意把它定义成:

图片

价值观,就是我解释反馈、判断得失、决定未来往哪里更新的机制。

  1. 对模型来说,这叫loss;

  2. 对组织来说,这叫KPI;

  3. 对策略来说,这叫评价字典;

  4. 对人来说,我觉得它就叫价值观。

  • 什么算成功?

  • 什么算失败?

  • 什么代价值得承受?

  • 什么短期损失可以接受?

  • 什么结果即使能拿到也不能要?

这些问题,表面上像伦理问题,底层其实都是目标函数问题。

  • 为什么有人越来越稳,有人越来越急?

  • 为什么有人能做长期复利,有人总是在追逐局部刺激?

  • 为什么有人为了年化可以忍受很大波动,有人宁可年化低,也一定要回撤受控?

根上看,很多不是能力差异,而是评价体系不同。

从这个意义上说,价值观不是什么写在墙上的大词,它就是我如何解释世界反馈的底层算法。

所以我现在很喜欢一句更适合量化人理解的话:损失函数决定模型会学成什么样,价值观决定人会活成什么样。

系统不会自动变好,会朝被奖励方向收敛

这一点,不只适用于交易和AI,也适用于人类社会。

亚里士多德说,德性来自习惯,这句话换成现代系统语言,我的理解就是:一个人不是先有某种固定本质,再去做某种事;而是在反复做某种事、接受某种反馈之后,参数逐渐收敛,最终变成某种稳定结构。

图片

历史也是这样。很多制度改变社会,不是因为人性突然高尚了,而是因为激励结构变了。

考核变了,组织行为就变了;产权变了,创新意愿就变了;市场微结构变了,alpha也就衰减了。

所以我越来越觉得,有一句话值得反复提醒自己:系统不会自动朝“更好”演化,它只会朝“被奖励的方向”演化。

这句话对量化人尤其残酷,因为量化人最擅长的,就是构造优化器,而一个人一旦既会写优化器,又缺少对目标函数的反思,走偏的速度会非常快。

说到底:强大的优化能力,本身不是祝福;只有目标对了,它才是祝福。

AI最像镜子的地方

AI最像镜子的地方,不是它像人,而是它会放大我,我现在不太喜欢把AI简单叫“工具”。

锤子是工具,编辑器是工具,计算器是工具。但今天的大模型已经开始不只是替我省力,而是在放大我的认知过程本身。

图片

它会放大:信息处理速度;语言组织能力;方案生成速度;编码与迭代效率;检索、归纳、设计、表达能力。

所以 AI 最值得警惕、也最值得兴奋的地方,不是“它会不会取代我”,而是:它会把我的目标函数放大。

  • 目标清晰的时候,它是加速器。

  • 结构化能力强的时候,它是杠杆。

  • 长期主义稳定的时候,它是复利机器。

但反过来也是一样:

  • 目标混乱的时候,它会更快地产出噪声;

  • 沉迷局部指标的时候,它会更高效地过拟合;

  • 只盯着代码快感的时候,它会更快把错误的问题做得极其漂亮。

所以我现在特别喜欢一句非常量化、也非常残酷的话:错误的目标函数+更强的优化器=更快的灾难

这句话既适用于AI,也适用于我自己。

碳基和硅基真正的差别

我越来越怀疑:碳基和硅基真正的差别,也许不在智能,而在“谁能反过来修改自己的目标函数

如果继续往下想,这个问题就会变得很大,如果AI也能学习、建模、更新、迁移,甚至形成稳定偏好,那我和AI的真正差别还剩下什么?

我现在越来越觉得,差别可能不主要在“会不会思考”,因为思考、优化、建模,本身未必是人类独有的,真正更深的差别,也许在这里:

图片

AI的目标大多还是外部设定的,而我至少有机会反过来怀疑并修改自己的目标函数。

当然,我也并不天然自由。我一样会被环境训练,被制度塑形,被文化奖励,被时代牵引,从这个角度看,我也不过是一个被反馈机制不断雕刻出来的系统。

但我至少还有一种可能性:在某个时刻停下来,回头看一眼,问自己:

  • 我一直在追的这个东西,真的值得吗?

  • 我是不是把“容易优化”误当成了“真正重要”?

  • 我是不是把局部最优误当成了全局最优?

  • 我是不是为了样本内的漂亮,牺牲了长期真实的可存活性?

在我看来,这种能力也许才是人最珍贵的地方。不是只会学习,不是只会变强,而是还能反过来问:

图片

我为什么要优化这个目标?这可能才是真正的分水岭。

结语

回头看我自己,我最该警惕的,也许不是变慢,而是优化错了方向

量化最终训练我的,可能不只是赚钱能力,也不只是建模能力。

它真正训练我的,可能是一种更冷酷、但也更诚实的世界观:

  • 承认噪声

  • 承认不确定性

  • 承认没有圣杯

  • 承认一切漂亮结果都要经过真实世界结算

  • 承认系统并不会自动变好,只会朝奖励方向收敛

  • 承认最大的风险,往往不是不努力,而是努力优化错了东西

回头看我自己过去做过的很多事,其实很典型:

  • 一边沉迷于代码性能优化,沉迷于把系统做得更快、更省、更优雅;

  • 一边也沉迷于样本内那些好看的曲线、好看的分数、好看的纸面表现。

后来我才慢慢意识到,这两种沉迷表面上一个偏工程、一个偏研究,底层其实是同一种东西:

它们都在奖励我去优化“眼前可见的指标”,而不是“长期真实有效的能力”。

图片

而一个量化人真正成熟,可能就从承认这一点开始,不是不会优化,恰恰相反,是太会优化了以后,终于开始警惕优化本身。

再往前走一步,我甚至会觉得也许人这一生最大的难题,不是算力不够,不是信息不够,不是工具不够;而是我们常常在一个错的目标函数上,投入了过于强大的优化能力。

市场里是这样,研究里是这样,做系统是这样,做人可能也是这样。

所以到最后,问题从来不只是“我怎样才能更强”,而是:我准备沿着什么样的奖励机制,把自己训练成什么样的人。

如果哪一天,AI也开始认真回答这个问题,那我和它真正的差别,可能就只剩最后一点了,它会不会像我一样,在优化到一半的时候,突然停下来,怀疑自己整个目标函数是不是设错了。

而如果连这一步它也会了,那接下来真正值得害怕的,可能就不是AI比我聪明,而是它比我更早看穿:绝大多数系统最后的失败,不是因为不够努力,而是因为从一开始,就奖励错了东西。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐