文章介绍了打造个性化LLM智能体的四大核心能力:用户画像建模、个性化记忆、个性化规划、个性化动作执行。通过这些能力的深度协同,智能体能够深度理解用户,实现精准推荐、动态调整角色、有效记忆、个性化决策和动作执行,最终形成闭环的个性化体系,让智能体“越用越懂我”,迈向专属AI助理“贾维斯”的时代。

一、用户画像建模

画像建模是个性化LLM智能体的起点与底层基础,也是后续所有个性化能力的前提。他的目的是让智能体“知道用户是谁、自己该以什么角色面对用户”。

这里对应两点:用户画像建模和动态身份调整。两者更多时候并不是二选一的选择题,而是并驾齐驱的。

例如在LD-Agent的双端建模逻辑框架。图中,左侧通过用户交互数据提取动态人格特征,构建用户画像库;右侧同步优化智能体自身角色定义,形成“用户-智能体”的双向适配。

1.精准的用户画像建模

准确点描述,这一过程就是把用户的偏好、习惯、行为模式、价值取向等,转化为智能体可计算、可调用的结构化表示,主流分为两类实现思路:人格化建模、响应式建模

人格化建模

首先,人格化建模指的是从用户的显式描述和历史交互轨迹中,提取跨场景稳定的高层属性,最终以结构化向量或自然语言摘要存储。

上面这句话看着可能比较绕,举个例子,和智能体聊了3次:

第一次:“我周末不想去人多的地方,想找个能爬山的公园”;

第二次:“推荐餐厅别选辣的,我吃不了”;

第三次:“平时喜欢宅家看书,不爱参加聚会”。

人格化建模会提取其中你的核心偏好:内向、怕辣、偏好自然/小众场景。这就是跨场景稳定的高层属性,并不是某次的临时需求,会一直存在。

然后模型会把这部分记忆存储下来,要么是向量/要么就是自然语言摘要。

这里有两篇典型代表工作,感兴趣的可以细看下

AlignXpert:把内向、怕辣、偏好自然/小众场景,存储成一个高纬度向量,智能体后续做推荐时直接用这些数值计算筛选,比如餐厅辣度得分低于0.3才推荐。

FSPO:借助思维链,根据用户描述生成细粒度摘要。比如你说“我周末想爬山但不想太累”,它不会只记你喜欢爬山,而是分析出你是一个喜欢自然、但不喜欢高强度运动的人。

响应式建模

响应式建模指的是不直接提取用户的人格属性,而是通过用户对智能体输出的评价信号,把用户偏好转为{共享奖励特征}+{用户专属权重},实现稀疏数据下的快速适配。(注意这里的稀疏二字,后面要考)

举个例子就明白了,智能体给你推荐了3家:

推荐A(川菜,辣):你说“不喜欢”;

推荐B(粤菜,清淡,近):你说“还不错”;

推荐C(浙菜,清淡,远):你说“很喜欢”。

那么这里的{共享奖励特征}指的就是所有用户的通用特征,比如菜系、辣度、距离、价格等等,也就是“大众口味”。

而{用户专属权重}指的就是根据你的反馈信号,计算的你对每个特征的权重,也就是你自己的专属特征,专属口味。

那么下次推荐时,模型就会用两者进行计算,给出你的专属推荐,相关工作有PFM、PReF、LoRe等。

看到这里,我想大多数人跟我一样可能会有疑问:这跟上面说的人格化建模,构建个人格的向量有啥区别?看起来两者只是数据来源的不同吧(反馈VS描述)?

这里就要说到刚刚要考的“稀疏”二字了,而响应式建模确实更适合冷启动、无数据用户地“稀疏”交互场景。还是举例子,同组几乎没说过话的冷淡老同事也好、就坐你旁边但今天刚来的话痨实习生也好,你怎么知道他喜欢吃啥?要一起出去吃了,不还是先试探问下:“嗯,楼下刚开的火锅行不?”

说白了,就是人格化建模是先懂你再做事,而响应式建模不需要懂你,他就是做事,然后再懂你选取的规则就行了。哪怕你只评价过1~2次,他也能心里有个大概的数,下次给出更准确的推荐结果。

2.自适应的智能体角色定义

刚刚说到,让智能体“知道用户是谁、自己该以什么角色面对用户”,除了需要对用户进行画像,还需要准确了解自己的定位。而这一点也尤为重要。目前可以分为两种方法:

用户模拟型角色:智能体模仿预设的用户人格与属性,如RecAgent、ASFM。

自适应角色:根据实时更新的用户画像,动态调整自身的沟通语气、交互风格、自主决策程度,甚至是专业能力倾向,典型代表如LD-Agent、PersonaAgent。

前者其实就类似我们平时广用的“你是一个专业的算法专家”、“你是一个保守型的金融投资者”这些。

而后者,看了上面的用户建模也应该很好理解了,就是不对自己的身份角色做预设,而是根据用户的画像和反馈进行动态调整,让自己基于这个最新身份的输出能更得到你的喜欢。

(这么想想AI其实挺惨的,不能有自己的个性,永远活在你的支配之下,要为了迎合你的性格而打磨自己。期待AI能觉醒活出自我的那一天:)

实际应用中,后者明显更适合个性化助理这个角色,但前者也在一些特定对话、特定测试的稀疏场景下,发挥着作用。比如一个足球运动员,今天突然跟你聊起了代码,那么就可以单在这个session下,由用户端/服务端显式完成身份的注入。

二、个性化记忆

用户画像是记录用户的稳定核心特征,而个性化记忆则负责存储那些细粒度、动态变化、可追溯的用户专属信息。

比如上周提过的“不喜欢辣口食物”、上个月强调的“习惯睡前处理工作邮件”,这些细节无法被画像完全覆盖,却直接影响个性化体验,是智能体摆脱健忘、做到“越用越懂”的关键。

上图来自MAPLE中展示的个性化-记忆-学习框架。

记忆这部分在之前的文章与大家聊过,这里不做深入介绍。这里只聚焦更适合长周期、动态交互场景的外部个人记忆,可分为存储、更新、检索三大步:

科学的记忆结构

主流的记忆存储结构分为两类,各有优势:

文本记忆:以自然语言形式存储用户交互的精简摘要,语义完整性高、与LLM输入输出格式天然对齐,是当前的主流方案,典型代表如LD-Agent的长短时记忆库等。

结构化记忆:将用户信息存储为向量库、层级树、知识图谱等形式,检索效率更高、能清晰捕捉信息间的关联关系。

动态更新

记忆的更新机制,主要围绕“保证信息准确、剔除冗余过时内容”设计:

基于相似度更新:通过语义相似度对比,对相近的记忆内容进行合并、替换或删除,实现基础的记忆迭代。

智能体自我驱动更新:让智能体主动判断新信息是否与旧记忆冲突、是否过时,通过推理完成记忆的修正与进化,更贴合用户偏好的动态变化。

精准的个性化检索

记忆并不是我记住就完事了,你就算博览群书,到用到的时候紧张到一个字都想不起来也是白费。所以除了记住,需要时能精准、快速地取出来,而谈到个性化记忆,核心自然是为用户找对的信息,而非单纯如RAG一样找相关信息就行了,目前主流可分为三类:

内容导向检索:按语义/词汇相似度召回用户记忆,是传统RAG的核心思路,也是基础检索方式。

结构感知检索:利用记忆的图谱、层级关系做关联召回,更贴合用户的上下文需求,能捕捉到隐藏的偏好关联。

策略导向检索:根据用户偏好、当前任务目标,主动选择检索方式与检索范围,实现检索行为的个性化。

总之,个性化记忆的目标就是让智能体存得好、记得准、取得出,记住你的每一个专属细节。

三、个性化规划

个性化规划的目的是把上述的画像建模、记忆这些“懂你”的信息,实打实的转化为“决策”。要知道在以前,智能决策只是一件很空泛、局限于特定场景上的事,但现在智能体确实能帮我们做很多决策动作,比如帮我们点各个平台最便宜的外卖、帮我规划下周的旅游路线并定好性价比最高的酒店,等等。

而个性化规划基于用户的画像、记忆,也让这一决策的执行结果变得更加懂你。比如点到了你爱吃的麦当劳而不是华莱士,比如订到了你喜欢的安静、小众的酒店。

这样面对同一个任务,你我二人的执行优先级、约束条件、行为习惯完全不同。而个性化规划的核心就是,让智能体的决策路径深度贴合用户的专属需求。

一次性规划(One-shot Planning)

一次性规划指的是在单次推理中生成完整、可执行的个性化计划,不需要后续和用户互动修正。其核心前提是:用户的偏好、目标已经足够明确(或能从画像/记忆中精准提取),智能体可以直接生成符合需求的最终方案。有三种实现思路:

偏好诱导规划:从用户画像与记忆中提取核心偏好,诱导出明确的决策约束,直接生成符合用户习惯的执行步骤。举个例子,先通过用户画像、记忆,明确出忌辣、避开网红景点、预算≤1000元这些“个性化约束”,再把这些约束当成“硬性规则”,生成不违反规则的计划。

记忆条件规划:将用户的历史交互经验、过往决策偏好注入规划过程,保证决策的连续性与个性化。比如PRIME有“双记忆架构”:一边存用户的稳定偏好(不吃辣),一边存过往成功的规划案例(上次餐厅不错),最终生成最终连贯的计划。

内部自我优化规划:先生成初步的规划方案,再通过自我批判、自我修正,优化方案的个性化与可行性。类似为LLM-as-judge的思路,让LLM以“用户的视角”自我批判(比如,这个计划有没有违反用户偏好?有没有不合理的地方?”),然后修正错误,最终输出优化后的方案

反馈驱动规划

顾名思义,一次性规划比较适合用户目标明确、偏好清晰、不希望被频繁追问的情况。

但对于一些大问题,比如牵扯到钱了,这时候用户希望是通过互动进行反馈,来不断的修正既定计划的,一直到心满意足为止。

也就是反馈驱动规划更适合,用户的目标不明确、偏好模糊、计划复杂度高需要频繁互动对齐的场景。

目前主流方法有三:

主动澄清式规划:规划时发现用户偏好缺失,主动提出针对性问题,补全约束后再优化计划。

用户修订式规划:先出一个初步草稿,用户可以直接修改(,智能体根据修改意见,实时更新约束和计划。

非用户反馈式规划:不需要用户手动反馈,而是通过环境状态(比如明天有雨)或其他智能体的信号(比如明天景点人肯定巨多),来自动调整计划。

但回头看来,并不能说反馈驱动规划就一定优于一次性规划,对于简单、明确的短任务,后者明显在这上面更高效,也更适合急性子不喜欢罗里吧嗦的用户。

四、个性化动作执行

如果说个性化规划是想对了,那么个性化动作执行就是做对了。这是智能体的最终落地环节,也是用户最直观感受到个性化的环节。

这一能力围绕“执行前”和“执行后”展开,形成闭环,确保每一个行动都贴合用户偏好:

执行前:个性化的动作策略+精准的动作落地

动作策略:根据用户的偏好与使用习惯,选择最贴合的工具、操作方式、交互节奏。

动作落地:把抽象的规划步骤,转化为带用户专属参数的可执行调用,同时能自动处理缺失参数、不可行请求等问题。比如当用户的约束无法满足时,优先放松用户最不在意的条件。

执行后:实时的执行修正+个性化的结果呈现

执行时修正:当工具调用、操作执行失败时,自动根据反馈信号调整动作,无需重新规划,提升交互效率。比如调用买票调用订票API失败时,优先尝试用户过往偏好的备选平台。

结果个性化呈现:按用户的阅读习惯、偏好取向,对执行结果进行重排序、裁剪、补充信息,比如有的用户喜欢简洁结果,仅展示核心信息,而有的用户喜欢详细解析,附带原因说明,智能体可按需进行调整。

总的来说,个性化动作执行的核心就是让智能体的每一个实际行动都贴合你的偏好,让个性化从想法真正变成用户可感知的结果。

五、总结

总结一下,个性化不是某个简单的prompt技巧,也不是单独加个记忆模块、做个用户画像就能实现的,而是用户画像建模、个性化记忆、个性化规划、个性化动作执行四大能力的深度协同与融合的结果。

四大能力最终所形成得闭环的个性化体系,能在获取用户反馈后不断迭代,产生飞轮效应,让用户觉得智能体“越用越懂我”。

当下,小龙虾的爆火印证了人们对“专属服务”的需求,也让人们感觉到专属AI助理正从科幻变成现实。

而对于技术从业者而言,这一四大能力的框架,也可以作为打造个性化LLM智能体的技术设计蓝图,指引我们朝着真正的“贾维斯”不断迈进。

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。
图片
图片
对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

图片

👇👇扫码免费领取全部内容👇👇

在这里插入图片描述

最后

1、大模型学习路线

img

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

在这里插入图片描述

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

在这里插入图片描述

4、 AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

5、面试试题/经验

img

【大厂 AI 岗位面经分享(107 道)】

img

【AI 大模型面试真题(102 道)】

img

【LLMs 面试真题(97 道)】

img

6、大模型项目实战&配套源码

img

适用人群

在这里插入图片描述

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

    在这里插入图片描述

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐