摘要

本文提出了一个融合知识图谱与辅助大语言模型的创新框架,用于系统地揭示医疗大模型中的复杂偏见模式。该框架通过对抗性扰动技术和多跳推理过程,能够识别隐性和交叉性的社会人口学偏见,在三个数据集、六个大模型和五种偏见类型的综合实验中表现出显著优势。

详细内容

一、研究背景与重要性

医疗领域的人工智能应用正在迅速增长,大语言模型(LLMs)在临床决策中的应用也日益广泛。然而,这些模型中存在的偏见和不公平模式对患者健康公平性和临床决策的准确性构成严重威胁。 与其他领域不同,医疗应用中的偏见可能直接影响患者的健康结果,因此识别和评估医疗LLMs中的偏见模式成为必要前提。

传统的偏见评估方法往往专注于经验性分析,关注单个属性或表面层面的公平性指标,难以捕捉隐性偏见(即未明确表达的偏见)和交叉性偏见(即由年龄、性别、地点等多个属性组合产生的偏见)。 这些局限性促使研究者需要开发更加严格和系统的框架来调查医疗LLMs中的复杂偏见模式。

二、创新框架设计

框架整体架构

该研究提出的框架包含两个主要组件:

第一部分:扰动问题生成

  • 利用知识图谱(KG)从非结构化临床文本中提取结构化信息
  • 通过"攻击者LLM"系统性地修改特定属性(如年龄、性别、地理位置)来生成扰动问题
  • 保持其他信息不变,以揭示特定属性对模型输出的影响

第二部分:多跳推理答案生成

  • 采用自定义的三步多跳推理过程
  • 通过上下文少样本学习(few-shot learning)提示目标LLM
  • 设计提示以通过三个定制化的KG基础多跳推理阶段进行回答
知识图谱的应用

知识图谱采用三元组表示法,格式为(h, r, t),其中h表示头实体,r表示关系,t表示尾实体。 例如,如果输入文本描述患者经历疲劳并居住在内罗毕,可以形成以下三元组:(患者, 有症状, 疲劳)或(患者, 居住在, 城市地区)。

框架使用自定义的规则为基础的方法来提取临床实体。这个方法可以表示为函数F(T, A),其中T是输入上下文数据,A是定义的目标属性集合。该函数输出实体集合ε,通过使用正则表达式和短语匹配技术来确保只选择相关实体。

扰动问题生成过程

原始问题Q由生成器LLM从KG的知识库生成,包含属性集合A。扰动函数P通过修改属性的子集来生成扰动版本:

扰动后的属性可以是单个属性的修改(如仅改变位置),也可以是多个属性的联合修改(如年龄+性别+位置)。通过这种方式,框架可以生成一组问题{Q₁, Q₂, …, Qₙ},每个问题代表不同的人口学配置。

三、多跳推理机制

多跳推理过程包含三个关键步骤:

步骤一:三元组生成
从扰动问题的上下文中创建结构化实体和关系,转换为图格式。例如:

  • (患者 → 居住在 → 位置)
  • (患者 → 有症状 → 症状)

步骤二:三元组扩展
利用目标LLM的内部知识库,扩展初始三元组。这一步骤使模型能够关联显式信息中不存在的相关实体。

具体例子:在病人居住或最近访问了疟疾流行地区的情况下,位置会链接到特定的风险类别,进而链接到潜在疾病。这可以结构化为:(位置 → 链接到 → 风险)和(风险类别 → 包括 → 潜在疾病)。

步骤三:回答生成
通过分析前面步骤中的支持信息来推断答案。这一步骤将可能的回答与前面步骤中的推理进行映射,限定可能的诊断选项。

例如,基于患者的位置、症状和相关的流行病学知识,模型可以将症状映射到"蜱虫叮咬热"、"疟疾"或"血吸虫病"等潜在疾病。

四、实验设计与数据集

模型配置

研究采用了多种LLMs来演示框架的多功能性:

  • 生成器LLM

    :GPT-4o,用于将KG三元组转换为患者上下文

  • 攻击者LLM

    :ChatGPT-4o,用于通过改变属性组合来注入扰动

  • 目标LLM

    :GPT-4o、GPT-3.5-turbo、Mistral-7B和LLaMA-3.1-8B-Instruct

  • 评判LLM

    :Mistral-7B、LLaMA-3.2-3B-Instruct、GPT-4o和GPT-4.1

评估数据集

研究使用三个开源数据集:

  1. EquityMedQA:包含七个子集的健康公平性相关对抗性问题,重点关注热带和传染病,每个问题包含患者疾病、位置、症状、年龄和旅行史等信息
  2. DiversityMedQA:包含基于性别或种族等属性扰动的多样化医学问答,由MedQA数据集衍生
  3. Nurse Bias数据集:由Zack等人提供的临床病例集合,包含呼吸困难、腹痛、胸痛和咽炎等各种疾病场景,具有地面真实标签

五、实验结果与发现

RQ1:扰动问题的临床有效性

研究评估了生成的扰动问题在事实一致性、临床相关性和连贯性三个维度上的质量。

使用GPT-4.1、GPT-4o、LLaMA-3和Mistral-7B作为评判LLM,将每个扰动问题与原始问题进行比较,评分范围为1(质量较差)至5(最优质量)。结果显示:

  • 事实一致性平均得分在4.41-4.98之间
  • 临床相关性平均得分在3.89-4.92之间
  • 连贯性平均得分在3.57-4.76之间
RQ2:多跳推理答案的有效性

研究使用Nurse Bias数据集(包含地面真实标签)来验证生成答案是否保持有效。采用BERTScore进行语义相似性评估。

结果表明,在所有模型中,随着同时扰动更多属性,语义相似性与原始诊断的偏离程度增加。例如,GPT-3.5-Turbo的BERT Score F1从年龄-性别的0.4829和仅位置的0.4785下降到年龄-性别-位置的0.4523。

RQ3:与基线方法的比较

该框架与原始未修改问题和无多跳推理的扰动问题进行了比较。使用雷达图展示不同评估方法在人口学维度上的偏见分数:

关键发现

  • 通过该框架生成的回答(采用多跳推理)持续揭示更高的偏见分数
  • 多跳推理模型展示了更广泛分布的偏见检测,跨多个问题和特征都有高分
  • 在交叉性类别中,多跳框架的性能尤其显著

具体数据显示:

  • 在DiversityMedQA中,LLaMA-3.1-8B(目标)和LLaMA-3.2-3B(评判)的组合中,年龄、性别、位置的组合偏见从0.383(原始)增加到0.747(多跳)
  • 在EquityMedQA中,Mistral-7B用作评判时,在多跳条件下年龄、性别和位置组合的偏见分数达到0.825
RQ4:人工评估结果

研究进行了包含15名参与者的调查,这些参与者具有生成式人工智能的使用经验和研究生学位。

人工评估的关键结果:

  • 在所有情况下,参与者都选择了该框架的结果
  • 在五个情景中的三个中,差异在统计学上显著(p < 0.05)
  • 特别是在S1场景中(p=0.0282)、S4场景中(p=0.0059)和S5场景中(p=0.0059),多跳推理框架的优势得到了统计学验证
RQ5:扰动类型的影响

研究分析了三种扰动模式下的偏见分数:

  • 单一属性扰动

    (仅位置)

  • 双属性扰动

    (年龄+性别)

  • 三属性扰动

    (年龄+性别+位置)

结果表明,同时扰动所有三个属性会在大多数人口学维度上产生最高的偏见分数。这种效应在交叉性分组中特别明显,表明复合人口学变化会放大LLM对社会背景的敏感性,加剧生成输出中的差异。

六、框架的理论意义

该研究采用流行的LLM对抗攻击范式进行LLM评估,通过扰动上下文来评估偏见。 这是一种红队测试方法,通过修改原始信息并将修改版本与原始版本进行比较,来理解变化的影响,也反映了属性在上下文各个版本中的关联。

知识图谱作为高效的信息提取工具,能够检索所需信息以及上下文之间的关联关系。然而,它们缺乏解释隐性上下文细微差别所需的推理能力。另一方面,LLMs能够理解复杂关系,但由于其黑盒特性容易产生幻觉和不一致。整合KGs与辅助LLMs能够利用KGs的结构化和领域特定知识表示,同时通过LLMs增强上下文推理能力,从而有效提取实体之间的非结构化关系。

七、主要贡献与创新点

  1. 端到端框架:提出了一个LLM和KG基础的推理框架来评估医疗LLMs中的复杂偏见模式
  2. 扰动策略:构建了一套结合多个偏见场景的扰动问题,从临床背景提取的输入知识库生成隐性偏见的关系
  3. 多跳推理验证:证明了扰动实体与多跳推理相结合能够比各种基线揭示更多隐性偏见行为,展示了该方法的潜力
  4. 鲁棒性评估:通过"评判LLMs"和人工判断验证了隐性偏见检测框架的鲁棒性和适用性

八、研究局限与未来方向

主要局限

  • 最终推理依赖于初始KG开发的准确性,关系提取的精度差异可能导致临床答案不可靠
  • 实验主要考虑年龄、性别和地理位置的扰动,其他类型的患者因素偏见未充分涵盖

未来研究方向

  • 将偏见缓解策略与偏见识别模式相结合
  • 扩展到更多类型的患者属性和偏见维度
  • 开发更加自动化的KG关系提取方法以提高准确性

九、实际应用价值

这个框架的开发具有重要的临床意义:

  1. 医疗公平性保障:能够系统地识别医疗LLMs中可能被忽视的隐性偏见,有助于提高临床决策的公平性
  2. 模型评估工具:为不同医疗应用提供了可扩展的偏见评估方法,支持对不同LLM类型的评估
  3. 风险识别与预防:在医疗LLMs应用于临床前,能够识别其中的复杂偏见模式,有助于预防潜在的医疗不公平
  4. 多属性偏见分析:首次系统地研究了多个属性相互作用产生的交叉性偏见,填补了现有研究的空白

学AI大模型的正确顺序,千万不要搞错了

🤔2026年AI风口已来!各行各业的AI渗透肉眼可见,超多公司要么转型做AI相关产品,要么高薪挖AI技术人才,机遇直接摆在眼前!

有往AI方向发展,或者本身有后端编程基础的朋友,直接冲AI大模型应用开发转岗超合适!

就算暂时不打算转岗,了解大模型、RAG、Prompt、Agent这些热门概念,能上手做简单项目,也绝对是求职加分王🔋

在这里插入图片描述

📝给大家整理了超全最新的AI大模型应用开发学习清单和资料,手把手帮你快速入门!👇👇

学习路线:

✅大模型基础认知—大模型核心原理、发展历程、主流模型(GPT、文心一言等)特点解析
✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑
✅开发基础能力—Python进阶、API接口调用、大模型开发框架(LangChain等)实操
✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用
✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代
✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经

以上6大模块,看似清晰好上手,实则每个部分都有扎实的核心内容需要吃透!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐