微软:小模型高效多模态推理

📖标题:Phi-4-reasoning-vision-15B Technical Report
🌐来源:arXiv, 2603.03975v1
🌟摘要
我们展示了Phi-4-reasoning-vision-15B,一个紧凑的开放权重多模态推理模型,并分享了为其开发提供信息的动机、设计选择、实验和学习。我们的目标是为研究社区提供关于构建更小、高效的多模态推理模型的实用见解,并将这些学习的结果作为一个开放权重模型分享,该模型擅长共同视觉和语言任务,擅长科学和数学推理以及理解用户界面。我们的贡献包括证明谨慎的架构选择和严格的数据管理使更小的开放权重多模态模型能够以更少的训练和推理时间计算和令牌实现具有竞争力的性能。最显著的改进来自系统滤波、纠错和综合增强——这强化了数据质量仍然是模型性能的主要杠杆。系统消融表明,高分辨率、动态分辨率编码器产生了一致的改进,因为准确的感知是高质量推理的先决条件。最后,推理和非推理数据与显式模式标记的混合组合允许单个模型为更简单的任务提供快速直接答案,为复杂问题提供思想链推理。
🛎️文章简介
🔸研究问题:如何在显著降低训练与推理计算开销的前提下,构建性能媲美大模型的轻量级开放权重多模态推理模型?
🔸主要贡献:论文提出Phi-4-reasoning-vision-15B,通过高质量数据治理、动态高分辨率视觉编码器设计及混合推理机制,在仅200B训练token下实现SOTA能效比。
📝重点思路
🔸采用mid-fusion架构,复用预训练SigLIP-2视觉编码器与Phi-4-Reasoning语言骨干,兼顾跨模态能力与计算可控性。
🔸系统开展视觉编码器消融实验,证实动态分辨率(最高3600视觉token)显著提升高分辨率任务(如ScreenSpot-Pro)性能,优于Multi-crop与Dynamic-S2。
🔸三阶段训练流程:先冻结主干仅训MLP对齐视觉-文本空间;再联合微调全模型于单图指令数据;最后扩展至长上下文、多图与安全对齐训练。
🔸构建混合数据策略:20%含标记的链式推理样本(用于数学/科学),80%含标记的直接响应样本(用于OCR/标注/界面定位),使单模型自适应切换模式。
🔸强调数据质量优先:人工筛选+GPT-4o纠错+合成增强(如以数学图像为种子生成描述),证明数据清洗与重构比单纯扩量更有效。
🔎分析总结
🔸动态分辨率视觉编码器在MathVista和ScreenSpot-Pro上分别达44.9%和17.5%,显著优于固定分辨率方法,验证“感知精度是推理前提”。
🔸混合推理训练使模型默认行为准确率高于强制开启或关闭推理——在MathVista、MMMU等基准上,混合模式平均领先强制推理模式1.1个百分点、领先强制非推理模式6.5个百分点。
🔸仅用200B多模态token(不足Qwen3-VL等模型的1/5),在ChartQA、MathVista、ScreenSpot-v2等任务上超越同规模开源模型,且推理延迟降低约40%。
🔸数学与计算机使用(CUA)数据比例实验表明:二者可协同增益——增加数学数据反而提升ScreenSpot-V2性能,引入Phi-Ground界面数据使CUA准确率跃升33.3个百分点。
🔸安全性评估显示图像到文本缺陷率为4.5%,略高于纯文本(1.4%),印证多模态内容理解带来额外安全挑战,需专项RAI数据强化。
💡个人观点
论文的重点在于不堆参数、不扩数据量,而靠系统性过滤、纠错与合成提升数据信噪比。
🧩附录


AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)