系列篇章💥

No. 文章
1 【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术
2 【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流
3 【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破
4 【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源
5 【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型
6 【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题
7 【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破
8 【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元
9 【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型
10 【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合
11 【AI大模型前沿】Qwen2.5-Omni:阿里巴巴的多模态大模型,实现看、听、说、写一体化
12 【AI大模型前沿】SmolDocling:256M参数的轻量级多模态文档处理利器,10分钟搞定百页PDF
13 【AI大模型前沿】Stable Virtual Camera:Stability AI 推出的2D图像转3D视频模型,一键生成沉浸式视频
14 【AI大模型前沿】阿里 Qwen3 震撼开源,模型新王诞生,开启全球大模型新纪元
15 【AI大模型前沿】InternVL:OpenGVLab开源多模态大模型,解锁视觉问答与多语言翻译的全能应用图鉴
16 【AI大模型前沿】Fin-R1:上海财经大学联合财跃星辰推出的金融推理大模型,凭7B参数拿下评测第二,离行业第一仅差3分
17 【AI大模型前沿】Med-R1:基于强化学习的医疗视觉语言模型,突破跨模态医学推理的普适性
18 【AI大模型前沿】Baichuan-M1-14B:百川智能推出专为医疗优化的开源大语言模型
19 【AI大模型前沿】一键生成宫崎骏动画风,EasyControl Ghibli 让照片秒变吉卜力艺术品
20 【AI大模型前沿】TxGemma:谷歌推出的高效药物研发大模型,临床试验预测准确率超90%
21 【AI大模型前沿】F5R-TTS:腾讯推出TTS领域的新王者,又快又准又自然,零样本语音克隆新高度
22 【AI大模型前沿】MiniMind-V:低成本打造超小多模态视觉语言模型(仅需1.3元人民币和1小时)
23 【AI大模型前沿】MoCha:端到端对话角色视频生成模型、电影级对话角色合成黑科技、重新定义动画创作
24 【AI大模型前沿】HuatuoGPT-o1-7B:中英文双语医学推理,打破语言障碍的AI大模型
25 【AI大模型前沿】MedReason:大规模医学推理数据集、借用知识图谱将大模型打造成“医术”专家
26 【AI大模型前沿】SkyReels-V2:昆仑万维开源的无限时长电影生成模型,开启视频生成新纪元
27 【AI大模型前沿】Dia:Nari Labs开源16亿参数TTS模型,只需文本输入,生成媲美真人对话的语音
28 【AI大模型前沿】阿里巴巴开源LHM:单图生成可动画3D人体模型,开启3D建模新纪元
29 【AI大模型前沿】TinyLLaVA-Video-R1:北航开源视频推理模型、小尺寸大智慧、参数少一半,性能翻一番
30 【AI大模型前沿】TTRL:测试时强化学习,开启无标签数据推理新篇章
31 【AI大模型前沿】Aero-1-Audio:Qwen2.5架构加持,轻量级音频模型天花板、吊打Whisper
32 【AI大模型前沿】DianJin-R1:阿里云通义点金联合苏大推出的金融推理增强大模型
33 【AI大模型前沿】VITA-Audio:腾讯开源的高效语音交互多模态大语言模型
34 【AI大模型前沿】Multiverse:全球首个AI多人游戏世界模型,低成本高效率新突破
35 【AI大模型前沿】Seed1.5-VL:多模态理解的效率革新者,以小博大,性能惊艳
36 【AI大模型前沿】ViLAMP:蚂蚁集团和人民大学联手打造的长视频理解利器,单卡处理3小时视频
37 【AI大模型前沿】Muyan-TTS:开源零样本语音合成模型、0.33秒极速生成播客级语音、小白也能玩转AI配音
38 【AI大模型前沿】Dolphin:字节跳动开源文档解析大模型,轻量级、高效、多格式,开启文档处理新时代
39 【AI大模型前沿】ChatTS:字节跳动联合清华大学开源、多模态时序大模型助力时序数据对话与推理
40 【AI大模型前沿】Index-AniSora:B站开源的动漫视频生成模型,助力高效创作
41 【AI大模型前沿】RelightVid:上海 AI Lab联合复旦等高校推出的视频重照明模型
42 【AI大模型前沿】BAGEL:字节跳动开源、多模态大模型的创新突破与实践指南
43 【AI大模型前沿】Matrix-Game:昆仑万维开源大模型,一键生成你的专属虚拟世界
44 【AI大模型前沿】Pixel Reasoner:滑铁卢联合港科大等高校推出的视觉语言模型,助力视觉推理新突破
45 【AI大模型前沿】CoGenAV:多模态语音表征新范式、通义联合深技大打造、噪声环境WER降低70%+
46 【AI大模型前沿】Ming-Lite-Omni:蚂蚁集团开源的统一多模态大模型的创新实践
47 【AI大模型前沿】DeepEyes:小红书与西安交大联合打造的多模态深度思考模型
48 【AI大模型前沿】OmniAudio:阿里通义实验室的空间音频生成模型,开启沉浸式体验新时代
49 【AI大模型前沿】MiniCPM 4.0:面壁智能开源的极致高效端侧大模型(小版本、低消耗、220倍极致提速)
50 【AI大模型前沿】SmolVLA:Hugging Face开源的轻量级视觉-语言-行动机器人模型
51 【AI大模型前沿】Time-R1:伊利诺伊大学香槟分校开源的时间推理语言模型、实现过去→未来全链路推演
52 【AI大模型前沿】MonkeyOCR:基于结构-识别-关系三元组范式的文档解析模型
53 【AI大模型前沿】GLM-4.5:智谱打造的开源SOTA模型,推理、代码与智能体能力融合先锋
54 【AI大模型前沿】百度飞桨PaddleOCR 3.0开源发布,支持多语言、手写体识别,赋能智能文档处理
55 【AI大模型前沿】Stream-Omni:多模态交互的“黄金三角”——视觉、语音、文本的完美融合
56 【AI大模型前沿】Vui:Fluxions-AI开源的轻量级语音对话模型,开启自然语音交互新时代
57 【AI大模型前沿】腾讯AI Lab开源的SongGeneration:音乐生成大模型的技术探索与实践
58 【AI大模型前沿】Osmosis-Structure-0.6B:小型语言模型在结构化信息提取中的突破
59 【AI大模型前沿】Kwai Keye-VL:颠覆认知!国产多模态大模型突然发布,视频理解能力堪比人类
60 【AI大模型前沿】Nanonets-OCR-s:从学术论文到法律合同,智能识别公式、签名、表格与图像
61 【AI大模型前沿】OmniAvatar:浙大联合阿里打造的音频驱动全身视频生成模型
62 【AI大模型前沿】DAMO GRAPE:阿里达摩院与浙江肿瘤医院联合打造的早期胃癌识别AI模型
63 【AI大模型前沿】阿里开源Lingshu:一个模型搞定12种医学影像诊断
64 【AI大模型前沿】原石科技MetaStone-S1:突破性反思型生成式大模型的技术解析与实践指南
65 【AI大模型前沿】清华实验室开源MOSS-TTSD:口语对话语音生成的突破
66 【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA
67 【AI大模型前沿】Voxtral:Mistral AI开源的高性价比语音转录与理解模型
68 【AI大模型前沿】Goedel-Prover-V2:普林斯顿联合清华开源的定理证明模型,AI数学研究新里程碑
69 【AI大模型前沿】Seed-X:字节跳动开源的7B参数多语言翻译模型,挑战超大型模型性能
70 【AI大模型前沿】OpenReasoning-Nemotron:英伟达开源的推理利器,助力数学、科学与代码任务
71 【AI大模型前沿】阿里通义千问 Qwen3-Coder:开启智能代码生成与代理式编程新时代
72 【AI大模型前沿】Qwen3-SmVL:基于阿里通义千问3和SmolVLM拼接打造1 GB显存可跑的中文超小多模态大模型
73 【AI大模型前沿】通义万相Wan2.2:阿里270亿参数巨兽开源,消费级显卡就能跑,免费平替Sora上线
74 【AI大模型前沿】Higgs Audio V2杀疯:Boson AI开源语音大模型(克隆声音、同步BGM、低延迟对话一键搞定)
75 【AI大模型前沿】腾讯混元3D世界生成模型HunyuanWorld-1.0:开启沉浸式3D内容创作新纪元
76 【AI大模型前沿】Intern-S1:上海AI Lab打造的科学多模态大模型,助力科研智能化
77 【AI大模型前沿】腾讯混元Dense模型:从智能座舱到客服机器人,用0.5B参数打穿全场景
78 【AI大模型前沿】Qwen-Image:免费开源、写段文案→直接出图→还能继续精修,全程不用PS
79 【AI大模型前沿】小米开源MiDashengLM:语音、音乐、环境声一网打尽、智能座舱直接起飞
80 【AI大模型前沿】InternVL3.5:上海 AI Lab 开源多模态大模型、荣登多模态开源榜首
81 【AI大模型前沿】Qwen3-Max-Preview:阿里通义千问的万亿参数大模型,开启AI新纪元
82 【AI大模型前沿】dots.vlm1:小红书hi lab开源的高性能多模态大模型、免费可商用,图表推理直接封神
83 【AI大模型前沿】GLM-4.5V:智谱最新一代视觉推理模型,开源即巅峰,42项SOTA碾压全场,多模态一键秒杀
84 【AI大模型前沿】Jan-v1:基于阿里云Qwen3-4B-Thinking的高性能本地运行AI模型
85 【AI大模型前沿】KittenTTS:KittenML开源的轻量级文本转语音模型,离线部署与高效性能的完美结合
86 【AI大模型前沿】Baichuan-M2:百川智能开源医疗增强大模型,助力医疗智能化转型
87 【AI大模型前沿】MiroThinker:基于Qwen3构建的开源Agent模型系列,助力复杂任务解决
88 【AI大模型前沿】DINOv3:Meta开源的自监督视觉模型,卫星/医疗/自拍全通杀,性能吊打CLIP全家桶
89 【AI大模型前沿】VibeVoice:微软开源7B模型,跨语言、多说话人、长文本一次到位
90 【AI大模型前沿】Waver 1.0:字节跳动推出的AI视频生成模型,支持文本/图像到高清视频的创作
91 【AI大模型前沿】MobileCLIP2:苹果开发端侧大模型,让手机秒变AI神器、拍照就能写文案、搜图片零误差
92 【AI大模型前沿】MiniCPM-V 4.5:OpenBMB推出的高性能端侧多模态大模型
93 【AI大模型前沿】Step-Audio 2 mini:阶跃星辰开源的端到端语音大模型,听得清楚、想得明白、说得自然
94 【AI大模型前沿】HunyuanWorld-Voyager:腾讯开源的超长漫游世界模型,开启3D场景生成新纪元
95 【AI大模型前沿】EmbeddingGemma:谷歌开源的移动端优先文本嵌入模型,200MB 内存搞定 100 种语言 RAG,性能翻倍
96 【AI大模型前沿】Apertus:瑞士首个开源大模型,多语言支持,合规训练,高效性能
97 【AI大模型前沿】OneCAT:美团联合上交大推出的纯解码器多模态模型
98 【AI大模型前沿】MiniCPM4.1:面壁智能重磅开源,128K长文本推理秒级响应,端侧性能狂飙7倍
99 【AI大模型前沿】VoxCPM:OpenBMB 推出的无分词器 TTS 模型,实现上下文感知语音生成与逼真语音克隆
100 【AI大模型前沿】IBM Granite-Docling-258M:开源企业级文档 AI 模型的创新与应用
101 【AI大模型前沿】小红书开源FireRedTTS-2:突破性多说话人长对话语音生成系统完全解析
102 【AI大模型前沿】PP-OCRv5:百度飞桨的高效多语言文字识别利器,0.07 亿参数狂飙 370 字/秒,支持 40+ 语种
103 【AI大模型前沿】小米AI实验室发布ZipVoice系列语音合成模型,重塑语音交互体验
104 【AI大模型前沿】IndexTTS2:B站开源的零样本语音合成模型,实现情感与时长精准控制
105 【AI大模型前沿】Ling-V2:蚂蚁百灵团队打造的高效智能语言模型
106 【AI大模型前沿】腾讯ARC开源AudioStory:大语言模型驱动的长篇叙事音频生成技术
107 【AI大模型前沿】Mini-o3:字节跳动联合港大推出的开源视觉推理模型
108 【AI大模型前沿】InternVLA-N1:上海 AI Lab 开源的端到端双系统导航大模型
109 【AI大模型前沿】InternVLA-A1:上海AI实验室开源的具身操作大模型,助力机器人实现理解、想象与执行一体化
110 【AI大模型前沿】深度解析DeepSeek-R1-Safe:华为与浙大合作的安全大模型
111 【AI大模型前沿】小米开源语音大模型 Xiaomi-MiMo-Audio:开启语音领域的“LLaMA时刻”
112 【AI大模型前沿】百度Qianfan-VL:企业级多模态大模型的领域增强解决方案,OCR、数学、图表一把抓
113 【AI大模型前沿】Qwen3Guard:阿里云通义千问团队推出的安全防护模型
114 【AI大模型前沿】Qwen3-VL:阿里云通义千问的多模态视觉语言模型,开启智能交互新纪元
115 【AI大模型前沿】Qwen3-Omni:阿里巴巴通义千问团队引领全模态大模型新突破
116 【AI大模型前沿】Qwen3-TTS-Flash:阿里通义的多语言多音色语音合成利器
117 【AI大模型前沿】FLM-Audio:智源研究院开源的全双工音频对话大模型,开启自然流畅语音交互新时代
118 【AI大模型前沿】DeepSeek-V3.2-Exp:基于稀疏注意力机制的高效长文本处理大模型
119 【AI大模型前沿】智谱GLM-4.6:355B参数的旗舰级AI模型,代码能力与推理性能全面升级
120 【AI大模型前沿】Logics-Parsing:阿里巴巴开源的端到端文档解析模型
121 【AI大模型前沿】Ming-UniAudio:蚂蚁集团开源的多功能统一语音大模型
122 【AI大模型前沿】Ling-1T:蚂蚁集团开源万亿参数的高效推理非思考模型
123 【AI大模型前沿】微软UserLM-8b:AI助手的“逼真陪练”,多轮对话精炼利器
124 【AI大模型前沿】NeuTTS Air:Neuphonic打造的超拟真离线语音合成模型
125 【AI大模型前沿】Youtu-Embedding:腾讯优图开源的高性能通用文本表示模型
126 【AI大模型前沿】UniPixel:香港理工大学联合腾讯推出的像素级多模态大模型
127 【AI大模型前沿】SongBloom:腾讯AI Lab开源的全长度歌曲生成模型
128 【AI大模型前沿】SAIL-VL2:字节跳动开源的“小而强”视觉语言模型,2B参数也能吊打大模型
129 【AI大模型前沿】PaddleOCR-VL:百度0.9B超轻量级文档解析利器,多语言多模态功能强大
130 【AI大模型前沿】HunyuanWorld-Mirror:腾讯开源的多功能3D重建大模型
131 【AI大模型前沿】DeepSeek-OCR:开启OCR 2.0时代,用视觉压缩技术革新文档处理
132 【AI大模型前沿】FIBO:首个开源原生支持JSON的文本生成图像模型
133 【AI大模型前沿】SoulX-Podcast:多语言、多方言、多说话人的语音合成新突破
134 【AI大模型前沿】美团 LongCat-Flash-Omni:低延迟音视频交互的全模态大模型
135 【AI大模型前沿】Ouro:字节跳动Seed团队推出的循环语言模型,开启推理新纪元
136 【AI大模型前沿】UniWorld:基于强化学习的图像编辑大模型技术解析与应用探索
137 【AI大模型前沿】FG-CLIP:360推出的双语细粒度视觉语言对齐模型,助力多模态理解新突破
138 【AI大模型前沿】Maya1:Maya Research开源的语音合成模型,让AI声音充满情感
139 【AI大模型前沿】Step-Audio-EditX:全球首个开源LLM音频编辑大模型,开启音频创作新纪元
140 【AI大模型前沿】OmniVinci:NVIDIA全模态大模型,语音、图像、视频全搞定的六边形战士
141 【AI大模型前沿】Open-o3-Video:北大联合字节开源的时空推理视频模型
142 【AI大模型前沿】SenseNova-SI:商汤开源的空间智能大模型,性能超越GPT-5
143 【AI大模型前沿】ERNIE 4.5:百度文心大模型的多模态技术革新与应用实践
144 【AI大模型前沿】腾讯KaLM-Embedding:高性能多语言文本嵌入模型的创新与实践
145 【AI大模型前沿】Bee:腾讯混元与清华联合开源的全栈多模态大模型创新项目
146 【AI大模型前沿】InfinityStar:字节跳动推出的高效视频生成模型,开启视频创作新纪元
147 【AI大模型前沿】Meta SAM 3D:从单图到3D世界的神奇钥匙
148 【AI大模型前沿】Meta SAM 3:基于概念提示的图像与视频分割模型
149 【AI大模型前沿】腾讯 HunyuanVideo-1.5:用消费级显卡解锁高清视频生成的无限可能
150 【AI大模型前沿】Olmo 3:开源时代的 AI 定制先锋,打造专属智能模型
151 【AI大模型前沿】Fara-7B:微软打造的高效计算机操作代理模型,开启智能办公新时代
152 【AI大模型前沿】HunyuanOCR:腾讯混元推出的高效端到端OCR视觉语言模型
153 【AI大模型前沿】Z-Image:阿里通义的图像生成“魔法棒”,低资源设备也能玩转高清图像
154 【AI大模型前沿】Depth Anything 3:字节跳动推出的高效视觉空间重建模型
155 【AI大模型前沿】DeepSeek-Math-V2:数学推理的“智能助手”,从定理证明到竞赛夺冠
156 【AI大模型前沿】GLM-ASR:智谱开源的高性能语音识别模型
157 【AI大模型前沿】GLM-TTS:智谱AI打造的可控情感零样本文本转语音模型
158 【AI大模型前沿】GLM-4.6V:智谱多模态大模型的创新突破与应用实践
159 【AI大模型前沿】GLM-4.7:智谱AI的旗舰大模型,开启智能编程新时代
160 【AI大模型前沿】StepAudio R1:首个解锁音频推理能力的开源大模型
161 【AI大模型前沿】GELab-Zero:阶跃开源的4B端侧多模态GUI Agent模型,助力本地可控的移动设备智能化
162 【AI大模型前沿】Vidi2:由字节跳动开源的多模态视频理解与生成大模型
163 【AI大模型前沿】Mistral 3:欧洲开源力量的AI力作,多模态与高性能的完美融合
164 【AI大模型前沿】NewBie-image-Exp0.1:NewBieAI实验室打造的高效动漫图像生成模型
165 【AI大模型前沿】LongCat-Image:美团开源的高效图像生成与编辑模型
166 【AI大模型前沿】NVIDIA Nemotron 3:多智能体 AI 的高效推理引擎,开启智能协作新时代
167 【AI大模型前沿】LLaDA2.0:蚂蚁集团开源的100B扩散语言模型,高效推理与卓越性能
168 【AI大模型前沿】小米MiMo-V2-Flash:高效推理与智能体任务优化的开源大模型
169 【AI大模型前沿】Molmo 2:艾伦人工智能研究所开源的多模态视频理解模型
170 【AI大模型前沿】Meta SAM Audio:革新音频分离技术,开启多模态音频处理新时代
171 【AI大模型前沿】TRELLIS.2:微软开源的40亿参数图像转3D生成模型
172 【AI大模型前沿】T5Gemma 2:谷歌开源的下一代紧凑型多模态长上下文编解码模型
173 【AI大模型前沿】Qwen-Image-Layered:基于分层技术的图像编辑新突破
174 【AI大模型前沿】谷歌FunctionGemma:轻量化函数调用AI模型的创新与实践
175 【AI大模型前沿】Tencent-HY-MT1.5:腾讯混元开源的多语言翻译模型
176 【AI大模型前沿】Yume1.5:交互式世界生成模型的革新与实践
177 【AI大模型前沿】Step-DeepResearch:高效低成本的端到端深度研究 Agent 模型
178 【AI大模型前沿】Qwen-Doc:阿里通义千问的长文本理解与推理技术解析
179 【AI大模型前沿】MAI-UI:阿里通义开源的全尺寸GUI智能体基座模型,开启下一代人机交互新纪元
180 【AI大模型前沿】MedASR:谷歌开源的高精度医疗语音识别模型
181 【AI大模型前沿】Fun-Audio-Chat:阿里巴巴开源的高效语音交互大模型
182 【AI大模型前沿】XVERSE-Ent:元象开源的泛娱乐中英双语底座大模型
183 【AI大模型前沿】星辰语义大模型TeleChat3:国产千亿MoE大模型的创新与应用
184 【AI大模型前沿】腾讯 Youtu-LLM:轻量级语言模型的高性能突破
185 【AI大模型前沿】MiroThinker v1.5:开源搜索智能体的革命性突破,重新定义AI交互
186 【AI大模型前沿】Qwen3-VL-Reranker:阿里通义开源的跨模态重排序模型
187 【AI大模型前沿】VoiceSculptor:基于LLaSA与CosyVoice2的指令化语音合成利器
188 【AI大模型前沿】NVIDIA Nemotron Speech ASR:低延迟实时语音识别的开源利器
189 【AI大模型前沿】千寻智能Spirit-v1.5:开启具身智能新纪元,助力机器人迈向真实世界
190 【AI大模型前沿】Qwen3-VL-Embedding:阿里通义开源的多模态信息检索模型,助力高效跨模态理解与检索
191 【AI大模型前沿】智谱AI开源GLM-Image:自回归+扩散双引擎驱动的多模态图像生成新范式
192 【AI大模型前沿】Baichuan-M3-235B:国产开源医疗大模型登顶全球榜单,2350亿参数重构AI临床决策新标准
193 【AI大模型前沿】Google MedGemma 1.5技术解析:开源多模态医疗AI从2D影像到3D CT/MRI的跨越式进化
194 【AI大模型前沿】FlashLabs Chroma 1.0 技术深度解析:全球首个开源实时端到端语音对话模型
195 【AI大模型前沿】微软VibeVoice-ASR技术解析:支持60分钟长音频端到端识别的开源语音识别新标杆
196 【AI大模型前沿】AgentCPM-Explore:清华面壁开源4B端侧智能体,以小博大实现百轮深度搜索与长程推理
197 【AI大模型前沿】Step3-VL-10B:阶跃星辰开源10B参数多模态大模型,以小博大实现SOTA性能,支持PaCoRe并行推理
198 【AI大模型前沿】Ming-omni-tts:蚂蚁集团开源的统一音频生成大模型,支持语音/音乐/音效联合合成与细粒度情感控制
199 【AI大模型前沿】微软Phi-4-reasoning-vision-15B:150亿参数多模态推理模型的效率革命与训练实践
200 【AI大模型前沿】FireRed-OCR:小红书开源的2B参数文档结构解析专家,以小模型大能力登顶OmniDocBench SOTA


前言

在文档数字化浪潮中,通用视觉语言模型(VLM)虽具备强大的语义理解能力,却普遍面临"结构性幻觉"难题——表格行列错乱、公式凭空捏造、阅读顺序混乱等问题严重制约了工业级OCR应用落地。2026年3月,小红书Super Intelligence团队正式开源FireRed-OCR,以仅20亿参数的轻量级架构,在权威评测OmniDocBench v1.5中斩获92.94%综合得分,超越GPT-5.2、Gemini-3.0 Pro及Qwen3-VL-235B等超大规模模型,成功实现"小模型击败大模型"的技术突破,为文档智能解析领域树立了新的标杆。

在这里插入图片描述

一、项目概述

FireRed-OCR是小红书团队开源的端到端文档结构解析视觉语言模型,基于Qwen3-VL-2B-Instruct架构构建,采用创新的"三阶段渐进优化"训练策略与"几何+语义"数据工厂,专为攻克文档解析中的"结构幻觉"问题而设计。该模型能够将PDF、扫描图像、学术论文、财务报告等复杂版式文档精准转换为标准Markdown格式,支持复杂表格提取、数学公式语义化解析、多级标题层级重建等核心能力。作为工业级OCR结构化专家,FireRed-OCR不仅实现了端到端方案的新SOTA(State-of-the-Art),更以Apache 2.0协议全面开源,为科研人员和开发者提供了低成本、高精度的文档数字化解决方案。

二、核心功能

(一)、复杂表格高精度提取

FireRed-OCR具备卓越的表格结构识别能力,能够从排版混乱的PDF或扫描图像中精准定位表格区域,严格维持原始行列逻辑关系。与传统OCR系统常见的表格错位、跨行断裂等问题不同,该模型通过像素级空间感知技术,确保表格单元格内容与其行列位置精确对应,支持生成标准Markdown表格语法,便于后续的数据分析和数据库入库操作。

(二)、数学公式语义化解析

针对学术论文和技术文档中的数学表达式,FireRed-OCR实现了从视觉识别到语义理解的跨越。模型能够精准捕获文档内嵌的数学公式,转换为语法正确、语义完整的LaTeX或Markdown格式代码,有效避免公式符号遗漏、结构错误等常见问题,满足学术出版和后续编辑的严苛要求。

(三)、智能层级结构重建

FireRed-OCR具备强大的文档逻辑理解能力,可自动判别H1-H6标题级别、段落缩进、有序/无序列表等视觉线索,生成符合Markdown规范的嵌套结构。这种层级重建能力确保了文档语义层次的准确还原,使转换后的电子文档保留了原文档的导航结构和阅读逻辑。

(四)、全格式文档兼容转换

模型原生支持PDF、扫描图片、学术论文、财报、合同、书籍杂志等多种文档类型的处理,能够应对单栏、双栏、多栏混排等复杂版式场景。无论是标准印刷体还是带有一定形变的扫描件,FireRed-OCR均能输出结构清晰、语义连贯的Markdown文本,实现真正的一站式文档数字化。

(五)、强抗幻觉机制

通过引入GRPO(Group Relative Policy Optimization)强化学习框架,FireRed-OCR建立了四大奖励机制:公式语法有效性奖励、表格完整性奖励、层级闭合性奖励和文本准确性奖励。这种格式约束优化策略显著抑制了内容虚构、行序颠倒、标题嵌套错误等典型结构幻觉现象,大幅提升了输出结果的可靠性。

(六)、轻量化高效部署

得益于2B参数量的精巧设计,FireRed-OCR在保持顶尖性能的同时具备极佳的推理效率。模型支持本地私有化部署与标准化API接入,可在消费级GPU甚至部分CPU环境下运行,大幅降低硬件资源消耗,完美适配中小企业及个人开发者的实际需求。

三、技术揭秘

(一)、基础架构设计

FireRed-OCR基于Qwen3-VL-2B-Instruct多模态大模型构建,继承了Qwen3-VL强大的视觉理解和文本生成能力。该架构采用视觉编码器-语言模型解码器的经典设计,能够同时处理图像像素信息和文本语义信息,为文档结构解析提供了坚实的多模态理解基础。

(二)、"几何+语义"数据工厂

为解决高质量结构化训练数据稀缺的痛点,研究团队构建了创新的数据生产引擎。与传统随机采样不同,该工厂利用几何特征聚类和多维度标注技术,通过分析文档的版面布局、元素位置、字体特征等几何属性,结合内容语义标签,合成并整理出高度均衡的数据集。这种数据构建策略有效应对了长尾版式分布和罕见文档类型的挑战,确保模型在多样化场景下的泛化能力。

(三)、三阶段渐进式训练策略

FireRed-OCR采用精心设计的渐进式训练流程,引导模型从像素级感知逐步发展到逻辑结构生成:

阶段一:多任务预对齐。同时训练区域检测、区域识别和布局转Markdown三个任务,建立模型对文档空间布局的基础感知能力,使模型学会将视觉元素与文本内容建立初步关联。

阶段二:专项SFT微调。在高质量、标准化的Markdown数据集上进行监督微调,确保模型输出的逻辑一致性和层级表达准确性,规范全图像Markdown输出格式。

阶段三:格式约束GRPO优化。应用Group Relative Policy Optimization强化学习算法,通过格式奖励机制对模型进行深度优化。该阶段强制保证输出结果的语法有效性和结构完整性,实现模型的自我修正能力。

(四)、四大奖励机制详解

GRPO强化学习框架下的奖励机制是FireRed-OCR抑制结构幻觉的核心武器:

  • 公式语法有效性奖励:确保生成的数学公式符合LaTeX语法规范,避免括号不匹配、符号错误等问题;
  • 表格完整性奖励:验证表格行列结构的完整对应关系,防止表格未闭合或单元格错位;
  • 层级闭合性奖励:检查Markdown标题层级标签的正确闭合,确保文档结构树的合法性;
  • 文本准确性奖励:提升文字识别精度和内容保真度,减少漏识和错识现象。

(五)、端到端优化架构

FireRed-OCR采用端到端的一体化设计,直接从视觉输入生成结构化Markdown,无需传统OCR的多阶段流水线(检测→识别→版面分析→格式化)。这种架构消除了各阶段间的误差累积问题,显著提升了复杂文档的解析精度和处理效率。

四、基准测试

(一)、OmniDocBench v1.5权威评测

在文档解析领域最具权威性的OmniDocBench v1.5基准测试中,FireRed-OCR取得了**92.94%**的综合得分,在端到端方案中全面领跑。该评测涵盖文本识别、公式解析、表格结构、阅读顺序等多个维度,FireRed-OCR在各项指标上均展现出卓越性能。

(二)、端到端方案对比优势

与同类端到端OCR模型相比,FireRed-OCR展现出压倒性优势:

  • 相比DeepSeek-OCR 2高出1.85分
  • 相比OCRVerse高出4.38分
  • 相比dots.ocr高出4.53分

在表格结构识别子任务中,FireRed-OCR取得了90.31分的优异成绩,显著优于其他端到端方案,证明了其在复杂版面理解方面的专业能力。

(三)、跨量级模型对比突破

更令人瞩目的是,FireRed-OCR在与超大规模通用VLM的对比中实现了"以小搏大"的突破:
在这里插入图片描述

这一结果充分证明,通过专门化的训练策略和架构优化,轻量级专业模型能够在特定任务上达到甚至超越巨型通用模型的性能,为AI模型的高效化发展提供了重要参考。

五、应用场景

(一)、财务报告智能解析

在企业财务数字化领域,FireRed-OCR可高效提取上市公司年报、审计意见书中的多维财务表格与关键指标,生成结构化Markdown文档。这种能力支撑自动化财务建模、数据入库和趋势分析,大幅提升金融分析师和数据工程师的工作效率,降低人工录入错误率。

(二)、科研文献智能处理

针对学术论文场景,FireRed-OCR能够精准识别论文中的公式推导、图表说明、参考文献编号体系,输出符合学术出版规范的Markdown内容。这为文献管理、知识图谱构建、学术搜索引擎开发提供了高质量的结构化数据源,加速科研知识的数字化传播。

(三)、法律文书结构化处理

在法务领域,FireRed-OCR可将扫描件合同、判决书、尽调报告转化为带条款锚点、责任主体标注的可检索Markdown文档。这种结构化处理能力显著提升了法务尽职调查与风险审查的效率,使法律从业者能够快速定位关键条款,进行合规性检查。

(四)、出版物数字化工程

对于出版社和图书馆,FireRed-OCR能够复原纸质书籍、期刊的目录树、章节结构与图文混排逻辑,快速生成支持全文搜索与语义标注的数字资产。这为文化遗产保护、数字图书馆建设和在线教育内容生产提供了强有力的技术支撑。

(五)、教学资源结构化建设

在教育科技领域,FireRed-OCR可自动解析教材例题、试卷填空、课件公式等教学要素,输出适配LMS平台(如Moodle、Canvas)的标准化Markdown教学包。这种能力有助于构建智能化在线教育平台,实现个性化学习路径推荐和自动化作业批改。

(六)、历史档案数字化保护

面向档案馆、博物馆等机构,FireRed-OCR支持批量处理手写笔记、老票据、旧公文等非结构化历史材料,构建具备时间轴、关键词、实体链接能力的智能档案库。这为历史研究、文化传承和档案管理现代化提供了创新解决方案。

六、快速使用

(一)、环境准备与依赖安装

FireRed-OCR基于Python生态构建,使用前需确保环境满足以下要求:

# 安装核心依赖
pip install transformers
pip install qwen-vl-utils

# 克隆项目仓库
git clone https://github.com/FireRedTeam/FireRed-OCR.git
cd FireRed-OCR

建议运行环境配置:

  • GPU: 支持BF16精度的NVIDIA显卡(推荐显存≥8GB)
  • Python: 3.8及以上版本
  • PyTorch: 2.0及以上版本

(二)、模型加载与初始化

使用HuggingFace Transformers库可快速加载FireRed-OCR模型:

import torch
from transformers import Qwen3VLForConditionalGeneration, AutoProcessor
from conv_for_infer import generate_conv

# 加载模型(自动下载权重)
model = Qwen3VLForConditionalGeneration.from_pretrained(
    "FireRedTeam/FireRed-OCR-2B",
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

# 加载处理器
processor = AutoProcessor.from_pretrained("FireRedTeam/FireRed-OCR-2B")

# 启用Flash Attention 2加速(可选,推荐用于多图场景)
# model = Qwen3VLForConditionalGeneration.from_pretrained(
#     "FireRedTeam/FireRed-OCR-2B",
#     torch_dtype=torch.bfloat16,
#     attn_implementation="flash_attention_2",
#     device_map="auto",
# )

(三)、单文档推理实践

以下代码演示如何对单张文档图像进行结构化解析:

# 准备输入图像
image_path = "./examples/complex_table.png"
messages = generate_conv(image_path)

# 构建推理输入
inputs = processor.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_dict=True,
    return_tensors="pt"
)
inputs = inputs.to(model.device)

# 执行推理
generated_ids = model.generate(**inputs, max_new_tokens=8192)
generated_ids_trimmed = [
    out_ids[len(in_ids):] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]

# 解码输出结果
output_text = processor.batch_decode(
    generated_ids_trimmed, 
    skip_special_tokens=True, 
    clean_up_tokenization_spaces=False
)

print(output_text[0])  # 输出结构化Markdown文本

(四)、批量处理与API封装

对于生产环境部署,建议将模型封装为API服务:

from fastapi import FastAPI, File, UploadFile
import uvicorn

app = FastAPI()

@app.post("/ocr")
async def ocr_endpoint(file: UploadFile = File(...)):
    # 保存上传文件
    contents = await file.read()
    with open("temp.png", "wb") as f:
        f.write(contents)
    
    # 调用FireRed-OCR推理
    messages = generate_conv("temp.png")
    inputs = processor.apply_chat_template(
        messages,
        tokenize=True,
        add_generation_prompt=True,
        return_dict=True,
        return_tensors="pt"
    ).to(model.device)
    
    outputs = model.generate(**inputs, max_new_tokens=8192)
    result = processor.batch_decode(outputs, skip_special_tokens=True)
    
    return {"markdown": result[0]}

if __name__ == "__main__":
    uvicorn.run(app, host="0.0.0.0", port=8000)

(五)、性能优化与量化部署

针对资源受限环境,可采用量化技术降低显存占用:

# 使用8位量化加载
model = Qwen3VLForConditionalGeneration.from_pretrained(
    "FireRedTeam/FireRed-OCR-2B",
    load_in_8bit=True,
    device_map="auto",
)

# 或使用4位量化(需安装bitsandbytes)
model = Qwen3VLForConditionalGeneration.from_pretrained(
    "FireRedTeam/FireRed-OCR-2B",
    load_in_4bit=True,
    bnb_4bit_compute_dtype=torch.bfloat16,
    device_map="auto",
)

量化后的模型在保持较高精度的同时,显存占用可降低50%-75%,适合在消费级显卡或边缘设备上部署。

结语

FireRed-OCR的发布标志着文档智能解析领域进入了一个新的发展阶段。通过"通用VLM到专业结构化专家"的范式创新,小红书团队证明了专门化训练策略相比简单参数堆叠的显著优势。这款仅20亿参数的轻量级模型不仅在权威评测中登顶SOTA,更以开源姿态为整个行业提供了可复现、可商用的高质量解决方案。

对于开发者而言,FireRed-OCR提供了低门槛、高效率的文档数字化工具;对于研究者而言,其"三阶段渐进优化"和"格式约束GRPO"等技术方案为多模态模型专业化训练提供了宝贵参考;对于企业用户而言,Apache 2.0协议确保了技术的无障碍商用。随着文档数字化需求的持续增长,FireRed-OCR有望在RAG知识库构建、智能办公自动化、数字资产管理等领域发挥越来越重要的作用。

项目地址

  • GitHub开源仓库: https://github.com/FireRedTeam/FireRed-OCR
  • HuggingFace模型权重: https://huggingface.co/FireRedTeam/FireRed-OCR
  • HuggingFace在线体验: https://huggingface.co/spaces/FireRedTeam/FireRed-OCR
  • ModelScope模型权重: https://modelscope.cn/models/FireRedTeam/FireRed-OCR
  • ModelScope在线体验: https://www.modelscope.cn/studios/FireRedTeam/FireRed-OCR
  • 技术报告论文: https://github.com/FireRedTeam/FireRed-OCR/blob/main/assets/FireRed_OCR_Technical_Report.pdf

在这里插入图片描述

🎯🔖更多专栏系列文章:AI大模型提示工程完全指南AI大模型探索之路(零基础入门)AI大模型预训练微调进阶AI大模型开源精选实践AI大模型RAG应用探索实践🔥🔥🔥 其他专栏可以查看博客主页📑

😎 作者介绍:资深程序老猿,从业10年+、互联网系统架构师,目前专注于AIGC的探索(CSDN博客之星|AIGC领域优质创作者)
📖专属社群:欢迎关注【小兵的AI视界】公众号或扫描下方👇二维码,回复‘入群’ 即刻上车,获取邀请链接。
💘领取三大专属福利:1️⃣免费赠送AI+编程📚500本,2️⃣AI技术教程副业资料1套,3️⃣DeepSeek资料教程1套🔥(限前500人)
如果文章内容对您有所触动,别忘了点赞、⭐关注,收藏!加入我们,一起携手同行AI的探索之旅,开启智能时代的大门!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐