摘要:本文面向显微镜采集的血涂片图像,构建一套基于深度学习的血细胞智能检测与计数桌面系统,目标是在保证可用精度的同时实现更顺畅的交互式分析与结果追溯。系统提供数据与代码可下载,前端采用 PySide6/Qt 实现统一工作流,支持图片/视频/本地摄像头多源输入,检测过程在主显示区实时叠加类名+置信度并配合处理进度条展示推理进度;同时支持 Conf/IoU 参数即时调节、统计表格一键CSV 导出,以及带框结果的一键导出(单帧 PNG、多帧 AVI)。在数据与会话层面,系统内置SQLite 本地入库用于账户与检测记录管理,提供登录/注册可跳过入口,并对口令校验与本地化存储做了体验与安全的平衡。算法侧覆盖 YOLOv5–YOLOv12(共 8 种),支持模型选择/权重加载(.pt 热切换),并以 mAP、F1、PR 曲线与训练曲线等指标对多模型进行系统对比评测;文末提供完整工程与数据集下载链接

功能效果展示视频:热门实战|《基于深度学习的血细胞智能检测与计数》YOLOv12-v8多版本合集:附论文/源码/PPT/数据集,支持图片/视频/摄像头输入、可视化界面、结果导出与权重切换

➷点击跳转至文末所有涉及的完整代码文件页☇


1. 系统功能与效果

(1)登录注册:系统启动后提供登录、注册与跳过三种入口,登录态在本次客户端会话内生效,用于隔离不同用户的历史记录与个性化配置。完成登录后,界面导航动线清晰:先进入概览页查看最近检测与统计,再进入图片检测等功能页面,最后在导出视图中复核与归档结果。为兼顾体验与安全,账户与记录采用本地数据库管理并进行口令校验,跳过模式仅提供一次性临时会话以减少数据混用风险。
在这里插入图片描述

(2)功能概况:主界面采用“左侧参数与数据源、中部可视化、右侧详情、底部记录与进度”的布局,使操作在同一屏内闭环完成。用户可从概览快速定位最近一次任务、查看关键统计,并通过记录表对某条结果进行高亮回看。整体交互强调少点击与强反馈:加载、推理与导出均配合状态提示与用时信息,降低重复操作成本。
在这里插入图片描述

(3)选择模型:系统支持在运行过程中选择不同 YOLO 系列模型并加载本地权重文件,实现 .pt 级别的热切换。切换后类别名称、配色与可视化渲染会同步刷新,确保同一张图在不同模型下的对比更直观。为便于复现实验,模型相关配置与界面主题可本地持久化保存,下次进入自动恢复到上一次使用习惯。
在这里插入图片描述

(4)图片检测:选择单张图像或图像目录后,系统在主显示区实时叠加检测框,展示类别名与置信度,并在底部提供进度与当前处理状态。用户可即时调整 Conf/IoU 阈值,配合目标选择与高亮机制快速复核疑似误检或漏检区域。检测结果同步写入记录表,便于跨页查看与后续导出统计。
在这里插入图片描述

(5)文件保存:系统提供结果统一归档能力,检测统计可一键导出为 CSV,便于后续质控与报表汇总。带框可视化结果支持一键保存,命名采用时间戳策略以保证溯源与批量管理的整洁性。结合记录表的按文件名定位能力,用户可快速回到某次检测的原图与对应导出文件,实现“可查、可复核、可复现”的工作流。

在这里插入图片描述


2. 绪论

2.1 研究背景及意义

血细胞检测与计数(如红细胞、白细胞、血小板)是临床检验中最基础且最高频的环节之一,其结果直接服务于感染、贫血、凝血异常及血液系统疾病的筛查与分型诊断1。在常规外周血涂片的显微镜阅片流程中,细胞计数与类别判读高度依赖检验人员经验,面对高通量样本时往往存在耗时长、主观波动大与重复劳动强等问题2。随着数字病理与智能显微成像的发展,将目标检测与计数任务从“人工镜检”迁移到“深度学习自动识别”已成为提升检验效率与一致性的关键路径,而以检测框为载体的可解释可视化也更利于人机协同复核与结果追溯3。(ScienceDirect)

从工程落地角度看,血细胞智能检测不仅要求在单张图像上获得稳定的定位与分类精度,还需要在视频流或本地摄像头实时输入下保持低延迟推理与可控的误检漏检水平。公开血细胞数据集普遍存在分辨率差异、染色风格变化、细胞密集遮挡与类别长尾等问题,其中血小板尺度小且易被遮挡,红细胞粘连与重叠又会显著提升定位难度4。因此,围绕“高精度检测 + 可靠计数 + 端侧可视交互”的系统化研究,既能推动算法在真实检验场景的可用性,也能为后续的持续标注、模型迭代与质量控制提供可复用的工程闭环。(计算机系统应用)

2.2 国内外研究现状

在血细胞智能检测任务中,研究对象通常来自外周血涂片或显微镜采集图像,目标呈现出“类间相似性高、类内形态差异大、尺度跨度显著、密集遮挡频繁、成像噪声与光照变化强”等典型困难。以常用的血细胞检测数据集为例,三类目标(WBC、RBC、Platelets)同时存在数量不均衡与小目标占比高的问题,使得检测器既需要稳定的多尺度表征能力,也需要更鲁棒的正负样本分配与阈值策略4。为缓解不同公开资源间标注口径不一致导致的评测偏差,近年也出现了对多来源数据进行筛选与重标注的整合型数据集工作,以提升标注一致性并提供更可信的基线对比[5]。(计算机系统应用)

从检测范式演进看,两阶段检测器以候选框机制获得较强的定位与分类能力,但在高吞吐场景下往往受到推理速度与部署复杂度限制[6]。单阶段检测器通过端到端的密集预测在效率上更具优势,其中焦点损失等机制被用于缓解前景与背景样本极端不均衡,从而提升难例学习效果并改善密集目标的召回表现[7]。然而,血细胞任务的难点并不止于类别不平衡,红细胞粘连导致的边界不清晰、血小板的极小尺度与易漏检特性,都对特征金字塔、多尺度融合与小目标检测头提出更高要求。(计算机系统应用)

Transformer 检测器以集合预测与匹配学习为核心,削弱了对手工候选框与后处理规则的依赖,但早期方法常因训练收敛慢与计算成本高而难以满足实时场景[8]。为将端到端集合预测引入实时推理,RT-DETR 通过高效混合编码器与查询选择机制在 COCO 上取得较高精度与帧率,使“NMS 依赖”这一工程瓶颈被显式地系统化讨论[9]。这类端到端检测器为“实时在线计数”提供了另一条路径:当系统侧需要稳定的吞吐与较少的超参数敏感性时,NMS-free 的推理链路在多源输入(图像、视频、摄像头)的一致性维护上更具优势。(CVF开放获取)

在 YOLO 家族中,近年来的研究更强调“精度–效率边界”的系统性优化与工程可部署性。YOLOv10 将一致性双重分配用于 NMS-free 训练,并结合效率与精度驱动的组件级设计,在 COCO 上报告了更优的延迟–精度折中关系[10]。YOLOv9 进一步从训练信息流与架构可扩展性角度提出 PGI 与 GELAN 设计,使模型在参数与计算量显著下降的同时仍能保持或提升检测性能[11]。面向“注意力建模能力强但速度不足”的矛盾,YOLOv12 以注意力为中心的结构设计尝试在保持实时性前提下引入更强的全局建模能力,并在多个尺度上给出与前代实时检测器的对比结果[12]。(arXiv)

针对血细胞这一特定场景,国内外大量工作倾向于在成熟检测框架上进行“轻量化 + 小目标增强 + 特征融合改造”的组合式改进。国内研究中,基于 YOLOv5 的改进方法常通过注意力与跨尺度融合结构提升对血小板小目标与红细胞粘连区域的检出率,并在 BCCD 数据集上报告了相对 Faster R-CNN 与多种 YOLO 基线的精度与速度优势4。也有研究基于 YOLOv7 通过感受野与上采样策略调整,在同一公开数据集上获得更高的 mAP 指标以支持更稳定的计数[13]。在更细粒度的白细胞检测任务中,面向多类别 WBC 的优化 YOLOv8 变体进一步结合微尺度检测层与轻量卷积以提升 F1 等统计指标,反映出医疗场景对“精度与可靠性优先”的评价偏好[14]。随着更大规模、重标注一致性更强的数据集出现,多模型基线对比也开始覆盖 YOLO、SSD、Faster R-CNN 与 RetinaNet 等多类方法,为跨方法评测提供了更可复现的基准[5]。(计算机系统应用)

方法 范式/家族 数据集 关键改进技术(概述) 优势与局限性(概述) 关键指标(论文/报告给出) 对应任务难点 引用
Faster R-CNN 两阶段 BCCD 候选框 + 分类回归 对大目标较稳,但密集小目标与速度受限 mAP@0.5=0.765,FPS=9.2 密集遮挡、实时性 4
YOLOv5-CBF 单阶段 YOLO BCCD 注意力 + 融合结构 + 增加小目标尺度 兼顾精度与速度,但极端粘连仍可能误检漏检 mAP@0.5=0.923,FPS=51.9 小目标血小板、粘连红细胞 4
改进 YOLOv7 单阶段 YOLO BCCD 感受野与上采样策略改造、注意力等 mAP 提升明显,但可部署性与速度需结合实现评估 mAP@0.5=0.9340,mAP@0.5:0.95=0.6548 低分辨率、小目标 [13]
Op-YOLOv8(WBC) 单阶段 YOLO BCCD 微尺度检测层 + 深度可分离卷积等 适配多类别 WBC,偏重精度指标,但需关注泛化 Precision=0.981,Recall=0.989,F1=0.985 类间相似、样本不均衡 [14]
RT-DETR-R50 端到端 Transformer COCO 高效混合编码器 + 查询选择 NMS-free 更利于端到端部署,但训练与算力门槛较高 AP=53.1%,108 FPS(T4) 低延迟、阈值稳定性 [9]
YOLOv10-S 单阶段 YOLO(NMS-free 训练) COCO 一致性双重分配 + 组件级效率设计 延迟–精度折中突出,但需与任务域迁移结合验证 AP(val)=44.3%,Latency=2.44ms 实时推理、端到端链路 [10]
YOLOv12-N 注意力中心 YOLO COCO 注意力为核心的实时结构设计 兼顾注意力建模与速度,但仍需看端侧适配 mAP=40.6%,Latency=1.64ms(T4) 速度–精度边界 [12]
TXL-PBC 数据集/基准 TXL-PBC 多来源整合与重标注 + 多模型 baseline 提升标注一致性,但跨设备与跨染色域仍有差异 1260 图像、18143 标注框、3 类 数据一致性、可复现评测 [5]

(表中 BCCD 指标与对比结果来自公开论文的实验表格与结论,COCO 指标来自对应方法论文摘要或实验表格。)(计算机系统应用)

2.3 要解决的问题及其方案

围绕“基于深度学习的血细胞智能检测与计数”这一目标,本文系统需要解决的核心问题包括:(1)检测与计数的准确性与实时性难以兼顾,尤其在血小板极小目标与红细胞粘连场景下容易出现漏检与重复计数。(2)模型对不同染色风格、不同显微镜成像条件以及不同样本质量的适应性不足,导致跨域泛化性能波动。(3)桌面端交互界面需要同时满足多源输入、阈值可调、结果可解释与批量导出等要求,避免“算法可用但系统不可用”的落地断层。(4)检测记录与用户数据的高效处理与安全存储需要统一设计,使实验评测、复核追溯与结果管理形成闭环。

针对上述问题,本文拟采用的解决方案包括:(1)以 YOLOv12 为主线模型,并组织 YOLOv5 至 YOLOv12 多版本的对比训练与推理评测,通过数据增强、迁移学习与阈值策略优化在精度与速度之间获得可控折中。(2)基于 PyTorch 完成训练、推理与评测逻辑,统一图像预处理与后处理流程,使得不同模型在同一输入规范下可公平对比并可直接部署。(3)前端采用 PySide6/Qt 构建桌面端交互系统,支持图片、视频与本地摄像头输入,提供置信度与 IoU 阈值滑块、目标选择高亮、计数统计与可解释可视化,并实现权重文件的热切换以满足多模型快速试用。(4)在数据层以本地数据库完成账户与记录管理,结合缓存序列、时间戳命名与统一导出编排机制,支持 CSV、单帧图像与多帧视频的结果导出,提升处理效率与数据可追溯性,同时通过系统化测试与硬件加速策略保障端侧稳定运行。

2.4 博文贡献与组织结构

本文的主要贡献体现在:(1)综合梳理血细胞检测与计数任务的关键难点与研究脉络,并从检测范式、实时部署与可解释交互三个维度建立面向落地的综述框架。(2)围绕 YOLOv5 至 YOLOv12 构建统一训练与评测链路,给出可对齐的指标体系与对比分析思路,使读者能够在同一任务与同一数据规范下理解不同版本的性能差异。(3)给出美观且可用的桌面端系统设计,强调多源输入、实时调参与结果导出的闭环体验,使算法能力能够被稳定地“用起来”,而非停留在离线实验。(4)在系统层将模型权重管理、检测记录与本地存储机制纳入同一工程叙事,突出复核追溯、批量管理与可扩展性的设计取舍。(5)在资源层提供完整工程与数据组织方式,便于复现实验与二次开发。

在组织结构上,本文后续章节将依次介绍数据集与标注规范、检测模型的核心原理与关键设计、不同 YOLO 版本的实验对比与误差分析,以及 PySide6/Qt 桌面端的系统实现与流程图说明,最后总结系统在真实血细胞计数场景中的有效性并讨论未来的持续学习与部署优化方向。


3. 数据集处理

本研究使用的血细胞检测数据集共包含 3153 张显微图像,目标类别覆盖 Platelets(血小板)、RBC(红细胞)、WBC(白细胞)与 sickle cell(镰状细胞)四类,系统侧在显示、统计与导出时统一采用中文名映射以保证语义一致。标注以目标检测边界框为主,标签描述由“类别编号 + 归一化框参数”构成,便于与 YOLO 系列训练与推理链路直接对齐;在数据入库与结果复核阶段,系统将模型输出的框坐标还原到原图尺度,并与类别、置信度等信息一起形成可追溯记录。结合训练批次可视化可见,同一视野内常出现多目标密集分布、红细胞粘连与局部遮挡等情况,且血小板具有典型小目标特征,这决定了数据处理需要同时兼顾小目标召回与密集场景下的误检抑制,避免计数结果在复杂视野中出现系统性偏差。标签及其对应中文名如下:

Chinese_name = {'Platelets': "血小板", 'RBC': "红细胞", 'WBC': "白细胞", 'sickle cell': "镰状细胞"}

在这里插入图片描述

数据集按照 2853/219/81 的数量划分为训练集、验证集与测试集,使训练阶段能够充分学习血涂片的形态多样性,验证阶段用于阈值与超参数选择,测试阶段用于最终泛化评估。为保证实验可复现性与对比公平性,划分过程通常采用固定随机种子并保持一次划分全程复用,同时尽量避免同一来源或高度相似视野在不同子集间交叉出现,从而降低数据泄漏导致的指标虚高风险;在实际工程中,这一划分策略会直接影响不同 YOLO 版本在同一数据规范下的 mAP、F1 与 PR 曲线可比性,也决定了后续桌面端“最近记录回看与批量导出”的可追溯边界。

在这里插入图片描述
在预处理层面,训练与推理统一采用固定输入尺寸以适配实时检测链路,并对标注进行一致性校验与清洗,例如剔除异常框、修正越界或空框、去除重复标注并同步更新缓存索引,以减少噪声标签对收敛稳定性的干扰。增强策略以提升跨视野鲁棒性为目标,通常包含颜色与亮度扰动以适配不同染色与光照差异,几何仿射与随机缩放裁剪以覆盖细胞尺度变化,适度的拼接类增强用于提升密集场景的上下文学习能力,从而缓解红细胞粘连、细胞重叠与局部遮挡带来的漏检问题;针对血小板等小目标与潜在长尾类别,可通过更保守的裁剪尺度、增强采样与难例保留来提升有效正样本占比,使模型在复杂背景与反光噪声下仍能输出更稳定的定位与计数结果。


4. 模型原理与设计

面向血细胞显微图像的智能检测与计数,本文在算法侧采用以 YOLOv12 为主线的单阶段目标检测框架,将“定位(bbox)+分类(class)+置信度(score)”作为统一输出接口,以便在桌面端实现实时叠加可视化与可追溯统计。YOLO 类方法的优势在于端到端推理链路短、吞吐高,适合在密集目标与小目标并存的视野中维持稳定帧率;对本任务而言,血小板的极小尺度与红细胞的粘连遮挡要求模型在较低延迟下仍能提供足够的多尺度表征能力与更鲁棒的前景判别能力,从而避免漏检导致的计数偏差,并降低背景噪声诱发的误检。YOLOv12 的设计目标正是“在引入注意力建模能力的同时保持实时性”,因此更适合作为本系统的默认部署模型,并与 YOLOv5–YOLOv11 形成可对比的技术演进参照。(arXiv)

从结构上看,YOLOv12 延续了典型的 Backbone–Neck–Head 三段式范式:Backbone 负责多层次特征提取,Neck 通过上采样与拼接实现跨尺度融合,Head 在多个尺度输出分类与回归预测以覆盖不同大小的细胞目标。与传统纯卷积堆叠不同,YOLOv12 强调“注意力为中心”的特征建模,通过在主干与颈部引入注意力相关模块(例如 A2C2f 等)增强全局依赖建模与区域信息聚合,使得模型在面对细胞形态相似、背景纹理复杂、局部反光干扰时仍能保持判别力。注意力计算通常可抽象为缩放点积形式:
A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K ⊤ d k ) V , \mathrm{Attention}(Q,K,V)=\mathrm{softmax}\left(\frac{QK^{\top}}{\sqrt{d_k}}\right)V, Attention(Q,K,V)=softmax(dk QK)V,
其中 (Q,K,V) 分别表示查询、键和值的特征表示,(d_k) 为键向量维度,用于缩放以稳定梯度;在血细胞任务中,这类机制的直观收益在于能在密集视野中更好地区分“相邻细胞边界”与“背景伪纹理”。网络整体架构图如下图所示:

在这里插入图片描述

在损失函数与任务建模上,YOLO 系列通常采用分类损失与定位损失的组合优化,其中定位回归以 IoU 族目标为核心更契合“框对齐质量”这一最终需求。基础 IoU 可写为
I o U = ∣ B ∩ B g t ∣ ∣ B ∪ B g t ∣ , \mathrm{IoU}=\frac{|B\cap B^{gt}|}{|B\cup B^{gt}|}, IoU=BBgtBBgt,
其中 (B) 为预测框、(B^{gt}) 为真实框;为提升收敛稳定性与几何约束能力,常用 CIoU 等改进形式:
L ∗ C I o U = 1 − I o U + ρ 2 ( c , c g t ) d 2 + α v , \mathcal{L}*{\mathrm{CIoU}}=1-\mathrm{IoU}+\frac{\rho^2(\mathbf{c},\mathbf{c}^{gt})}{d^2}+\alpha v, LCIoU=1IoU+d2ρ2(c,cgt)+αv,
(\mathbf{c},\mathbf{c}^{gt}) 为预测框与真实框中心点,(\rho(\cdot)) 表示欧氏距离,(d) 为最小外接框对角线长度,(v) 描述宽高比一致性,(\alpha) 为权重项;在红细胞粘连与遮挡场景中,CIoU 的中心距离与形状约束能减少“框漂移”和“过度膨胀”的问题,从而让计数更稳定。分类侧通常使用二元交叉熵或其变体,并可引入 Focal Loss 抑制易分类负样本主导训练:
L ∗ f o c a l = − α ( 1 − p t ) γ log ⁡ ( p t ) , \mathcal{L}*{\mathrm{focal}}=-\alpha(1-p_t)^\gamma\log(p_t), Lfocal=α(1pt)γlog(pt),
其中 (p_t) 为对真实类别的预测概率,(\gamma) 控制对难例的聚焦强度,(\alpha) 用于类别不均衡调节;这对血小板这类“小且少”的目标尤其关键。(arXiv)

训练与正则化策略方面,本文在统一输入尺寸与数据规范下训练 YOLOv12,并通过学习率调度、权重衰减与批归一化等机制提升收敛稳定性;当任务存在显著尺度差异与光照染色波动时,合理的数据增强与正则化能显著降低过拟合到特定视野风格的风险。推理阶段,模型会对多尺度预测进行置信度筛选,并通过 NMS 进行冗余抑制,其典型策略可表述为:按置信度从高到低依次选择候选框,并删除与当前保留框 IoU 大于阈值 (\tau) 的同类框;在密集细胞场景中,(\tau) 过小会造成相邻细胞被“误抑制”而漏计,(\tau) 过大又会保留过多重叠框导致重复计数,因此本文将 Conf/IoU 作为桌面端可调参数,使用户能在“更高召回(尤其血小板)”与“更低误检(背景杂质)”之间快速找到适配当前视野的工作点。结合 YOLOv12 的注意力增强特征表达与多尺度检测头,系统在保持实时性的同时更容易获得可解释、可复核且便于导出的检测框结果,为后续多模型对比与工程落地提供统一接口。(GitHub)


5. 实验结果与分析

本章实验旨在对比不同 YOLO 版本在血细胞四类目标(血小板、红细胞、白细胞、镰状细胞)上的检测与计数适配性,并评估其在桌面端交互场景中的实时性表现。所有模型统一在同一数据划分(训练 2853、验证 219、测试 81)与一致的输入规范下完成训练与评测,推理端以 640×640 尺度进行预处理,最终以 Precision、Recall、F1、mAP50 与 mAP50-95 作为精度指标,同时统计 Pre/Inf/Post 三段耗时用于刻画“可交互实时性”。实验硬件为 NVIDIA GeForce RTX 3070 Laptop GPU(8GB),因此表中延迟更贴近本文桌面端落地时的用户体感。

在这里插入图片描述

图 5-1 n 系列模型 F1 与 mAP50 双条形图

n 系列轻量模型对比中(YOLOv5nu、YOLOv6n、YOLOv7-tiny、YOLOv8n、YOLOv9t、YOLOv10n、YOLOv11n、YOLOv12n),整体精度呈现出较稳定的平台区间:mAP50 约在 0.79–0.84,mAP50-95 约在 0.50–0.56,F1 约在 0.75–0.79。若以“综合检测质量(mAP50 与 F1)”作为优先目标,YOLOv8n 在 mAP50=0.8391、F1=0.7899 上给出最均衡的结果,并且 InfTime=6.83ms 仍保持较低延迟;若以“更高召回与更强泛化(mAP50-95)”作为优先目标,YOLOv9t 与 YOLOv12n 的 mAP50-95 分别达到 0.5607 与 0.5564,且 Recall 均在 0.83 左右,更适合对漏检敏感的计数场景,但其 InfTime(16.51ms 与 12.47ms)会带来更明显的实时性压力。值得注意的是,YOLOv10n 的 PostTime=0.63ms 显著更低,意味着在“后处理/NMS 成为瓶颈”的情况下更有利于稳定帧率,这一点在密集细胞视野中往往会直接影响导出视频的流畅性与进度条反馈的一致性。

模型(n) Params(M) FLOPs(G) InfTime(ms) Precision Recall F1 mAP50 mAP50-95
YOLOv5nu 2.6 7.7 7.73 0.7413 0.7874 0.7636 0.7920 0.5324
YOLOv6n 4.3 11.1 6.78 0.7164 0.7828 0.7481 0.7897 0.5176
YOLOv7-tiny 6.2 13.8 14.74 0.7739 0.7758 0.7749 0.8112 0.4992
YOLOv8n 3.2 8.7 6.83 0.8095 0.7712 0.7899 0.8391 0.5451
YOLOv9t 2.0 7.7 16.51 0.7494 0.8332 0.7891 0.8281 0.5607
YOLOv10n 2.3 6.7 11.24 0.7708 0.7541 0.7624 0.8167 0.5418
YOLOv11n 2.6 6.5 9.44 0.7785 0.7693 0.7739 0.8226 0.5439
YOLOv12n 2.6 6.5 12.47 0.7307 0.8319 0.7780 0.8300 0.5564

图 5-1 给出了 n 系列的 F1 与 mAP50 双指标对比,可直观看到 YOLOv8n 在精度侧的优势以及 YOLOv9t/YOLOv12n 在召回侧的倾向,这种差异与血细胞任务的“密集小目标 + 类间相似”特性高度一致:当阈值偏保守时更容易漏掉血小板等小目标,导致计数偏低;当阈值偏激进时又更容易将背景碎屑或染色噪声误检为红细胞,导致计数偏高。因此本文在桌面端将 Conf/IoU 做成可调滑块,本质上是把“计数偏差风险”显式交还给操作者,并通过实时叠加框与表格记录帮助快速找到适配当前视野的工作点。

在这里插入图片描述

图 5-2 单模型 PR 曲线示例

s 系列模型对比中(YOLOv5su、YOLOv6s、YOLOv7、YOLOv8s、YOLOv9s、YOLOv10s、YOLOv11s、YOLOv12s),参数量与计算量显著上升并未带来“压倒性”的精度优势,整体仍处于相近区间,但表现出更清晰的“精度—延迟”分层:YOLOv9s 在 mAP50=0.8211、mAP50-95=0.5542 上最好,但 InfTime=18.66ms;YOLOv10s 则在 Precision=0.8031、F1=0.7792 上更突出,并且 PostTime=0.6ms 依旧保持极低后处理开销,适合作为“较强精度 + 可交互实时性”的折中选择;YOLOv8s 的 InfTime=7.66ms 在 s 系列中最低,配合较高 Recall=0.8231,适合在桌面端作为“速度优先、召回偏高”的实时预筛模型。综合来看,若目标是“检测可解释 + 计数稳定 + 界面流畅”,n 系列中的 YOLOv8n 仍是默认部署更友好的方案,而 s 系列更像是针对特定需求(更高 Precision 或更高 mAP50-95)提供的可切换配置。
在这里插入图片描述

从类别层面看,PR 曲线与阈值敏感性揭示了模型误差的主要来源。以一次评测输出为例,PR 曲线显示血小板与白细胞的 AP@0.5 分别达到 0.877 与 0.864,而镰状细胞 AP@0.5 为 0.680,成为整体性能的短板;这通常意味着镰状细胞样本更少、形态差异更大或与部分红细胞形态存在混淆,使模型更依赖注意力建模与更强的难例挖掘策略。
在这里插入图片描述

与此同时,F1-Confidence 曲线给出了全类别最优 F1≈0.76 对应的置信度阈值约为 0.585,这为桌面端默认阈值提供了可解释依据:在该阈值附近,Precision 与 Recall 更均衡;若更强调“计数不漏”(尤其血小板),可适当下调 Conf 并配合更严格的 IoU/NMS 与目标高亮复核;若更强调“计数不多”(减少背景误检),则应上调 Conf 并关注红细胞相关的误检累积。


6. 系统设计与实现

6.1 系统设计思路

本系统以“桌面端可交互检测”为核心落点,将检测算法与评测逻辑封装为可复用的推理服务,并在表现与交互层采用 PySide6/Qt 完成多源输入、阈值调参、可视化复核与结果导出的闭环。整体架构按职能划分为四层:表现与交互层负责界面布局与用户操作反馈;业务与会话管理层负责输入源互斥、任务编排与参数状态维护;推理与任务调度层负责媒体接入、帧分发与 YOLO 推理管线;数据持久化层负责账户、记录与导出归档。这样的分层一方面降低了“界面逻辑与推理逻辑互相耦合”的复杂度,另一方面也便于后续将推理引擎替换为不同 YOLO 版本或不同权重而不破坏交互体验。

在跨层协同上,系统面向图片、视频与本地摄像头三类输入统一抽象为“帧流”,以事件驱动的方式完成“读取帧—预处理—推理—后处理—可视化”的串联,并在每一帧级别同步更新进度条与耗时统计,从而在长视频或实时摄像头场景下维持稳定可控的交互节奏。阈值参数(Conf/IoU)作为共享状态由业务层统一管理,并在推理后处理阶段生效,确保界面滑块变化能够即时反映到 NMS 抑制与最终框集合上;与此同时,输入源切换采用互斥策略避免多路帧流并发带来的资源争用与状态错乱,使“切换源—清空缓存—刷新显示”形成一致的用户心智模型。

在可扩展性与工程一致性方面,系统将模型权重管理纳入业务编排:用户选择权重文件后即可热切换当前模型,并同步刷新类别信息与配色规则,保证跨模型对比时的可视化一致性。导出与归档采用统一的时间戳命名策略与固定目录组织规则,将 CSV 统计、带框 PNG 与带框 AVI 归并为同一批次产物,配合检测记录表实现快速定位与复查。异常恢复方面,系统在媒体读取失败、推理中断或导出异常时提供明确的状态提示与可恢复操作入口,以减少长任务中断对用户体验与结果可追溯性的影响。

在这里插入图片描述

图 6-1 系统流程图
图注:系统从初始化与输入源选择开始,完成 640×640 预处理、YOLO 推理与 Conf/IoU+NMS 后处理,并在 Qt 前端叠加检测框、类别与置信度;在循环帧流中持续更新进度条与统计信息,最终支持 CSV/PNG/AVI 的时间戳归档导出。

在这里插入图片描述

图 6-2 系统设计框图
图注:系统采用“表现与交互层—业务与会话管理层—推理与任务调度层—数据持久化层”的分层架构,上层聚焦交互与可视化,下层聚焦推理流水线与本地存储,并通过参数同步与任务编排实现端到端闭环。

6.2 登录与账户管理 — 流程图

在这里插入图片描述

图 6-3 登录与账户管理流程图
图注:系统从登录入口进入,支持注册、登录与注销切换;登录成功后载入个性化配置(主题、默认模型与最近记录),并与主检测流程共享同一套本地持久化数据,以支撑复核追溯与跨会话一致性。

登录与账户管理流程在桌面端以“入口明确、状态可追溯、配置可继承”为设计原则:用户启动系统后进入登录界面,若尚无账号则完成注册信息填写并写入本地数据库以形成持久化身份;随后在登录环节完成口令校验并建立本次会话,校验成功后系统自动载入与该用户绑定的个性化配置(例如主题、默认模型与最近记录),从而保证进入主界面后即可按既定习惯进行多源检测与阈值调参。该流程的价值不仅在于访问控制,更在于将“用户偏好—检测记录—导出归档”统一纳入本地可管理空间,使后续的结果复核、批量导出与跨会话对比具备一致的数据边界,同时支持注销与切换账号以避免不同操作者的记录混用。


7. 项目资源链接

    若您想获得博文中涉及的实现完整全部资源文件(包括测试图片、视频,py, UI文件,训练数据集、训练代码、界面代码等),这里见可参考博客与视频,已将所有涉及的文件同时打包到里面,点击即可运行,完整文件截图如下:

在这里插入图片描述

项目完整文件请见项目介绍及功能演示视频处给出:

完整项目及文档: https://newtopmat.feishu.cn/wiki/BpNIwHwnOi9uzIkVh8IcyLM1nfA

功能效果展示视频:热门实战|《基于深度学习的血细胞智能检测与计数》YOLOv12-v8多版本合集:附论文/源码/PPT/数据集,支持图片/视频/摄像头输入、可视化界面、结果导出与权重切换
环境配置博客教程:https://deeppython.feishu.cn/wiki/EwnTwJ2H3iLF6VkNG6ccgZYrnvd
或者环境配置视频教程:Pycharm软件安装视频教程;(2)Anaconda软件安装视频教程;(3)Python环境配置视频教程
数据集标注教程(如需自行标注数据):数据标注合集


参考文献(GB/T 7714)

1 Lee S J, Chen P Y, Lin J W, et al. Complete Blood Cell Detection and Counting Based on Deep Neural Networks[J]. Applied Sciences, 2022, 12(16): 8140.
2 Abozeid A, Alrashdi I, Krushnasamy V S, et al. White blood cells detection using deep learning in healthcare applications[J]. Alexandria Engineering Journal, 2025, 124: 135-146.
3 Basha S H S, Dubey S R, Pulabaigari V, et al. DCBC_DeepL: Detection and Counting of Blood Cells Employing Deep Learning[C]//Intelligent Systems and Applications. Cham: Springer, 2022.
4 张昊, 郑广海, 张鑫, 吕娜. 改进YOLOv5框架的血细胞检测算法[J]. 计算机系统应用, 2023, 32(5): 123-131.
[5] Gan L, Li X, Wang X. A Curated and Re-annotated Peripheral Blood Cell Dataset Integrating Four Public Resources[EB/OL]. arXiv:2407.13214, 2024(2025-06-18 v2).
[6] Ren S Q, He K M, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[7] Lin T Y, Goyal P, Girshick R, et al. Focal Loss for Dense Object Detection[C]//2017 IEEE International Conference on Computer Vision (ICCV). 2017: 2999-3007.
[8] Carion N, Massa F, Synnaeve G, et al. End-to-End Object Detection with Transformers[C]//Proceedings of the European Conference on Computer Vision (ECCV). Cham: Springer, 2020: 213-229.
[9] Zhao Y, Lv W, Xu S, et al. DETRs Beat YOLOs on Real-time Object Detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2024.
[10] Wang A, Chen H, Liu L, et al. YOLOv10: Real-Time End-to-End Object Detection[EB/OL]. arXiv:2405.14458, 2024.
[11] Wang C Y, Liao H Y M, Yeh I H, et al. YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information[EB/OL]. ECCV 2024 paper.
[12] Tian Y, Ye Q, Doermann D. YOLOv12: Attention-Centric Real-Time Object Detectors[EB/OL]. arXiv:2502.12524, 2025.
[13] 钟天. 基于改进YOLO v7的血细胞识别计数研究[J]. 应用数学进展, 2023, 12(3): 1087-1088.
[14] Abozeid A, Alrashdi I, Krushnasamy V S, et al. White blood cells detection using deep learning in healthcare applications[J]. Alexandria Engineering Journal, 2025, 124: 135-146.
[15] Khanam R, Hussain M. YOLOv11: An Overview of the Key Architectural Enhancements[EB/OL]. arXiv:2411.00201, 2024.
[16] Hou Q, Zhou D, Feng J. Coordinate Attention for Efficient Mobile Network Design[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2021: 13713-13722.
[17] Tan M, Pang R, Le Q V. EfficientDet: Scalable and Efficient Object Detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2020: 10778-10787.
[18] Liu W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector[C]//Proceedings of the European Conference on Computer Vision (ECCV). Cham: Springer, 2016: 21-37.

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐