摘要: 本系统名为“果蔬西红柿智能检测系统”,是一款面向智慧农业场景的AI驱动型视觉分析平台,旨在通过深度学习技术实现对田间西红柿个体及整串果实成熟度的自动化、高精度识别与评估。系统基于YOLOv8目标检测架构构建,采用定制化标注数据集(含不同光照、遮挡、生长阶段下的西红柿图像)进行模型训练,支持动态调整置信度阈值、非极大值抑制(NMS)参数及推理延迟优化,以适应复杂农田环境下的实时检测需求。用户界面集成模型选择、实时视频流分析、检测结果可视化、数据统计面板等功能模块,可同步显示当前帧中检测到的目标数量、类别分布、坐标位置及置信度评分,并支持导出结构化检测报告。系统不仅可精准定位单颗西红柿并判断其成熟等级(如青果、转色、全红),还能对整串番茄簇进行整体成熟度评估,为采摘决策、产量预估和供应链调度提供数据支撑。 该系统部署于边缘计算设备或云端服务器,具备低延迟、高并发处理能力,已初步验证在温室与大田场景中的实用性,是推动农业生产智能化、减少人工依赖、提升果品品质一致性的重要工具,助力乡村振兴与数字农业发展。

前言:

随着全球人口增长与耕地资源日益紧张,传统农业正面临劳动力短缺、生产效率低下及品质管控困难等多重挑战。西红柿作为全球广泛种植的重要经济作物,其成熟度的精准判断直接关系到采摘时机、储运损耗及市场价值。然而,传统的人工目视评估方式不仅耗时费力,且受主观经验影响大,难以满足现代化大规模种植的标准化需求。近年来,计算机视觉与深度学习技术的突破性进展,为农业智能化提供了全新解决方案。本系统“果蔬西红柿智能检测系统”正是在此背景下应运而生,旨在通过AI技术赋能田间管理,实现从“靠经验”到“靠数据”的范式转变,推动农业向精准化、自动化、可持续化方向发展。

当前,基于深度学习的目标检测算法已在农业领域展现出巨大潜力。YOLO(You Only Look Once)系列模型因其高速推理能力与高精度表现,成为实时农作物检测的主流选择。国内外学者已尝试将YOLOv5/v7/v8应用于苹果、葡萄、黄瓜等作物的识别与计数任务中,部分研究进一步引入注意力机制或多尺度特征融合以提升小目标与遮挡场景下的检测性能。在成熟度判别方面,研究者多结合颜色空间分析(如HSV、Lab)、纹理特征提取或分类网络(如ResNet、EfficientNet)进行辅助判断。然而,现有工作大多聚焦于单果识别,缺乏对“整串果实”成熟度的整体评估;同时,多数系统未充分考虑田间复杂光照、枝叶遮挡、果实重叠等实际干扰因素,导致泛化能力不足。本系统在继承YOLO架构优势的基础上,针对性构建了涵盖多生长阶段、多环境条件的专用数据集,并创新性地引入“串级成熟度评估模块”,实现了从个体到群体的多层次智能感知,填补了该细分领域的技术空白。

系统基于深度学习框架搭建成熟度识别模型,训练环节采用多场景田间实拍数据集,涵盖不同光照条件、种植密度、生长阶段、品种的西红柿样本,包含青熟期、转色期、半熟期、完熟期等全周期成熟度标注数据,兼顾单果与果串的形态、色泽、纹理特征标注。通过数据增强、正则化优化、迁移学习等技术手段提升模型泛化能力,反复迭代调优后,实现单果成熟度精准分级、果串整体成熟度综合判定,检测速度与准确率适配田间实时作业需求。

本系统可广泛应用于以下典型农业场景:

1. 智能采摘机器人引导

部署于自动采摘设备前端,实时识别成熟度达标的西红柿个体或果串,输出精确坐标与抓取建议,指导机械臂高效作业,减少误采与漏采。

2. 温室/大棚产量预估与采收计划制定

通过定时巡检拍摄,统计不同成熟度等级的果实数量与分布热力图,辅助管理者科学规划采收批次、人力调配与物流安排,最大化经济效益。

3. 病虫害早期预警与品质追溯 结合成熟度异常区域(如局部过早变红或停滞发育),联动环境传感器数据,潜在识别病害侵染或营养失衡问题;同时记录每颗果实的成长轨迹,支持全程质量溯源。

4. 科研与教学示范平台 为农业高校、科研院所提供可视化实验工具,用于验证新品种适应性、优化栽培方案或开展AI+农业交叉学科研究。

5. 农户移动端辅助决策 未来可拓展至手机APP或微信小程序,让普通农户通过拍照即可获取自家地块的成熟度报告,降低技术使用门槛,普惠中小规模种植户。

本系统是一款面向智慧农业场景的端到端AI视觉分析平台,专为西红柿种植户、农业合作社及科研单位设计。系统基于深度学习目标检测框架 YOLOv8 构建,结合定制化数据集与可调参数界面,实现对田间西红柿个体及整串果实的实时成熟度识别、数量统计、定位标注与数据导出功能。通过“模型选择 + 参数调节 + 结果可视化”一体化交互设计,用户无需具备编程背景即可快速部署并使用,真正践行“AI助农、科技兴农”的理念。系统支持多种输入源(本地图片、摄像头实时流、IPCam网络视频、文件夹批量处理),并配备完整的结果管理模块,适用于温室大棚、露天农田、采摘机器人引导、产量预估等多种实际应用场景。本系统不仅是技术创新的成果,更是连接数字技术与田间地头的桥梁,致力于让每一颗西红柿都在最合适的时刻被温柔以待,让每一位农人都能享受科技带来的丰收喜悦。

一、软件核心功能介绍及效果演示
软件主要功能:
  1. 包含登录界面设计

  1. 可进行6中西红柿成熟度检测与识别;

  2. 支持图片、视频及摄像头进行检测,同时支持图片的批量检测;

  3. 界面可实时显示目标位置、目标总数、置信度、用时等信息;

  4. 支持图片或者视频的检测结果保存;

(1)图片检测演示

  点击图片图标,选择需要检测的图片,或者点击文件夹图标,选择需要批量检测图片所在的文件夹,操作演示如下:点击目标下拉框后,可以选定指定目标的结果信息进行显示。 点击保存按钮,会对视频检测结果进行保存,存储路径为:runs目录下。参考视频操作

(2)视频检测演示

  点击视频图标,打开选择需要检测的视频,就会自动显示检测结果。点击保存按钮,会对视频检测结果进行保存,存储路径为:runs目录下。参考视频操作

(3)摄像头检测演示

  点击摄像头图标,可以打开摄像头,可以实时进行检测,再次点击摄像头图标,可关闭摄像头。参考视频操作

(4)保存图片与视频检测结果

  点击保存按钮后,会将当前选择的图片【含批量图片】或者视频的检测结果进行保存。检测的图片与视频结果会存储在runs目录下。参考视频操作

二、模型的训练、评估与推理
1. 使用模型基本原理

  YOLOv8是一种前沿的目标检测技术,它基于先前YOLO版本在目标检测任务上的成功,进一步提升了性能和灵活性。主要的创新点包括一个新的骨干网络、一个新的 Ancher-Free 检测头和一个新的损失函数,可以在从 CPU 到 GPU 的各种硬件平台上运行。其主要网络结构如下:

  YOLOv10 的架构建立在以前 YOLO 模型的优势之上,通过消除非最大抑制 (NMS) 和优化各种模型组件, 实现了最先进的性能,并显著降低了计算开销。

模型网络结构由以下组件组成: 主干网:YOLOv10 中的主干网负责特征提取,使用增强版的 CSPNet(Cross Stage Partial Network)来改善梯度流并减少计算冗余。颈部:颈部被设计成聚合来自不同尺度的特征,并将它们传递到头部。它包括 PAN(路径聚合网络)层,用于有效的多尺度特征融合。一对多头:在训练过程中为每个对象生成多个预测,以提供丰富的监督信号,提高学习准确性。一对一头:在推理过程中为每个对象生成一个最佳预测,消除对 NMS 的需求,从而减少延迟并提高效率。YOLOv10创新点如下无 NMS 训练: 利用一致的双重分配来消除对 NMS 的需求,从而减少推理延迟。整体模型设计: 从效率和精度两个角度对各种组件进行全面优化,包括轻量级分类头、空间通道解耦下采样和秩引导块设计。增强的模型功能: 整合大核卷积和部分自注意力模块,可在不增加大量计算成本的情况下提高性能。

  YOLOv26 是 Ultralytics 团队于 2026年1月14日 正式发布的最新一代实时目标检测模型。作为 YOLO 系列演进历程中的里程碑式版本,YOLOv26 并非简单的参数堆叠或微调,而是一次针对边缘计算与工业落地的架构级范式革命。其核心设计理念从“追求实验室极致精度”转向“最大化真实场景下的部署价值”,旨在解决传统模型在 CPU/嵌入式设备上推理慢、部署难、延迟高的痛点。

相较于前代 YOLOv8/v11,YOLOv26 在架构设计上实现了五大关键突破:

1. 端到端无 NMS 推理 (End-to-End with No NMS)
  - 原理:彻底移除了传统后处理中的非极大值抑制(NMS)环节。通过引入更先进的分配策略(如 Task Aligned Assigner 的改进版)和回归损失函数,模型直接输出唯一且精准的检测框。
  - 优势:消除了 NMS 带来的计算延迟和不确定性,显著提升了推理速度(FPS),尤其在检测密集重叠的西红柿串时,能有效避免漏检和重复框,保证计数的准确性。
2. 极致轻量化与重参数化 (Re-parameterization & Lightweight)
  - 原理:采用了新一代的重参数化卷积模块(类似 RepVGG 的进化版),在训练阶段使用多分支结构提取丰富特征,在推理阶段融合为单路结构。同时,大幅精简了 Backbone 中的冗余层。
  - 优势:模型参数量减少约 30%,计算量(FLOPs)降低 25%,使得模型能在树莓派、Jetson Nano 甚至纯 CPU 环境下流畅运行,完美适配田间移动巡检设备。
3. 动态多尺度特征融合 (Dynamic Multi-scale Fusion)
  - 原理:引入了自适应空间特征金字塔(ASFF)的变体,能够根据输入图像的分辨率和目标大小,动态调整不同层级特征的融合权重。
  - 优势:极大地提升了对不同生长阶段西红柿(从极小的青果到巨大的全红果)的适应能力,解决了传统模型在远距离拍摄小果实时检测率低的问题。
4. 量化友好型架构 (Quantization-Friendly)
  - 原理:网络结构设计之初就考虑了 INT8/FP16 量化的兼容性,减少了敏感算子,避免了量化后的精度大幅下降。
  - 优势:支持一键导出 TensorRT、ONNX Runtime 等高效推理格式,在保持精度几乎无损的前提下,进一步将推理延迟降低 40% 以上。
5. 全局上下文注意力机制 (Global Context Attention)
  - 原理:在 Neck 部分嵌入了轻量级的全局注意力模块,使模型不仅能关注局部纹理(如西红柿颜色),还能理解整株植物的上下文关系(如枝叶遮挡逻辑)。
  - 优势:在田间复杂的背景干扰(杂草、泥土、阴影)下,显著降低了误检率,提升了对被部分遮挡果实的识别鲁棒性。

2.数据集准备

  本文使用的数据集为番茄拍摄图片,选取其中图片进行模型训练,并将原始标签转换为yolo格式标签。最终一共包含3662张图片,其中训练集包含2564张图片,验证集包含732张图片,测试集包含366张图片.部分图像及标注如下图所示。最终共有6类参与模型训练,中英文名称对照如下:

模型训练时,使用的名称对照表如下:

其中训练的6个西红柿类别中文名称为:

['完全成熟', '成熟', '转色', '绿色', '成熟果串', '未成熟果串']

在项目目录中新建datasets目录,同时将检测的图片分为训练集与验证集放入西红柿串目录下。

同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。具体内容如下:

path: /data/projects/yolov26/ultralytics/datasets/tomatowithcluster

train: images/train
val: images/val
test: images/test

nc: 6

names: 
  0: afully ripe
  1: bripe
  2: cturning
  3: dgreen
  4: eripe bunch
  5: unripe bunch

chinesenames: ['完全成熟', '成熟', '转色', '绿色', '成熟果串', '未成熟果串']

数据准备完成,准备开始训练。

3. 训练结果评估

  深度学习中,我通常用损失函数下降的曲线来观察模型训练的情况。在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件,如下所示:

各损失函数作用说明:

定位损失box_loss: 预测框与标定框之间的误差(GIoU),越小定位得越准;

分类损失cls_loss: 计算锚框与对应的标定分类是否正确,越小分类得越准;

动态特征损失(dfl_loss): DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。 当然还存在其他损失函数进行调节训练。此处展示了yolov5的损失函数, 具体的训练结果如下所示:

我们通常用PR曲线来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。mAP@.5:表示阈值大于0.5的平均mAP,可以看到本文模型11类目标检测的mAP@0.5平均值为0.95,结果还是很不错的。

4. 检测结果识别

  模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/trian/weights目录下。我们可以使用该文件进行后续的推理检测。图片检测代码如下:

这就是番茄成熟度检测与识别系统的原理与代码介绍。基于深度学习模型,用python与pyside6开发了一个带界面的软件系统,即文中第二部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存。

视频频参考链接:https://www.bilibili.com/video/BV1s2Awz6E7T/?spm_id_from=333.1387.upload.video_card.click&vd_source=57a174b19efc43c207675a3a9964ec71

关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、测试图片视频等相关文件,均已打包准备完毕,感兴趣的小伙伴可以通过公众号获取。

【获取方式】 wx-gzh:【AI算法爱好者角落】

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐