基于YOLOv8/YOLOv10/YOLOv11/YOLOv12与SpringBoot的安检x光危险物检测系统(DeepSeek智能分析+web交互界面+前后端分离+YOLO数据)
摘要
本项目设计并实现了一套基于深度学习与Web技术的智能安检X光危险物检测系统。该系统以当前主流的YOLOv8、YOLOv10、YOLOv11及YOLOv12系列先进目标检测算法为核心,构建了一个高效、精准的危险物品自动识别引擎。系统后端采用SpringBoot框架,前端采用现代化Web技术,实现了前后端分离的架构,确保了系统的可维护性、可扩展性及良好的用户体验。
系统数据集针对安检场景定制,共包含18类常见危险品及违禁品(如Gun、Knife、Firecracker、Lighter、SmartPhone等),训练集4385张图像,验证集1880张图像,为模型的鲁棒性提供了坚实的数据基础。系统不仅提供了基础的图像、视频及摄像头实时流检测功能,还创新性地集成了DeepSeek大型语言模型的智能分析模块,能对检测结果进行上下文理解和生成式描述,提升了系统的智能化水平。
在应用层面,系统具备完整的用户认证与管理体系,包括用户注册登录、个人信息管理以及管理员对用户和所有检测记录的集中管理功能。所有检测操作记录均持久化存储于MySQL数据库中,为安全管理决策提供了直观的数据支持。本系统将前沿的深度学习算法与成熟的工业级Web开发框架相结合,为机场、地铁、车站等安检场景提供了一套功能完备、交互友好、性能可靠的软件解决方案。
详细功能展示视频
基于YOLO和千问|DeepSeek的安检x光危险物检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+python)_哔哩哔哩_bilibili
基于YOLO和千问|DeepSeek的安检x光危险物检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+python)_哔哩哔哩_bilibili
https://www.bilibili.com/video/BV19vcxzEEdy/?spm_id_from=333.999.0.0&vd_source=549d0b4e2b8999929a61a037fcce3b0fhttps://www.bilibili.com/video/BV19vcxzEEdy/
目录
一、引言
1.1 研究背景与意义
随着全球安全形势日益复杂,公共场所的安全检查成为保障人民生命财产安全和社会稳定的第一道防线。X光安检机作为安全检查的核心设备,其成像的判读主要依赖安检员的人工经验。然而,人工判读存在效率低下、易因疲劳导致漏检误检、成本高昂以及对新型违禁品识别能力有限等固有弊端。尤其在客流量高峰期,这些弊端被进一步放大,构成了潜在的安全风险。
近年来,深度学习技术在计算机视觉领域取得了突破性进展,尤其是以YOLO系列为代表的目标检测算法,因其在精度与速度上的卓越平衡,已在工业检测、自动驾驶、安防监控等多个领域得到成功应用。将先进的YOLO模型引入安检X光图像分析领域,实现危险物品的自动、实时、精准识别,具有重大的现实意义和应用价值。它不仅能大幅提升安检效率,减轻安检员的工作负担,还能通过算法的一致性提高判读的客观性和准确性,是推动安检行业向智能化、自动化转型升级的关键技术路径。
1.2 国内外研究现状
当前,基于深度学习的X光图像违禁品检测已成为学术界和工业界的研究热点。早期研究多基于Faster R-CNN等两阶段检测器,虽然精度较高,但难以满足实时性要求。以YOLO系列为首的单阶段检测器逐渐成为主流。从YOLOv5到最新的YOLOv12,模型通过引入新的网络架构(如CSPNet、RepVGG)、优化策略(如标签分配、损失函数)和训练技巧,在保持高速度的同时,持续提升了检测精度,特别是在小目标和密集物体检测方面。
在系统实现层面,许多研究专注于算法本身的优化,但一个完整的、可部署的行业应用系统需要将算法模型与软件工程紧密结合。传统的桌面端或单机版软件已难以满足多用户、跨平台、易维护的现代需求。采用前后端分离的Web架构,结合SpringBoot等成熟后端框架,能够快速构建出稳定、安全、易于扩展的业务系统。同时,将大语言模型的分析能力融入传统视觉系统,形成“视觉感知+语言理解”的多模态智能,正成为提升系统交互性和解释性的新趋势。
1.3 本文主要工作与贡献
本文旨在设计并开发一个集成了最新YOLO系列算法与SpringBoot Web框架的、功能完整的智能安检X光危险物检测系统。本文的主要工作和贡献如下:
-
构建了针对性的安检数据集与多模型检测引擎:收集并标注了涵盖18类安检关键目标物的X光图像数据集,并基于该数据集分别训练、优化并集成了YOLOv8、YOLOv10、YOLOv11和YOLOv12四个版本的检测模型,用户可根据场景需求灵活切换,平衡速度与精度。
-
实现了智能化的多模态分析功能:在传统目标检测的基础上,创新性地引入DeepSeek大语言模型,对检测结果进行智能分析与描述生成,使系统不仅能“看到”目标,还能“理解”和“描述”场景风险。
-
开发了功能完备的Web应用系统:采用前后端分离架构,后端使用SpringBoot,前端构建交互式界面。系统功能全面,涵盖用户管理、多模式检测(图片/视频/实时摄像头)、记录管理与数据可视化等核心模块。
-
建立了完整的数据管理与可视化流程:利用MySQL数据库对用户信息、检测记录等关键数据进行结构化存储与管理,并通过图表对检测统计数据进行可视化展示,辅助进行运营分析和决策。
-
提供了完整的工程解决方案:本工作不仅是一次算法应用尝试,更是一个从数据处理、模型训练、服务部署到Web应用开发的完整工程实践,为同类智能检测系统的开发提供了可复用的参考框架。
二、 系统核心特性概述
功能模块
✅ 用户登录注册:支持密码检测,保存到MySQL数据库。
✅ 支持四种YOLO模型切换,YOLOv8、YOLOv10、YOLOv11、YOLOv12。
✅ 信息可视化,数据可视化。
✅ 图片检测支持AI分析功能,deepseek
✅ 支持图像检测、视频检测和摄像头实时检测,检测结果保存到MySQL数据库。
✅ 图片识别记录管理、视频识别记录管理和摄像头识别记录管理。
✅ 用户管理模块,管理员可以对用户进行增删改查。
✅ 个人中心,可以修改自己的信息,密码姓名头像等等。
登录注册模块


可视化模块


图像检测模块
-
YOLO模型集成 (v8/v10/v11/v12)
-
DeepSeek多模态分析
-
支持格式:JPG/PNG/MP4/RTSP


视频检测模块

实时检测模块

图片识别记录管理


视频识别记录管理


摄像头识别记录管理


用户管理模块



数据管理模块(MySQL表设计)
-
users- 用户信息表

-
imgrecords- 图片检测记录表

-
videorecords- 视频检测记录表

-
camerarecords- 摄像头检测记录表

模型训练结果
#coding:utf-8
#根据实际情况更换模型
# yolon.yaml (nano):轻量化模型,适合嵌入式设备,速度快但精度略低。
# yolos.yaml (small):小模型,适合实时任务。
# yolom.yaml (medium):中等大小模型,兼顾速度和精度。
# yolob.yaml (base):基本版模型,适合大部分应用场景。
# yolol.yaml (large):大型模型,适合对精度要求高的任务。
from ultralytics import YOLO
model_path = 'pt/yolo12s.pt'
data_path = 'data.yaml'
if __name__ == '__main__':
model = YOLO(model_path)
results = model.train(data=data_path,
epochs=500,
batch=64,
device='0',
workers=0,
project='runs',
name='exp',
)










YOLO概述

YOLOv8
YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日发布,在准确性和速度方面提供了尖端性能。基于先前 YOLO 版本的进步,YOLOv8 引入了新功能和优化,使其成为各种应用中目标检测任务的理想选择。

YOLOv8 的主要特性
- 高级骨干和颈部架构: YOLOv8 采用最先进的骨干和颈部架构,从而改进了特征提取和目标检测性能。
- 无锚点分离式 Ultralytics Head: YOLOv8 采用无锚点分离式 Ultralytics head,与基于锚点的方法相比,这有助于提高准确性并提高检测效率。
- 优化的准确性-速度权衡: YOLOv8 专注于在准确性和速度之间保持最佳平衡,适用于各种应用领域中的实时对象检测任务。
- 丰富的预训练模型: YOLOv8提供了一系列预训练模型,以满足各种任务和性能要求,使您更容易为特定用例找到合适的模型。
YOLOv10
YOLOv10 由 清华大学研究人员基于 Ultralytics Python构建,引入了一种新的实时目标检测方法,解决了先前 YOLO 版本中存在的后处理和模型架构缺陷。通过消除非极大值抑制 (NMS) 并优化各种模型组件,YOLOv10 以显著降低的计算开销实现了最先进的性能。大量实验表明,它在多个模型尺度上都具有卓越的精度-延迟权衡。

概述
实时目标检测旨在以低延迟准确预测图像中的对象类别和位置。YOLO 系列因其在性能和效率之间的平衡而一直处于这项研究的前沿。然而,对 NMS 的依赖和架构效率低下阻碍了最佳性能。YOLOv10 通过引入用于无 NMS 训练的一致双重分配和整体效率-准确性驱动的模型设计策略来解决这些问题。
架构
YOLOv10 的架构建立在之前 YOLO 模型优势的基础上,同时引入了几项关键创新。该模型架构由以下组件组成:
- 骨干网络:负责特征提取,YOLOv10 中的骨干网络使用增强版的 CSPNet (Cross Stage Partial Network),以改善梯度流并减少计算冗余。
- Neck:Neck 的设计目的是聚合来自不同尺度的特征,并将它们传递到 Head。它包括 PAN(路径聚合网络)层,用于有效的多尺度特征融合。
- One-to-Many Head:在训练期间为每个对象生成多个预测,以提供丰富的监督信号并提高学习准确性。
- 一对一头部:在推理时为每个对象生成一个最佳预测,以消除对NMS的需求,从而降低延迟并提高效率。
主要功能
- 免NMS训练:利用一致的双重分配来消除对NMS的需求,从而降低推理延迟。
- 整体模型设计:从效率和准确性的角度对各种组件进行全面优化,包括轻量级分类 Head、空间通道解耦下采样和秩引导块设计。
- 增强的模型功能: 结合了大内核卷积和部分自注意力模块,以提高性能,而无需显着的计算成本。
YOLOv11
YOLO11 是 Ultralytics YOLO 系列实时目标检测器的最新迭代版本,它以前沿的精度、速度和效率重新定义了可能性。YOLO11 在之前 YOLO 版本的显著进步基础上,在架构和训练方法上进行了重大改进,使其成为各种计算机视觉任务的多功能选择。

主要功能
- 增强的特征提取: YOLO11 采用改进的 backbone 和 neck 架构,从而增强了特征提取能力,以实现更精确的目标检测和复杂的任务性能。
- 优化效率和速度: YOLO11 引入了改进的架构设计和优化的训练流程,从而提供更快的处理速度,并在精度和性能之间保持最佳平衡。
- 更高精度,更少参数: 随着模型设计的进步,YOLO11m 在 COCO 数据集上实现了更高的 平均精度均值(mAP),同时比 YOLOv8m 少用 22% 的参数,在不牺牲精度的情况下提高了计算效率。
- 跨环境的适应性: YOLO11 可以无缝部署在各种环境中,包括边缘设备、云平台和支持 NVIDIA GPU 的系统,从而确保最大的灵活性。
- 广泛支持的任务范围: 无论是目标检测、实例分割、图像分类、姿势估计还是旋转框检测 (OBB),YOLO11 都旨在满足各种计算机视觉挑战。
Ultralytics YOLO11 在其前代产品的基础上进行了多项重大改进。主要改进包括:
- 增强的特征提取: YOLO11 采用了改进的骨干网络和颈部架构,增强了特征提取能力,从而实现更精确的目标检测。
- 优化的效率和速度: 改进的架构设计和优化的训练流程提供了更快的处理速度,同时保持了准确性和性能之间的平衡。
- 更高精度,更少参数: YOLO11m 在 COCO 数据集上实现了更高的平均 精度均值 (mAP),同时比 YOLOv8m 少用 22% 的参数,在不牺牲精度的情况下提高了计算效率。
- 跨环境的适应性: YOLO11 可以部署在各种环境中,包括边缘设备、云平台和支持 NVIDIA GPU 的系统。
- 广泛支持的任务范围: YOLO11 支持各种计算机视觉任务,例如目标检测、实例分割、图像分类、姿势估计和旋转框检测 (OBB)。
YOLOv12
YOLO12引入了一种以注意力为中心的架构,它不同于之前YOLO模型中使用的传统基于CNN的方法,但仍保持了许多应用所需的实时推理速度。该模型通过在注意力机制和整体网络架构方面的新颖方法创新,实现了最先进的目标检测精度,同时保持了实时性能。尽管有这些优势,YOLO12仍然是一个社区驱动的版本,由于其沉重的注意力模块,可能表现出训练不稳定、内存消耗增加和CPU吞吐量较慢的问题,因此Ultralytics仍然建议将YOLO11用于大多数生产工作负载。
主要功能
- 区域注意力机制: 一种新的自注意力方法,可以有效地处理大型感受野。它将 特征图 分成 l 个大小相等的区域(默认为 4 个),水平或垂直,避免复杂的运算并保持较大的有效感受野。与标准自注意力相比,这大大降低了计算成本。
- 残差高效层聚合网络(R-ELAN):一种基于 ELAN 的改进的特征聚合模块,旨在解决优化挑战,尤其是在更大规模的以注意力为中心的模型中。R-ELAN 引入:
- 具有缩放的块级残差连接(类似于层缩放)。
- 一种重新设计的特征聚合方法,创建了一个类似瓶颈的结构。
- 优化的注意力机制架构:YOLO12 精简了标准注意力机制,以提高效率并与 YOLO 框架兼容。这包括:
- 使用 FlashAttention 来最大限度地减少内存访问开销。
- 移除位置编码,以获得更简洁、更快速的模型。
- 调整 MLP 比率(从典型的 4 调整到 1.2 或 2),以更好地平衡注意力和前馈层之间的计算。
- 减少堆叠块的深度以改进优化。
- 利用卷积运算(在适当的情况下)以提高其计算效率。
- 在注意力机制中添加一个7x7可分离卷积(“位置感知器”),以隐式地编码位置信息。
- 全面的任务支持: YOLO12 支持一系列核心计算机视觉任务:目标检测、实例分割、图像分类、姿势估计和旋转框检测 (OBB)。
- 增强的效率: 与许多先前的模型相比,以更少的参数实现了更高的准确率,从而证明了速度和准确率之间更好的平衡。
- 灵活部署: 专为跨各种平台部署而设计,从边缘设备到云基础设施。
主要改进
-
增强的 特征提取:
- 区域注意力: 有效处理大型感受野,降低计算成本。
- 优化平衡: 改进了注意力和前馈网络计算之间的平衡。
- R-ELAN:使用 R-ELAN 架构增强特征聚合。
-
优化创新:
- 残差连接:引入具有缩放的残差连接以稳定训练,尤其是在较大的模型中。
- 改进的特征集成:在 R-ELAN 中实现了一种改进的特征集成方法。
- FlashAttention: 整合 FlashAttention 以减少内存访问开销。
-
架构效率:
- 减少参数:与之前的许多模型相比,在保持或提高准确性的同时,实现了更低的参数计数。
- 简化的注意力机制:使用简化的注意力实现,避免了位置编码。
- 优化的 MLP 比率:调整 MLP 比率以更有效地分配计算资源。
前端代码展示

首页界面一小部分代码:
<template>
<div class="home-container layout-pd">
<el-row :gutter="15" class="home-card-two mb15">
<el-col :xs="24" :sm="14" :md="14" :lg="16" :xl="16">
<div class="home-card-item">
<div style="height: 100%" ref="homeLineRef"></div>
</div>
</el-col>
<el-col :xs="24" :sm="10" :md="10" :lg="8" :xl="8" class="home-media">
<div class="home-card-item">
<div style="height: 100%" ref="homePieRef"></div>
</div>
</el-col>
</el-row>
<el-row :gutter="15" class="home-card-three">
<el-col :xs="24" :sm="14" :md="14" :lg="8" :xl="8" class="home-media">
<div class="home-card-item">
<div style="height: 100%" ref="homeradarRef"></div>
</div>
</el-col>
<el-col :xs="24" :sm="10" :md="10" :lg="16" :xl="16">
<div class="home-card-item">
<div class="home-card-item-title">实时检测记录</div>
<div class="home-monitor">
<div class="flex-warp">
<el-table :data="state.paginatedData" style="width: 100%" height="360" v-loading="state.loading">
<el-table-column prop="username" label="安检员" align="center" width="120" />
<el-table-column prop="label" label="检测结果" align="center" width="120">
<template #default="scope">
<el-tag
:type="getResultType(scope.row.label)"
effect="light"
>
{{ formatLabel(scope.row.label) }}
</el-tag>
</template>
</el-table-column>
<el-table-column prop="confidence" label="置信度" align="center" width="120">
<template #default="scope">
{{ formatConfidence(scope.row.confidence) }}
</template>
</el-table-column>
<el-table-column prop="weight" label="模型权重" align="center" width="120" />
<el-table-column prop="conf" label="检测阈值" align="center" width="120" />
<el-table-column prop="startTime" label="检测时间" align="center" width="180" />
<el-table-column label="操作" align="center" width="100">
<template #default="scope">
<el-button link type="primary" size="small" @click="handleViewDetail(scope.row)">
详情
</el-button>
</template>
</el-table-column>
</el-table>
<div class="pagination-container">
<el-pagination
v-model:current-page="state.currentPage"
v-model:page-size="state.pageSize"
:page-sizes="[10, 20, 50, 100]"
:small="true"
:layout="layout"
:total="state.total"
@size-change="handleSizeChange"
@current-change="handleCurrentChange"
/>
</div>
</div>
</div>
</div>
</el-col>
</el-row>
<!-- 详情弹窗 -->
<el-dialog
v-model="state.detailDialogVisible"
:title="`检测记录详情 - ${state.selectedRecord?.username || ''}`"
width="80%"
:close-on-click-modal="false"
:close-on-press-escape="false"
center
>
<div class="detail-container" v-loading="state.detailLoading">
<el-row :gutter="20">
<!-- 检测图片 -->
<el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12">
<div class="detail-section">
<h3 class="detail-title">X光原始图像</h3>
<div class="image-container">
<div class="img-wrapper" @click="previewImage(getImageUrl(state.selectedRecord?.inputImg), 'X光原始图像')">
<img
:src="getImageUrl(state.selectedRecord?.inputImg)"
alt="X光原始图像"
class="detection-image"
v-if="state.selectedRecord?.inputImg"
/>
<div class="img-overlay" v-if="state.selectedRecord?.inputImg">
<el-icon><View /></el-icon>
</div>
<div v-else class="image-placeholder">
<el-icon><Picture /></el-icon>
<span>暂无X光图像</span>
</div>
</div>
</div>
</div>
</el-col>
<!-- 检测信息 -->
<el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12">
<div class="detail-section">
<h3 class="detail-title">检测信息</h3>
<el-descriptions :column="1" border>
<el-descriptions-item label="安检员">
{{ state.selectedRecord?.username || '未知' }}
</el-descriptions-item>
<el-descriptions-item label="检测结果">
<el-tag
:type="getResultType(state.selectedRecord?.label || '')"
effect="light"
>
{{ formatLabel(state.selectedRecord?.label || '') }}
</el-tag>
</el-descriptions-item>
<el-descriptions-item label="置信度">
{{ formatConfidence(state.selectedRecord?.confidence || '') }}
</el-descriptions-item>
<el-descriptions-item label="模型权重">
{{ state.selectedRecord?.weight || '未知' }}
</el-descriptions-item>
<el-descriptions-item label="检测阈值">
{{ state.selectedRecord?.conf || '未知' }}
</el-descriptions-item>
<el-descriptions-item label="检测时间">
{{ state.selectedRecord?.startTime || '未知' }}
</el-descriptions-item>
<el-descriptions-item label="危险物详情" v-if="hasDetectionDetails">
<div class="detection-details">
<div
v-for="(item, index) in getDetectionDetails()"
:key="index"
class="detail-item"
>
<span class="detail-label">{{ item.label }}:</span>
<span class="detail-value">{{ item.confidence }}</span>
</div>
</div>
</el-descriptions-item>
</el-descriptions>
</div>
</el-col>
</el-row>
<!-- 原图与检测结果对比 -->
<el-row :gutter="20" v-if="state.selectedRecord?.inputImg || state.selectedRecord?.outImg">
<el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12">
<div class="detail-section">
<h3 class="detail-title">X光原始图像</h3>
<div class="image-container">
<div class="img-wrapper" @click="previewImage(getImageUrl(state.selectedRecord.inputImg), 'X光原始图像')">
<img
:src="getImageUrl(state.selectedRecord.inputImg)"
alt="X光原始图像"
class="detection-image"
v-if="state.selectedRecord?.inputImg"
/>
<div class="img-overlay" v-if="state.selectedRecord?.inputImg">
<el-icon><View /></el-icon>
</div>
<div v-else class="image-placeholder">
<el-icon><Picture /></el-icon>
<span>暂无X光图像</span>
</div>
</div>
</div>
</div>
</el-col>
<el-col :xs="24" :sm="12" :md="12" :lg="12" :xl="12">
<div class="detail-section">
<h3 class="detail-title">危险物标记图像</h3>
<div class="image-container">
<div class="img-wrapper" @click="previewImage(getImageUrl(state.selectedRecord.outImg), '危险物标记图像')">
<img
:src="getImageUrl(state.selectedRecord.outImg)"
alt="危险物标记图像"
class="detection-image"
v-if="state.selectedRecord?.outImg"
/>
<div class="img-overlay" v-if="state.selectedRecord?.outImg">
<el-icon><View /></el-icon>
</div>
<div v-else class="image-placeholder">
<el-icon><Picture /></el-icon>
<span>暂无标记图像</span>
</div>
</div>
</div>
</div>
</el-col>
</el-row>
</div>
<template #footer>
<span class="dialog-footer">
<el-button @click="state.detailDialogVisible = false">关闭</el-button>
<el-button type="primary" @click="handleDownloadImage" :disabled="!state.selectedRecord?.inputImg">
<el-icon><Download /></el-icon>
下载检测图像
</el-button>
</span>
</template>
</el-dialog>
<!-- 图片预览弹窗 -->
<el-dialog
v-model="state.previewDialog.visible"
:title="state.previewDialog.title"
width="60%"
align-center
class="image-preview-dialog">
<div class="preview-content">
<img :src="state.previewDialog.imageUrl" :alt="state.previewDialog.title" class="preview-image" />
</div>
</el-dialog>
</div>
</template>
<script setup lang="ts" name="home">
import { reactive, onMounted, ref, watch, nextTick, onActivated, markRaw, computed } from 'vue';
import * as echarts from 'echarts';
import { storeToRefs } from 'pinia';
import { useThemeConfig } from '/@/stores/themeConfig';
import { useTagsViewRoutes } from '/@/stores/tagsViewRoutes';
import { ElMessage, ElMessageBox } from 'element-plus';
import { Picture, Download, View } from '@element-plus/icons-vue';
import request from '/@/utils/request';
// 定义变量内容
const homeLineRef = ref();
const homePieRef = ref();
const homeradarRef = ref();
const storesTagsViewRoutes = useTagsViewRoutes();
const storesThemeConfig = useThemeConfig();
const { themeConfig } = storeToRefs(storesThemeConfig);
const { isTagsViewCurrenFull } = storeToRefs(storesTagsViewRoutes);
// 安检X光危险物检测类别
const DANGEROUS_ITEMS = ['斧头', '凿子', '鞭炮', '枪支', '硬盘', '锤子', '手铐', '刀具', '打火机', '钳子', '锯子', '剪刀', '螺丝刀', '智能手机', '扳手', '备用电池', '飞刀', 'U盘'];
// 危险等级分类
const DANGER_LEVELS = {
HIGH: ['枪支', '鞭炮', '飞刀', '手铐'], // 高危物品
MEDIUM: ['斧头', '凿子', '锤子', '刀具', '锯子', '剪刀'], // 中危物品
LOW: ['打火机', '钳子', '螺丝刀', '扳手'], // 低危物品
ELECTRONIC: ['硬盘', '智能手机', '备用电池', 'U盘'] // 电子物品
};
const state = reactive({
data: [] as any,
paginatedData: [] as any,
loading: false,
currentPage: 1,
pageSize: 10,
total: 0,
global: {
homeChartOne: null,
homeChartTwo: null,
homeCharFour: null,
dispose: [null, '', undefined],
} as any,
myCharts: [] as EmptyArrayType,
charts: {
theme: '',
bgColor: '',
color: '#303133',
},
// 详情弹窗相关
detailDialogVisible: false,
detailLoading: false,
selectedRecord: null as any,
// 图片预览弹窗
previewDialog: {
visible: false,
title: '',
imageUrl: '',
},
});
后端代码展示

详细功能展示视频
基于YOLO和千问|DeepSeek的安检x光危险物检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+python)_哔哩哔哩_bilibili
基于YOLO和千问|DeepSeek的安检x光危险物检测系统(web界面+YOLOv8/YOLOv10/YOLOv11/YOLOv12+python)_哔哩哔哩_bilibili
https://www.bilibili.com/video/BV19vcxzEEdy/?spm_id_from=333.999.0.0&vd_source=549d0b4e2b8999929a61a037fcce3b0fhttps://www.bilibili.com/video/BV19vcxzEEdy/
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐




所有评论(0)