YOLOv10全网最新创新点改进系列:ODConv-全维度动态卷积通过并行策略采用多维注意力机制沿核空间的四个维度学习互补性注意力,有效涨点神器!!!

所有改进代码均经过实验测试跑通!截止发稿时YOLOv10已改进40+!自己排列组合2-4种后,考虑位置不同后可排列组合上千万种!改进不重样!!专注AI学术,关注B站up主:Ai学术叫叫兽er!

购买相关资料后畅享一对一答疑

# YOLOv10全网最新创新点改进系列:ODConv-全维度动态卷积通过并行策略采用多维注意力机制沿核空间的四个维度学习互补性注意力,有效涨点神器!!!


ODConv提出的论文戳这

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!


一、ODConv概述

1.1 ODConv文章摘要

在每个卷积层中学习单个静态卷积核 1 是现代卷积神经网络(CNN)的常见训练范例。相反,最近动态卷积的研究表明,学习 n 个卷积核的线性组合及其输入相关注意力的加权可以显着提高轻量级 CNN 的准确性,同时保持高效的推理。然而,我们观察到现有的工作通过核空间的一个维度(关于卷积核数量)赋予卷积核动态属性,但其他三个维度(关于空间大小、输入通道数和输出通道数)每个卷积核)都被忽略了。受此启发,我们提出了全维动态卷积(ODConv),一种更通用但更优雅的动态卷积设计,以推进这方面的研究。 ODConv 利用一种新颖的多维注意力机制和并行策略来学习任何卷积层沿内核空间的所有四个维度的卷积核的互补注意力。作为常规卷积的直接替代品,ODConv 可以插入到许多 CNN 架构中。在 ImageNet 和 MS-COCO 数据集上进行的大量实验表明,ODConv 为各种流行的 CNN 主干网(包括轻量级和大型主干网)带来了可靠的准确度提升,例如 3.77%∼5.71%|1.86%∼3.72% 的绝对 top-1 改进MobivleNetV2|ImageNet 数据集上的 ResNet 系列。有趣的是,由于其改进的特征学习能力,即使只有一个内核的 ODConv 也可以与现有的具有多个内核的动态卷积对应物竞争或超越,从而大大减少了额外的参数。此外,ODConv 在调节输出特征或卷积权重方面也优于其他注意力模块。

1.2 主要原理:

ODConv可以视作CondConv的延续,将CondConv中一个维度上的动态特性进行了扩展,同时了考虑了空域、输入通道、输出通道等维度上的动态性,故称之为全维度动态卷积。ODConv通过并行策略采用多维注意力机制沿核空间的四个维度学习互补性注意力。作为一种“即插即用”的操作,它可以轻易的嵌入到现有CNN网络中。ImageNet分类与COCO检测任务上的实验验证了所提ODConv的优异性:即可提升大模型的性能,又可提升轻量型模型的性能,实乃万金油是也!值得一提的是,受益于其改进的特征提取能力,ODConv搭配一个卷积核时仍可取得与现有多核动态卷积相当甚至更优的性能。

二、 改进教程

2.1 修改YAML文件

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

2.2 新建SwinTransformer.py

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

2.3 修改tasks.py

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

三、验证是否成功即可

执行命令

python train.py

改完收工!
关注B站:AI学术叫叫兽
从此走上科研快速路
遥遥领先同行!!!!

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

GitHub 加速计划 / yo / yolov10
8.69 K
764
下载
YOLOv10: Real-Time End-to-End Object Detection
最近提交(Master分支:2 个月前 )
6fbaf42b - 1 个月前
cd2f79c7 3 个月前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐