【目标检测】2024最新-用YOLOv8训练自己的数据集(保姆级教学)
【2024.4】Windows11系统
1.为打开网页流畅,建议准备梯子,打开Github等网站时会明显加快
2.准备Anaconda,可参考我的另一篇文章下载 一步步教你在 Windows 上轻松安装 Anaconda以及使用常用conda命令(超详细)https://blog.csdn.net/Natsuago/article/details/143081283?spm=1001.2014.3001.5501
一、代码下载
官网下载YOLOv8(建议开梯子)
二、环境配置
1.在Anaconda中利用conda命令创建环境yolov8,并激活环境
-- 创建环境
conda create -n yolov8 python=3.9
-- 激活环境
conda activate yolov8
2.pip换源为国内清华镜像源,会提高下载速度(可选)
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
3.安装一下yolov8在python>=3.8版本必要安装包,配置文件已经内置其中:
pip install ultralytics
-- 使用清华大学镜像源安装,提升下载速度
pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple
4.下载预训练权重模型:
(1)推荐yolov8s.pt或者yolov8n.pt,模型小,下载快(用梯子)
(2)下载完成后,将模型放在ultralytics-main文件夹下
5.检验环境:
(1)在环境中打开项目ultralytics-main:
① 在Anaconda Prompt中cd到ultralytics-main目录下
② 在Pycharm终端直接打开
(2)运行以下指令:
yolo predict model=yolov8n.pt source='ultralytics/assets/bus.jpg'
(3)若运行成功会在D:\ultralytics-main下生成\runs\detect\predict,且文件中会包含一张照片
三、训练模型
【CPU】
1.准备工作:
(1)在ultralytics-main目录下新建data文件夹;
(2)再在data目录下新建四个文件夹:Annotations文件夹,images文件夹,ImageSets文件夹,labels文件夹
2.准备数据集:
(1)将准备好的图片以.jpg的格式放入images文件夹中
(2)利用labelimg进行标注后将生成的.xml文件保存至Annotations文件夹中
3.数据集的划分:
(1)在ultralytics-main目录下创建一个split_train_val.py文件;
(2)运行文件之后会在imageSets文件夹下将数据集划分为训练集train.txt、验证集val.txt、测试集test.txt,里面存放的就是用于训练、验证、测试的图片名称,代码内容如下:
import os
import random
trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftrain.write(name)
else:
fval.write(name)
else:
ftest.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()
4.转化数据集格式:
(1)在ultralytics-main目录下创建一个voc_label.py文件
(2)运行后会生成转换后labels文件夹下图片的txt文件,还会在data文件夹下得到三个包含数据集路径的txt文件,train.txt,test.txt,val.txt这3个txt文件为划分后图像所在位置的绝对路径
(3)代码内容如下:
import xml.etree.ElementTree as ET
import os
from os import getcwd
sets = ['train', 'val', 'test']
classes = ['填写自己的类别']
abs_path = os.getcwd()
print(abs_path)
def convert(size, box):
dw = 1. / (size[0])
dh = 1. / (size[1])
x = (box[0] + box[1]) / 2.0 - 1
y = (box[2] + box[3]) / 2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return x, y, w, h
def convert_annotation(image_id):
in_file = open('data/Annotations/%s.xml' % (image_id), encoding='UTF-8')
out_file = open('data/labels/%s.txt' % (image_id), 'w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
# difficult = obj.find('difficult').text
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
b1, b2, b3, b4 = b
# 标注越界修正
if b2 > w:
b2 = w
if b4 > h:
b4 = h
b = (b1, b2, b3, b4)
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
wd = getcwd()
for image_set in sets:
if not os.path.exists('data/labels/'):
os.makedirs('data/labels/')
image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
list_file = open('data/%s.txt' % (image_set), 'w')
for image_id in image_ids:
list_file.write(abs_path + '/data/images/%s.jpg\n' % (image_id))
convert_annotation(image_id)
list_file.close()
5.编写数据集配置文件:
在ultralytics-main目录下创建 wheat.yaml,代码内容如下:
train: D:/ultralytics-main/data/train.txt
val: D:/ultralytics-main/data/val.txt
test: D:/ultralytics-main/data/test.txt
nc: 5 # 填写类别数
names: ["填写自己的类别"] # 要和voc_label.py中的类别数目顺序一模一样
# train,val,test的路径根据自己情况而定
6.下载CPU版pytorch:
(1)具体网站(用梯子):Previous PyTorch Versions | PyTorch 选择找到与cpu相关的pip指令,例如:
(2)在conda创建的yolov8环境中输入找到的pip指令,等待下载完成即可
7.命令行运行:
(1)同样先在环境中打开项目ultralytics-main(参考二、5.(1))
(2)运行训练指令:
yolo train data=wheat.yaml model=yolov8s.pt epochs=300 imgsz=640 batch=8 workers=0 device=cpu
data为yaml配置文件,后边填写你的配置文件的相对/绝对路径
model为下载的预训练模型,在主文件下
epochs为训练轮数
imagez为训练时ai看到的图片大小,检查大图片建议使用640,小图片可以320 越大越吃性能
batch为一轮训练中每一次放入图片数量,越大越快效果越好,但是对性能要求越高
device为使用的设备,使用cpu练就写cpu,使用显卡大多数都是0,多显卡就0,1,2...多少显卡往后写多少
【GPU】
1.检查自己电脑的CUDA版本:
(1)点击键盘 win + i ,输入cmd,敲击回车
(2)输入以下指令:
nvidia-smi
(3)显示出以下内容说明系统已安装CUDA:
eg:若未显示此界面,则去CUDA官网下载与系统兼容版本(同时需要配置兼容的CUDNN)
2.下载pytorch:
(1)只能下载 <= CUDA Version的pytorch版本,这里我们选择找到pip相关指令
(2)具体网站:(用梯子)Previous PyTorch Versions | PyTorch
(3) 在conda创建的yolov8环境中输入找到的pip指令,等待下载完成即可
3.下载torch的gpu版本:
(1)在环境中打开项目ultralytics-main(参考二、5.(1))
(2)输入指令查看torch是否为gpu版本:
pip list
如下图, torch那行对应的torch版本,例如这样就是cpu版本,需要去下载相关torch的gpu版本
(3)打开网址:http://download.pytorch.org/whl/torch_stable.htmlhttp://download.pytorch.org/whl/torch_stable.html
cu121/表示你在教程【GPU】1.当中官网上下载的cuda版本
torch-2.2.2%2Bcu121/表示刚才在pip list中查看的torch的版本
cp312-cp312表示你yolov8的环境python版本,如果按我的教程来的话为3.9
win-amd64.whl简而言之就是windows系统
① 按照上述要求找到你需要的下载链接点进去
② 在D盘新建一个文件夹D:\torch_gpu,保存在其中
③ 在项目环境中输入指令:(后面的路径为你whl所保存的位置)
pip install D:\torch_gpu\torch-2.2.2+cu121-cp39-cp39-win_amd64.whl
(4)检验是否安装成功:
① 在环境中打开项目ultralytics-main(参考二、5.(1))
② 输入指令:
pip list
--------------------------------出现+cu+你的cuda版本型号即为安装成功----------------------------------------
③ 同理完成torchaudio及torchavision的GPU版本:
4. 运行训练命令:
(1)参考【CPU】1--5
(2) 同样先在环境中打开项目ultralytics-main(参考二、5.(1))
(3)运行以下指令:
yolo train data=wheat.yaml model=yolov8s.pt epochs=300 imgsz=640 batch=8 workers=0 device=0
data为yaml配置文件,后边填写你的配置文件的相对/绝对路径
model为下载的预训练模型,在主文件下
epochs为训练轮数
imgsz为训练时ai看到的图片大小,检查大图片建议使用640,小图片可以320 越大越吃性能
batch为一轮训练中每一次放入图片数量,越大越快效果越好,但是对性能要求越高
device为使用的设备,使用cpu练就写cpu,gpu使用显卡大多数都是0,多显卡就0,1,2,3,...多少显卡往后写多少
四、过程细节
1.最终 ultralytics-main 目录下整体情况如下:
eg :红色框内部分为自己添加的部分,runs文件夹的生成参考二、6.(3)
2. 使用labelimg标注数据集转.xml格式
(1)安装并打开labelimg
① 在conda创建新环境labelimg,指令如下:
conda create -n labelimg python=3.9
② 激活lalelimg环境,指令如下:
conda activate labelimg
③ 在此环境下安装labelimg,指令可如下:
pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple #不推荐,会出现依赖缺失或者版本不匹配问题
pip install labelimg #推荐用此方法安装
eg:以一种方式安装即可
④ 打开labelimg,指令如下:
labelimg
(2)使用labelimg
① 打开labelimg:
② 使用介绍:
③ 与三、3.数据集划分相关步骤:
Ⅰ选择PascalVOC(即.xml格式)
Ⅱ 点击Open Dir打开文件夹D:\ultralytics-main\data\images中的.jpg格式的图片
Ⅲ Change Save Dir选择文件夹D:\ultralytics-main\data\Annotations
Ⅳ 打好标签以后若先前勾选View-Auto Save mode选项即可自动保存
3.Pycharm项目解释器的选择
我使用的是Pycham2024.1版本,截止2024.4最新版本,解释器选择的conda环境,如下
如何加载conda环境 ?
找到Anaconda目录下的\Library\bin\conda.bat,然后加载环境选择yolov8即可,如下
更多推荐
所有评论(0)