VOC(xml)标注格式转换为YOLOv5(txt)

数据集介绍

本文所使用的数据集为湿垃圾数据集

  • 数据集文档结构如下:
    在这里插入图片描述
  • xml2txt

标注格式介绍

xml格式的标注信息中,box坐标信息是以xyxy格式标注的,也就是GT框的左上角坐标(xmin, ymin)和右下角坐标(xmax, ymax)

YOLOv5中使用的数据标注文件为.txt,GT框坐标信息是以xywh格式标注的,也就是GT框的归一化中心点坐标(x, y)和归一化宽高(width, height),二者的区别去下图所示:

在这里插入图片描述

转换步骤

1、maketxt.py

  • 将原数据集划分为train、val和test三部分,其中train+val(组合成trainval部分)占总数据集90%,test部分占10%,train部分有占trainval部分的90%,因此,train: val: test = 8: 1: 1

  • 程序执行结果如下:

    在这里插入图片描述

pytorch代码

import os
import random

"""
对图片数据集进行随机分类
以8: 1: 1的比例分为训练数据集,验证数据集和测试数据集
运行后在ImageSets文件夹中会出现四个文件
"""
ROOT = "/app/yyq/dataset/fourth_project/yolov5_dataset/"
trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = ROOT + "Annotations"
txtsavepath = ROOT + "ImageSets"
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)
# 获取该路径下所有文件的名称,存放在list中
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open(ROOT + "ImageSets/trainval.txt", "w")
ftest = open(ROOT + "ImageSets/test.txt", "w")
ftrain = open(ROOT + "ImageSets/train.txt", "w")
fval = open(ROOT + "ImageSets/val.txt", "w")

for i in list:
    # 获取文件名称中.xml之前的序号
    name = total_xml[i][:-4] + "\n"
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()+

2、voc2txt.py

  • 你 将xml文件转化为txt文件,xml文件包含了对应的GT框以及图片长宽大小等信息,通过对其解析,并进行归一化最终读到txt文件中
  • 同时生成train、val和test数据集中图片的绝对路径,用于索引到图片位置
  • 程序执行结果如下:

在这里插入图片描述

pytorch代码

import xml.etree.ElementTree as ET  # xml解析包
import os

sets = ["train", "test", "val"]
classes = ["plastic_bag", "bottle", "food_container", "stick"]

# 进行归一化操作
def convert(size, box):  # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)
    dw = 1. / size[0]  # 1/w
    dh = 1. / size[1]  # 1/h
    x = (box[0] + box[1]) / 2.0  # 物体在图中的中心点x坐标
    y = (box[2] + box[3]) / 2.0  # 物体在图中的中心点y坐标
    w = box[1] - box[0]  # 物体实际像素宽度
    h = box[3] - box[2]  # 物体实际像素高度
    x = x * dw  # 物体中心点x的坐标比(相当于 x/原图w)
    w = w * dw  # 物体宽度的宽度比(相当于 w/原图w)
    y = y * dh  # 物体中心点y的坐标比(相当于 y/原图h)
    h = h * dh  # 物体宽度的宽度比(相当于 h/原图h)
    return (x, y, w, h)  # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]


# year ="2012", 对应图片的id(文件名)
def convert_annotation(root, image_id):
    """
    将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长宽大小等信息,
    通过对其解析,然后进行归一化最终读到label文件中去,也就是说
    一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去
    labal文件中的格式: calss x y w h,同时,一张图片对应的类别有多个,所以对应的buinding的信息也有多个
    """
    # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件
    in_file = open(root + "Annotations/%s.xml" %
                   (image_id), encoding="utf-8")
    # 准备在对应的image_id 中写入对应的label,分别为
    # <object-class> <x> <y> <width> <height>
    out_file = open(root + "labels/%s.txt" %
                    (image_id), "w", encoding="utf-8")
    # 解析xml文件
    tree = ET.parse(in_file)
    # 获得对应的键值对
    root = tree.getroot()
    # 获得图片的尺寸大小
    size = root.find("size")
    # 如果xml内的标记为空,增加判断条件
    if size != None:
        # 获得宽
        w = int(size.find("width").text)
        # 获得高
        h = int(size.find("height").text)
        # 遍历目标obj
        for obj in root.iter("object"):
            # 获得difficult
            if obj.find("difficult"):
                difficult = int(obj.find("difficult").text)
            else:
                difficult = 0
            # 获得类别 =string 类型
            cls = obj.find("name").text
            # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过
            if cls not in classes or int(difficult) == 1:
                continue
            # 通过类别名称找到id
            cls_id = classes.index(cls)
            # 找到bndbox 对象
            xmlbox = obj.find("bndbox")
            # 获取对应的bndbox的数组 = ["xmin","xmax","ymin","ymax"]
            b = (float(xmlbox.find("xmin").text), float(xmlbox.find("xmax").text), float(xmlbox.find("ymin").text),
                 float(xmlbox.find("ymax").text))
            print(image_id, cls, b)
            # 带入进行归一化操作
            # w = 宽, h = 高, b= bndbox的数组 = ["xmin","xmax","ymin","ymax"]
            bb = convert((w, h), b)
            # bb 对应的是归一化后的(x,y,w,h)
            # 生成 calss x y w h 在label文件中
            out_file.write(str(cls_id) + " " +
                           " ".join([str(a) for a in bb]) + "\n")


if __name__ == "__main__":
    ROOT = "/app/yyq/dataset/fourth_project/yolov5_dataset/"
    for image_set in sets:
        """
        对所有的文件数据集进行遍历
        做了两个工作:
        1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去 方便定位
        2.同时对所有的图片文件进行解析和转化,将其对应的 bundingbox 以及类别的信息全部解析写到 label 文件中去
        最后再通过直接读取文件 就能找到对应的 label 信息
        """
        # 先找labels文件夹如果不存在则创建
        if not os.path.exists(ROOT + "labels/"):
            os.makedirs(ROOT + "labels/")
        # 读取在 ImageSets 中的train、test..等文件的内容
        # 包含对应的文件名称
        image_ids = open(ROOT + "ImageSets/%s.txt" %
                         (image_set)).read().strip().split()
        # 打开对应的.txt 文件对其进行写入准备
        list_file = open(ROOT + "%s.txt" % (image_set), "w")
        # 将对应的文件_id以及全路径写进去并换行
        for image_id in image_ids:
            list_file.write(ROOT + "images/%s.jpg\n" % (image_id))
            # 开始解析xml文件的标注格式
            convert_annotation(root=ROOT, image_id=image_id)
        # 关闭文件
        list_file.close()

运行代码结果如下:
在这里插入图片描述
最终生成的数据如下:
在这里插入图片描述

3、split_twofiles.py

需求是分别创建两个文件夹 images 和 labels,里面各自有两个文件夹分别为trainvalid

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# 将一个文件夹下图片按比例分在两个文件夹下,比例改0.9这个值即可
import os
import random
import shutil
from shutil import copy2

IMAGE_PATH = "/app/yyq/dataset/fourth_project/plate_number/plate_dataset"
image_path = IMAGE_PATH + "/JPEGImages"
trainfiles = os.listdir(image_path) #(图片文件夹)
num_train = len(trainfiles)
print( "num_train: " + str(num_train) )
index_list = list(range(num_train))
print(index_list)
random.shuffle(index_list)

num = 0
trainDir = "{}/images/train".format(IMAGE_PATH)  #(将图片文件夹中的9份放在这个文件夹下)
if not os.path.exists(trainDir):
    os.makedirs(trainDir)
validDir = "{}/images/val".format(IMAGE_PATH)  #(将图片文件夹中的1份放在这个文件夹下)
if not os.path.exists(validDir):
    os.makedirs(validDir)

for i in index_list:
    fileName = os.path.join(image_path, trainfiles[i])
    if num < num_train * 0.9:
        print(str(fileName))
        copy2(fileName, trainDir)
    else:
        copy2(fileName, validDir)
    num += 1

在这里插入图片描述

4、split_labels.py

按照第三个脚本 分割的训练集和验证集 找到对应的labels

# -*- coding:UTF-8 -*-
import os
from shutil import copy2


def create_files(file_path):
    if not os.path.exists(file_path):
        os.makedirs(file_path)


def pro_labels(param):
    img_path = "{}/images/{}".format(IMAGE_PATH, param)
    create_files(img_path)
    img_all = os.listdir(img_path)
    print(img_all)

    labels_path = "{}/labels/{}".format(IMAGE_PATH, param)
    create_files(labels_path)

    for i in img_all:
        file_name = os.path.join(img_path, i)
        for j in yolov5_txt_all:
            if i[0:-4] == j[0:-4]:
                copy2(file_name, labels_path)


if __name__ == '__main__':
    IMAGE_PATH = "/app/yyq/dataset/fourth_project/plate_number/plate_dataset"

    # yolov5标签所在位置
    yolov5_txt_path = "{}/yolov5_txt".format(IMAGE_PATH)
    yolov5_txt_all = os.listdir(yolov5_txt_path)

    # 训练集
    pro_labels("train")
    print("*" * 80)

    # 验证集
    pro_labels("val")

以上结束后就可以配置

在这里插入图片描述

在这里插入图片描述

相关code我有上传资源

GitHub 加速计划 / yo / yolov5
49.42 K
16.03 K
下载
yolov5 - Ultralytics YOLOv8的前身,是一个用于目标检测、图像分割和图像分类任务的先进模型。
最近提交(Master分支:2 个月前 )
79b7336f * Update Integrations table Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> * Update README.md Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> * Update README.zh-CN.md Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> --------- Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> 29 天前
94a62456 * fix: quad training * fix: quad training in segmentation 1 个月前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐