Windows10+YOLOv3实现检测自己的数据集(1)——制作自己的数据集

本文将从以下三个方面介绍如何制作自己的数据集

  1. 数据标注
  2. 数据扩增
  3. 将数据转化为COCO的json格式
  4. 参考资料

一、数据标注

在深度学习的目标检测任务中,首先要使用训练集进行模型训练。训练的数据集好坏决定了任务的上限。下面介绍两种常用的图像目标检测标注工具:LabelmeLabelImg。

(1)Labelme

Labelme适用于图像分割任务和目标检测任务的数据集制作,它来自该项目:https://github.com/wkentaro/labelme 。

按照项目中的教程安装完毕后,应用界面如下图所示:

它能够提供多边形、矩形、圆形、直线和点的图像标注,并将结果保存为 JSON 文件。

(2)LabelImg

LabelImg适用于目标检测任务的数据集制作。它来自该项目:https://github.com/tzutalin/labelImg

应用界面如下图所示:

它能够提供矩形的图像标注,并将结果保存为txt(YOLO)或xml(PascalVOC)格式。如果需要修改标签的类别内容,则在主目录data文件夹中的predefined_classes.txt文件中修改。

我使用的就是这一个标注软件,标注结果保存为xml格式,后续还需要进行标注格式的转换。

操作快捷键:

Ctrl + u  加载目录中的所有图像,鼠标点击Open dir同功能

Ctrl + r  更改默认注释目标目录(xml文件保存的地址)

Ctrl + s  保存

Ctrl + d  复制当前标签和矩形框

space     将当前图像标记为已验证

w         创建一个矩形框

d         下一张图片

a         上一张图片

del       删除选定的矩形框

Ctrl++    放大

Ctrl--    缩小

↑→↓←        键盘箭头移动选定的矩形框

二、数据扩增

在某些场景下的目标检测中,样本数量较小,导致检测的效果比较差,这时就需要进行数据扩增。本文介绍常用的6类数据扩增方式,包括裁剪、平移、改变亮度、加入噪声、旋转角度以及镜像。

考虑到篇幅问题,将这一部分单列出来,详细请参考本篇博客:https://www.cnblogs.com/lky-learning/p/11653861.html

三、将数据转换至COCO的json格式

首先让我们明确一下几种格式,参考自【点此处】:

3.1 csv

  • csv/

    • labels.csv
    • images/
      • image1.jpg
      • image2.jpg
      • ...

labels.csv 的形式:

  • /path/to/image,xmin,ymin,xmax,ymax,label

例如:

  • /mfs/dataset/face/image1.jpg,450,154,754,341,face
  • /mfs/dataset/face/image2.jpg,143,154,344,341,face

3.2 voc

标准的voc数据格式如下:

VOC2007/

  • Annotations/

    • 0d4c5e4f-fc3c-4d5a-906c-105.xml
    • 0ddfc5aea-fcdac-421-92dad-144/xml
    • ...
  • ImageSets/
    • Main/

      • train.txt
      • test.txt
      • val.txt
      • trainval.txt
  • JPEGImages/
    • 0d4c5e4f-fc3c-4d5a-906c-105.jpg
    • 0ddfc5aea-fcdac-421-92dad-144.jpg
    • ...

3.3 COCO

coco/

  • annotations/

    • instances_train2017.json
    • instances_val2017.json
  • images/
    • train2017/

      • 0d4c5e4f-fc3c-4d5a-906c-105.jpg
      • ...
    • val2017
      • 0ddfc5aea-fcdac-421-92dad-144.jpg
      • ...

Json file 格式: (imageData那一块太长了,不展示了)

{
  "version": "3.6.16",
  "flags": {},
  "shapes": [
    {
      "label": "helmet",
      "line_color": null,
      "fill_color": null,
      "points": [
        [
          131,
          269
        ],
        [
          388,
          457
        ]
      ],
      "shape_type": "rectangle"
    }
  ],
  "lineColor": [
    0,
    255,
    0,
    128
  ],
  "fillColor": [
    255,
    0,
    0,
    128
  ],
  "imagePath": "004ffe6f-c3e2-3602-84a1-ecd5f437b113.jpg",
  "imageData": ""   # too long ,so not show here
  "imageHeight": 1080,
  "imageWidth": 1920
}

在上一节中提到,经过标注后的结果保存为xml格式,我们首先要把这些xml标注文件整合成一个csv文件。

整合代码如下:

import os
import glob
import pandas as pd
import xml.etree.ElementTree as ET

## xml文件的路径
os.chdir(‘./data/annotations/scratches‘)
path = ‘C:/Users/Admin/Desktop/data/annotations/scratches‘ # 绝对路径
img_path = ‘C:/Users/Admin/Desktop/data/images‘

def xml_to_csv(path):
    xml_list = []
    for xml_file in glob.glob(path + ‘/*.xml‘):  #返回所有匹配的文件路径列表。
        tree = ET.parse(xml_file)
        root = tree.getroot()

        for member in root.findall(‘object‘):
#            value = (root.find(‘filename‘).text,
#                     int(root.find(‘size‘)[0].text),
#                     int(root.find(‘size‘)[1].text),
#                     member[0].text,
#                     int(member[4][0].text),
#                     int(member[4][1].text),
#                     int(member[4][2].text),
#                     int(member[4][3].text)
#                     )
            value = (img_path +‘/‘ + root.find(‘filename‘).text,
                     int(member[4][0].text),
                     int(member[4][1].text),
                     int(member[4][2].text),
                     int(member[4][3].text),
                     member[0].text
                     )
            xml_list.append(value)
    #column_name = [‘filename‘, ‘width‘, ‘height‘, ‘class‘, ‘xmin‘, ‘ymin‘, ‘xmax‘, ‘ymax‘]
    column_name = [‘filename‘, ‘xmin‘, ‘ymin‘, ‘xmax‘, ‘ymax‘, ‘class‘]
    xml_df = pd.DataFrame(xml_list, columns=column_name)
    return xml_df

if __name__ == ‘__main__‘:
    image_path = path
    xml_df = xml_to_csv(image_path)
    ## 修改文件名称
    xml_df.to_csv(‘scratches.csv‘, index=None)
    print(‘Successfully converted xml to csv.‘)

当显示 Successfully converted xml to csv 后,我们就得到了整理后的标记文件。

在有些模型下,有了图像数据和csv格式的标注文件后,就可以进行训练了。但是在YOLOv3中,标记文件的类型为COCO的json格式,因此我们还得将其转换至json格式。

转换代码:

import os
import json
import numpy as np
import pandas as pd
import glob
import cv2
import shutil
from IPython import embed
from sklearn.model_selection import train_test_split
np.random.seed(41)

# 0为背景
classname_to_id = {"scratches": 1,"inclusion": 2}

class Csv2CoCo:

    def __init__(self,image_dir,total_annos):
        self.images = []
        self.annotations = []
        self.categories = []
        self.img_id = 0
        self.ann_id = 0
        self.image_dir = image_dir
        self.total_annos = total_annos

    def save_coco_json(self, instance, save_path):
        json.dump(instance, open(save_path, ‘w‘), ensure_ascii=False, indent=2)  # indent=2 更加美观显示

    # 由txt文件构建COCO
    def to_coco(self, keys):
        self._init_categories()
        for key in keys:
            self.images.append(self._image(key))
            shapes = self.total_annos[key]
            for shape in shapes:
                bboxi = []
                for cor in shape[:-1]:
                    bboxi.append(int(cor))
                label = shape[-1]
                annotation = self._annotation(bboxi,label)
                self.annotations.append(annotation)
                self.ann_id += 1
            self.img_id += 1
        instance = {}
        instance[‘info‘] = ‘spytensor created‘
        instance[‘license‘] = [‘license‘]
        instance[‘images‘] = self.images
        instance[‘annotations‘] = self.annotations
        instance[‘categories‘] = self.categories
        return instance

    # 构建类别
    def _init_categories(self):
        for k, v in classname_to_id.items():
            category = {}
            category[‘id‘] = v
            category[‘name‘] = k
            self.categories.append(category)

    # 构建COCO的image字段
    def _image(self, path):
        image = {}
        img = cv2.imread(self.image_dir + path)
        image[‘height‘] = img.shape[0]
        image[‘width‘] = img.shape[1]
        image[‘id‘] = self.img_id
        image[‘file_name‘] = path
        return image

    # 构建COCO的annotation字段
    def _annotation(self, shape,label):
        # label = shape[-1]
        points = shape[:4]
        annotation = {}
        annotation[‘id‘] = self.ann_id
        annotation[‘image_id‘] = self.img_id
        annotation[‘category_id‘] = int(classname_to_id[label])
        annotation[‘segmentation‘] = self._get_seg(points)
        annotation[‘bbox‘] = self._get_box(points)
        annotation[‘iscrowd‘] = 0
        annotation[‘area‘] = 1.0
        return annotation

    # COCO的格式: [x1,y1,w,h] 对应COCO的bbox格式
    def _get_box(self, points):
        min_x = points[0]
        min_y = points[1]
        max_x = points[2]
        max_y = points[3]
        return [min_x, min_y, max_x - min_x, max_y - min_y]
    # segmentation
    def _get_seg(self, points):
        min_x = points[0]
        min_y = points[1]
        max_x = points[2]
        max_y = points[3]
        h = max_y - min_y
        w = max_x - min_x
        a = []
        a.append([min_x,min_y, min_x,min_y+0.5*h, min_x,max_y, min_x+0.5*w,max_y, max_x,max_y, max_x,max_y-0.5*h, max_x,min_y, max_x-0.5*w,min_y])
        return a

if __name__ == ‘__main__‘:

    ## 修改目录
    csv_file = "data/annotations/scratches/scratches.csv"
    image_dir = "data/images/"
    saved_coco_path = "./"
    # 整合csv格式标注文件
    total_csv_annotations = {}
    annotations = pd.read_csv(csv_file,header=None).values
    for annotation in annotations:
        key = annotation[0].split(os.sep)[-1]
        value = np.array([annotation[1:]])
        if key in total_csv_annotations.keys():
            total_csv_annotations[key] = np.concatenate((total_csv_annotations[key],value),axis=0)
        else:
            total_csv_annotations[key] = value
    # 按照键值划分数据
    total_keys = list(total_csv_annotations.keys())
    train_keys, val_keys = train_test_split(total_keys, test_size=0.2)
    print("train_n:", len(train_keys), ‘val_n:‘, len(val_keys))
    ## 创建必须的文件夹
    if not os.path.exists(‘%ssteel/annotations/‘%saved_coco_path):
        os.makedirs(‘%ssteel/annotations/‘%saved_coco_path)
    if not os.path.exists(‘%ssteel/images/train/‘%saved_coco_path):
        os.makedirs(‘%ssteel/images/train/‘%saved_coco_path)
    if not os.path.exists(‘%ssteel/images/val/‘%saved_coco_path):
        os.makedirs(‘%ssteel/images/val/‘%saved_coco_path)
    ## 把训练集转化为COCO的json格式
    l2c_train = Csv2CoCo(image_dir=image_dir,total_annos=total_csv_annotations)
    train_instance = l2c_train.to_coco(train_keys)
    l2c_train.save_coco_json(train_instance, ‘%ssteel/annotations/instances_train.json‘%saved_coco_path)
    for file in train_keys:
        shutil.copy(image_dir+file,"%ssteel/images/train/"%saved_coco_path)
    for file in val_keys:
        shutil.copy(image_dir+file,"%ssteel/images/val/"%saved_coco_path)
    ## 把验证集转化为COCO的json格式
    l2c_val = Csv2CoCo(image_dir=image_dir,total_annos=total_csv_annotations)
    val_instance = l2c_val.to_coco(val_keys)
    l2c_val.save_coco_json(val_instance, ‘%ssteel/annotations/instances_val.json‘%saved_coco_path)

至此,我们的数据预处理工作就做好了

四、参考资料

  • https://blog.csdn.net/sty945/article/details/79387054
  • https://blog.csdn.net/saltriver/article/details/79680189
  • https://www.ctolib.com/topics-44419.html
  • https://www.zhihu.com/question/20666664
  • https://github.com/spytensor/prepare_detection_dataset#22-voc
  • https://blog.csdn.net/chaipp0607/article/details/79036312

原文地址:https://www.cnblogs.com/lky-learning/p/11640180.html

时间: 2024-08-29 10:59:18

Windows10+YOLOv3实现检测自己的数据集(1)——制作自己的数据集的相关文章

YOLOv3目标检测实战:交通标志识别

在无人驾驶中,交通标志识别是一项重要的任务.本项目以美国交通标志数据集LISA为训练对象,采用YOLOv3目标检测方法实现实时交通标志识别. 具体项目过程包括包括:安装Darknet.下载LISA交通标志数据集.数据集格式转换.修改配置文件.训练LISA数据集.测试训练出的网络模型.性能统计(mAP计算和画出PR曲线)和先验框聚类. YOLOv3可以实时地进行端到端的目标检测,以速度快见长.本课程将手把手地教大家使用YOLOv3实现交通标志识别.本课程的YOLOv3使用Darknet,在Ubun

YOLOv3目标检测:原理与Darknet源码解析

Linux创始人Linus Torvalds有一句名言:Talk is cheap. Show me the code. (冗谈不够,放码过来!). 代码阅读是从入门到提高的必由之路.尤其对深度学习,许多框架隐藏了神经网络底层的实现,只能在上层调包使用,对其内部原理很难认识清晰,不利于进一步优化和创新. YOLOv3是一种基于深度学习的端到端实时目标检测方法,以速度快见长. YOLOv3的实现Darknet是使用C语言开发的轻型开源深度学习框架,依赖少,可移植性好,可以作为很好的代码阅读案例,让

【Detection】物体识别-制作PASCAL VOC数据集

代码下载:github PASCAL VOC数据集 PASCAL VOC为图像识别和分类提供了一整套标准化的优秀的数据集,从2005年到2012年每年都会举行一场图像识别challenge 默认为20类物体 1 数据集结构 ①JPEGImages JPEGImages文件夹中包含了PASCAL VOC所提供的所有的图片信息,包括了训练图片和测试图片. ref:PASCAL VOC数据集分析 ②Annotations Annotations文件夹中存放的是xml格式的标签文件,每一个xml文件都对

深度学习Caffe实战笔记(19)Windows平台 Faster-RCNN 制作自己的数据集

"-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd"> 深度学习Caffe实战笔记(19)Windows平台 Faster-RCNN 制作自己的数据集 - gybheroin的博客 - 博客频道 - CSDN.NET gybheroin的博客 目录视图 摘要视图 订阅 [活动]2017 CSDN博客专栏评选 &nbsp [

Pandas将中文数据集转换为数值类别型数据集

一个机器学习竞赛中,题目大意如下,本文主要记录数据处理过程,为了模型训练,第一步需要将中文数据集处理为数值类别数据集保存. 基于大数据的运营商投诉与故障关联分析 目标:原始数据集是含大量中文的xls格式的表格,目标处理为数值类别的csv表格. 原始数据集部分切片,如下格式: 目标数据集为,处理成对应的数值类别格式,如下: 解决思路:(处理中文需要注意编码) 总体分两步,1.提取每一列的值(含中文),作为key关键字,value为自增的整数,构造字典.利用了字典的key唯一的特性. 2.根据上一部

隧道目标识别实验过程(二)标准VOC数据集和制作后的数据集实验结果对比

VOC标准数据集中一共有20个类别: 'aeroplane', 'bicycle', 'bird', 'boat','bottle', 'bus', 'car', 'cat', 'chair','cow', 'diningtable', 'dog', 'horse','motorbike', 'person', 'pottedplant','sheep', 'sofa', 'train', 'tvmonitor' 可以尝试用其中的红色标注的五个类别来对隧道目标进行识别. 标准数据集中的车和行人的

将普通的图像数据制作成类似于MNIST数据集的.gz文件(数据集制作)

做完MNIST数据集的训练之后,我们想把自己的数据也拿来做一下相关的训练,那么如果调用MNIST数据读取的接口就需要按照他的数据格式来存取数据,首先来看看这个接口(input_data.read_data_set())): #coding=utf-8 #input_data.py的详解 #学习读取数据文件的方法,以便读取自己需要的数据库文件(二进制文件) """Functions for downloading and reading MNIST data."&qu

将非正态分布的数据集转化为正态分布的数据集

在统一的试验条件下,有时会得到一个数据集,如果需要分析这类数据的分布特性,而这一数据集又不符合正态分布,则需要将该组数据做以下变换: 这里取'1'的原因是,此地的r的绝对值是小于等于1的.

基于OpenCv的人脸检测、识别系统学习制作笔记之三

1.在windows下编写人脸检测.识别系统.目前已完成:可利用摄像头提取图像,并将人脸检测出来,未进行识别. 2.在linux下进行编译在windows环境下已经能运行的代码. 为此进行了linux系统下OpenCv的安装. 在linux中安装OpenCv遇到了很多问题,已经解决,但是花费了不少时间.目前:可以在linux下编译OpenCv项目,但是运行生成的程序时出现问题.初步认定为采用了虚拟机而导致运行内存不足,程序直接崩溃,将继续解决这个问题. 花费较多时间安装OpenCv是有必要的,为