我尝试用我的自定义数据集训练 Yolo 网络。我有一些图像(*.jpg)和 yolo 格式的标签/注释作为 txt 文件。
现在我想将数据拆分为训练集和验证集。因此,我想要一个火车和一个验证文件夹,每个文件夹都有自己的图像和注释。
我试过这样的事情:
from sklearn.model_selection import train_test_split
import glob
# Get all paths to your images files and text files
PATH = '../TrainingsData/'
img_paths = glob.glob(PATH+'*.jpg')
txt_paths = glob.glob(PATH+'*.txt')
X_train, X_test, y_train, y_test = train_test_split(img_paths, txt_paths, test_size=0.3, random_state=42)
将集合保存到新文件夹后,图像和注释混淆了。因此,例如在训练文件夹中,一些图像没有注释(它们在验证文件夹中)并且有一些注释但图像丢失了。
你能帮我拆分我的数据集吗?
好的!!,你可以做到这一点
def split_img_label(data_train,data_test,folder_train,folder_test):
os.mkdir(folder_train)
os.mkdir(folder_test)
train_ind=list(data_train.index)
test_ind=list(data_test.index)
# Train folder
for i in tqdm(range(len(train_ind))):
os.system('cp '+data_train[train_ind[i]]+' ./'+ folder_train + '/' +data_train[train_ind[i]].split('/')[2])
os.system('cp '+data_train[train_ind[i]].split('.jpg')[0]+'.txt'+' ./'+ folder_train + '/' +data_train[train_ind[i]].split('/')[2].split('.jpg')[0]+'.txt')
# Test folder
for j in tqdm(range(len(test_ind))):
os.system('cp '+data_test[test_ind[j]]+' ./'+ folder_test + '/' +data_test[test_ind[j]].split('/')[2])
os.system('cp '+data_test[test_ind[j]].split('.jpg')[0]+'.txt'+' ./'+ folder_test + '/' +data_test[test_ind[j]].split('/')[2].split('.jpg')[0]+'.txt')
import pandas as pd
import os
PATH = './TrainingsData/'
list_img=[img for img in os.listdir(PATH) if img.endswith('.jpg')==True]
list_txt=[img for img in os.listdir(PATH) if img.endswith('.txt')==True]
path_img=[]
for i in range (len(list_img)):
path_img.append(PATH+list_img[i])
df=pd.DataFrame(path_img)
# split
data_train, data_test, labels_train, labels_test = train_test_split(df[0], df.index, test_size=0.20, random_state=42)
# Function split
split_img_label(data_train,data_test,folder_train_name,folder_test_name)
len(list_img)
583
100%|████████████████████████████████████████████████████████████████████████████████| 466/466 [00:26<00:00, 17.42it/s]
100%|████████████████████████████████████████████████████████████████████████████████| 117/117 [00:07<00:00, 16.61it/s]
最后,您将拥有 2 个具有相同图像和标签的文件夹(folder_train_name,folder_test_name)。
import glob
import random
import os
filelist = glob.glob('train/*.txt')
test = random.sample(filelist, int(len(filelist)*0.15))
output_path = 'test/'
if not os.path.exists(output_path):
os.makedirs(output_path)
for file in test:
txtpath = file
impath = file[:-4] + '.jpg'
out_text = os.path.join(output_path, os.path.basename(txtpath))
out_image = os.path.join(output_path, os.path.basename(impath))
print(txtpath,impath,out_text,out_image)
os.system('powershell mv ' + txtpath + ' ' + out_text)
os.system('powershell mv ' + impath + ' ' + out_image)
设置训练和测试文件夹路径。 设置要发送给测试的图像的百分比。
如果不使用 Windows,请将
powershell mv
命令替换为 mv
。
如果您想拆分图像和标签以训练您的自定义模型,我建议执行以下步骤:
obj
folder with images and labels.generate_train.py
脚本#generate_train.py
import os
image_files = []
os.chdir(os.path.join("data", "obj"))
for filename in os.listdir(os.getcwd()):
if filename.endswith(".jpg"):
image_files.append("data/obj/" + filename)
os.chdir("..")
with open("train.txt", "w") as outfile:
for image in image_files:
outfile.write(image)
outfile.write("\n")
outfile.close()
os.chdir("..")
train.txt
文件时,你可以运行下面的代码:df=pd.read_csv('PATH/data/train.txt',header=None)
# sklearn split 80 train, 20 test
data_train, data_test, labels_train, labels_test = train_test_split(df[0], df.index, test_size=0.20, random_state=42)
# train.txt contain the PATH of images and label to train
data_train=data_train.reset_index()
data_train=data_train.drop(columns='index')
with open("train.txt", "w") as outfile:
for ruta in data_train[0]:
outfile.write(ruta)
outfile.write("\n")
outfile.close()
# test.txt contain the PATH of images and label to test
data_test=data_test.reset_index()
data_test=data_test.drop(columns='index')
with open("test.txt", "w") as outfile:
for ruta in data_test[0]:
outfile.write(ruta)
outfile.write("\n")
outfile.close()
现在,您已准备好训练您的模型
!./darknet detector train data/obj.data cfg/yolov4-FENO.cfg yolov4.conv.137 -dont_show -map
!./darknet detector train data/obj.data cfg/yolov4_tiny.cfg yolov4-tiny.conv.29 -dont_show -map
拆分图像数据集很棘手,因为正如您发现的那样,如果操作不当,您最终会在单独的文件夹中得到注释和图像。
我在使用 Yolo 注释时遇到了同样的问题,最终创建了一个名为 PyLabel 的 Python 包来将它作为一个学校项目来完成。
我有一个示例笔记本来演示如何在此处将数据集分成 2 或 3 组 https://github.com/pylabel-project/samples/blob/main/dataset_splitting.ipynb.
使用 PyLabel 代码将是这样的:
dataset = importer.ImportYoloV5(path_to_annotations)
dataset.splitter.StratifiedGroupShuffleSplit(train_pct=.6, val_pct=.2, test_pct=.2, batch_size=1)
dataset.analyze.ShowClassSplits()
ShowClassSplits 将提供以下输出,因此您可以检查拆分是否平衡
PyLabel 有 2 种拆分数据的方法:
希望这对阅读本文的人有所帮助。如果您遇到任何问题,请随时与我联系,我可以提供帮助。
@N.white 您可以使用与上面相同的代码,但您只需添加和更改以下行
list_folder = [folder1,folder2,.........folder40]
for folder_name in list_folder :
PATH = 'folder_name'
list_img=[img for img in os.listdir(PATH) if img.endswith('.jpg')==True]
list_txt=[img for img in os.listdir(PATH) if img.endswith('.txt')==True]
path_img=[]
for i in range (len(list_img)):
path_img.append(PATH+list_img[i])
df=pd.DataFrame(path_img)
# split
data_train, data_test, labels_train, labels_test = train_test_split(df[0],
df.index, test_size=0.20, random_state=42)
# Function split
split_img_label(data_train,data_test,folder_train_name,folder_test_name)
注意: 请记住,folder_train_name & folder_test_name 对于所有过程都是相同的,以便获得包含所有图像的唯一最终文件夹。