如何准备存储在zip文件中的图像数据以在Tensorflow 2中进行训练?

问题描述 投票:0回答:1

我需要准备大量图像,以使用Tensorflow 2 / Keras通过卷积神经网络为深度学习做准备。一批61张图像及其各自的“遮罩”(只是图像的分段版本)存储在一个zip文件中。因此,例如,压缩文件Batch-0-of-163.zip包含:

'image-1.png', 'mask-1.png', 'image-2.png', 'mask-2.png' ... 'image-61.png', 'mask-61.png'

是否有一种在Tensorflow 2中创建tensorflow.data.Dataset的方法,当GPU需要将其输入到CNN时会生成图像和遮罩数据吗?我想使用数据集,以便可以利用提供的批处理/预取功能。

python tensorflow-datasets tensorflow2.0
1个回答
0
投票

我解决问题的方法包括以下步骤:

  • 创建一个包含每个文件路径的数据集对象
  • 在数据集的每个元素上映射一个python函数以解压缩,加载数据并删除解压缩的文件夹(我认为您不再需要解压缩)
  • 返回到tensorflow代码进行进一步处理

这里是代码外观的示例:

 from scipy import misc
 import os

 # ----------------------------
 # Parsing function with standard python:

 def zip_data_parser(zip_fname):
     os.system('unzip {0}'.format(zip_fname)) # unzip
     folder_name = zip_fname.rsplit('.zip')[0]

     # load data:
     x_stack = []
     y_stack = []
     for i in range(n_images):
         x_stack.append(misc.imread(folder_name + '/image-{0}.png'.format(i)))
         y_stack.append(misc.imread(folder_name + '/mask-{0}.png'.format(i)))
     x = np.array(x_stack)
     y = np.array(y_stack)

     os.system('rm -rf {0}'.format(folder_name)) # remove unzipped folder
     return x, y 

 # ----------------------------
 # Dataset pipeline:

 all_zip_paths = ['file1.zip', 'file2.zip', 'file3.zip'] # list of paths for each zip file
 train_data = tf.constant(all_zip_paths)
 train_data = tf.data.Dataset.from_tensor_slices(train_data)

 train_data = train_data.map(
            lambda filename: tf.py_func(  # Parse the record into tensors
                zip_data_parser,
                [filename],
                [tf.float32, tf.float32]), num_parallel_calls=num_threads)

 # un-batch first, then batch the data again to have dimension [batch_size, N, M, C]
 train_data = train_data.apply(tf.data.experimental.unbatch())
 train_data = train_data.batch(b_size, drop_remainder=True)

当然,您可能需要将x和y强制转换为np.float32,然后才能将它们从zip_data_parser返回到Dataset对象。我还假设在示例中,蒙版已经进行了一次热编码。

© www.soinside.com 2019 - 2024. All rights reserved.