Keras 图像预处理 ImageDataGenerator
本文目录
- 本文主要介绍
Keras
中图像分类任务用到的图像预处理部分的内容。- 注意:并不是介绍
Keras
中所有的图像预处理函数。
1. 简介
使用Keras
进行图像分类任务时,如果数据集较少(数据获取困难等),为了尽可能的充分利用有限数据的价值,可以进行数据增强处理。
通过一系列随机变换对数据进行提升,这样有利于抑制过拟合,提升模型的泛化能力。
Keras
中提供了一个用于数据增强的类(Keras.preprocessing.image.ImageDataGenerator
)来实现此功能。这个类可以:
- 在训练过程中,设置要实施的随机变化
- 通过
.flow
或.flow_from_directory(directory)
方法实例化一个针对图像batch
的生成器,这些生成器可以被用做keras
相关方法的输入,如fit_generator
,evaluate_generator
或predict_generator
。
什么意思呢?——使用ImageDataGenerator
类不仅可以在训练过程中进行图像的随机变化,增加训练数据;还附带赠送了获取数据batch
生成器对象的功能,省去了手工再去获取batch
数据的部分。
2. ImageDataGenerator类介绍
ImageDataGenerator
类路径:keras/preprocessing/image.py
作用:通过实时数据增强生成批量图像数据向量。训练时该函数会无限循环生成数据,直到达到规定的
epoch
次数为止。
ImageDataGenerator
继承于keras_preprocessing/image/image_data_generator.py
中的ImageDataGenerator
类。
# keras/preprocessing/image.py
class ImageDataGenerator(image.ImageDataGenerator):
def __init__(self,
featurewise_center=False,
samplewise_center=False,
featurewise_std_normalization=False,
samplewise_std_normalization=False,
zca_whitening=False,
zca_epsilon=1e-6,
rotation_range=0,
width_shift_range=0.,
height_shift_range=0.,
brightness_range=None,
shear_range=0.,
zoom_range=0.,
channel_shift_range=0.,
fill_mode='nearest',
cval=0.,
horizontal_flip=False,
vertical_flip=False,
rescale=None,
preprocessing_function=None,
data_format=None,
validation_split=0.0,
dtype=None):
参数
featurewise_center
:布尔值,使输入数据集去中心化(均值为0),逐特征进行。samplewise_center
:布尔值,使输入数据的每个样本均值为0featurewise_std_normalization
:布尔值,将输入除以数据集的标准差以完成标准化, 按feature执行samplewise_std_normalization
:布尔值,将输入的每个样本除以其自身的标准差zca_whitening
:布尔值,对输入数据施加ZCA白化
zca_epsilon
:ZCA
使用的eposilon
,默认1e-6
rotation_range
:整数,图片随机转动的角度范围width_shift_range
:浮点数,一维数组或整数,图片宽度的某个比例,数据提升时图片水平偏移的幅度float
:如果<1,则除以总宽度的值,如果>=1,则为宽度像素值- 一维数组:数组中的随机元素
- 整型:来自间隔
(-width_shift_range,width_shift_range)
之间的整数个像素 width_shift_range=2
:可能值是整数[-1,0,1]
,与width_shift_range=[-1,0,1]
相同,而当width_shfit_range=1.0
时,可能值是半开区间[-1.0,1.0]
之间的浮点数(后半句没有理解)。
height_shift_range
:浮点数,图片高度的某个比例,数据提升时图片竖直偏移的幅度。具体含义与width_shift_range
相同。brightness_range
:两个float
组成的元组或列表。选择亮度值的范围shear_range
:浮点数,剪切强度(逆时针方向的剪切变换角度)zoom_range
:浮点数或[lower, upper]
。随机缩放范围,如果是浮点数,[lower, upper] = [1-zoom_range, 1+zoom_range]
channel_shift_range
:浮点数,随机通道转换的范围。fill_mode
:{"constant", "nearest", "reflect" or "wrap"}
之一。默认为'nearest'
。输入边界以外的点根据给定的模式填充:'constant'
:kkkkkkkk|abcd|kkkkkkkk (cval=k)
'nearest'
:aaaaaaaa|abcd|dddddddd
'reflect'
:abcddcba|abcd|dcbaabcd
'wrap'
:abcdabcd|abcd|abcdabcd
cval
: 浮点数或整数。用于边界之外的点的值,当fill_mode = "constant"
时。horizontal_flip
: 布尔值,随机水平翻转。vertical_flip
: 布尔值,随机垂直翻转。rescale
: 重缩放因子。默认为None
。如果是 None 或 0,不进行缩放,否则将数据乘以所提供的值(在应用任何其他转换之后)preprocessing_function
:该函数应用于每个输入上,在图像被resize
和增强之后运行。该函数接收一个参数,一张图像(秩为3的numpy tensor
),同样输出一个相同shape
的Numpy tensor
。data_format
:图像数据格式,{"channels_first", "channels_last"}
之一。"channels_last"
模式表示图像输入尺寸应该为(samples, height, width, channels)
,"channels_first"
模式表示输入尺寸应该为(samples, channels, height, width)
。默认为 在 Keras 配置文件~/.keras/keras.json
中的image_data_format
值。如果你从未设置它,那它就是"channels_last"
。validation_split
:浮点型。保留用于验证集的图像比例(严格在0,1
之间)dtype
:生成数组使用的数据类型。
使用示例
from keras.preprocessing.image import ImageDataGenerator
datagen = ImageDataGenerator(
rotation_range=40,
width_shift_range=0.2,
height_shift_range=0.2,
rescale=1./255,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,
fill_mode='nearest')
data_generator = datagen.flow_from_directory('./datas/train', target_size=(224,224), batch_size=32)
3. ImageDataGenerator类方法
该类的几个重要方法如下:
flow()
: 该方法输入数据(Numpy或元组形式)和标签(可选),返回一个迭代器,格式是元组(x,y)
或(x)
或(x,y,sample_weight)
。该方法还可以指定样本输出路径及前缀,格式,用于保存增强处理后的图像。flow_from_directory()
: 获取图像路径,生成批量增强数据。该方法只需指定数据所在的路径,而无需输入numpy形式的数据,也无需输入标签值,会自动返回对应的标签值。返回一个生成(x, y)
元组的DirectoryIterator
。flow_from_dataframe()
: 输入数据为Pandas dataframe
格式。返回生成(x, y)
元组的DataFrameIterator
。
注意事项
- 主要区别是输入数据和输出数据的格式不同。
flow_from_directory()
和flow_from_dataframe()
两个函数都将图像resize
到指定大小。而flow()
无此步骤。
3.1 fit()
该方法使数据生成器适合于某些样本数据,它根据样本数据数组计算与数据依赖转换相关的内部数据统计信息。
只有在featurewise_center
或featurewise_std_normalization
或zca_whitening
为设置为True
时才需要计算。
即实现对数据的去中心化/标准化/ZCA白化处理。
使用的数据均值、标准差都是数据自身的。
函数定义:
def fit(self, x, augment=False,rounds=1, seed=None)
参数:
x
: 样本数据,秩为4,对于灰度图像,通道axis应该为1,如何是RGB
数据 ,应该为3,如果是RGBA
数据,应该为4。augment
:布尔型,默认False
,是否应用随机增强rounds
:整型,默认1
。如果augment=True
,这是传递给数据使用的扩充量。seed
:整型,默认None
,随机种子。
返回值:
一个生成元组(x, y)
的Iterator
,其中x
是图像数据的Numpy
数组(在单张图像输入时),或 Numpy 数组列表(在额外多个输入时),y 是对应的标签的Numpy
数组。如果 'sample_weight'
不是 None,生成的元组形式为(x, y, sample_weight)
。如果 y 是 None
, 只有Numpy
数组x
被返回。
具体实现
def fit(self, x,
augment=False,
rounds=1,
seed=None):
# 此处为合规性检测
# 数据去中心化
if self.featurewise_center:
self.mean = np.mean(x, axis=(0, self.row_axis, self.col_axis))
broadcast_shape = [1, 1, 1]
broadcast_shape[self.channel_axis - 1] = x.shape[self.channel_axis]
self.mean = np.reshape(self.mean, broadcast_shape)
x -= self.mean
# 数据标准化
if self.featurewise_std_normalization:
self.std = np.std(x, axis=(0, self.row_axis, self.col_axis))
broadcast_shape = [1, 1, 1]
broadcast_shape[self.channel_axis - 1] = x.shape[self.channel_axis]
self.std = np.reshape(self.std, broadcast_shape)
x /= (self.std + 1e-6)
# 数据ZAC白化处理
if self.zca_whitening:
if scipy is None:
raise ImportError('Using zca_whitening requires SciPy. '
'Install SciPy.')
flat_x = np.reshape(
x, (x.shape[0], x.shape[1] * x.shape[2] * x.shape[3]))
sigma = np.dot(flat_x.T, flat_x) / flat_x.shape[0]
u, s, _ = linalg.svd(sigma)
s_inv = 1. / np.sqrt(s[np.newaxis] + self.zca_epsilon)
self.principal_components = (u * s_inv).dot(u.T)
3.2 flow()
采集数据和标签数组,生成批量增强数据。
函数定义:
def flow(self,
x,
y=None,
batch_size=32,
shuffle=True,
sample_weight=None,
seed=None,
save_to_dir=None,
save_prefix='',
save_format='png',
subset=None)
参数:
x
: 输入数据。秩为 4 的 Numpy 矩阵或元组。如果是元组,第一个元素应该包含图像,第二个元素是另一个 Numpy 数组或一列 Numpy 数组,它们不经过任何修改就传递给输出。可用于将模型杂项数据与图像一起输入。对于灰度数据,图像数组的通道轴的值应该为 1,而对于 RGB 数据,其值应该为 3。y
:标签batch_size
:整型,默认32shuffle
:布尔型,默认True
,是否混洗数据sample_weight
:样本权重seed
:默认None
save_to_dir
:None 或 字符串(默认为 None)。这使您可以选择指定要保存的正在生成的增强图片的目录save_prefix
: 字符串(默认 ‘’)。保存图片的文件名前缀(仅当save_to_dir
设置时可用)。save_format
:"png", "jpeg"
之一(仅当save_to_dir
设置时可用)。默认:“png”。subset
: 数据子集 ("training"
或"validation"
),如果 在ImageDataGenerator
中设置了validation_split
。
返回值:
一个生成元组 (x, y)
的 Iterator
,其中 x
是图像数据的Numpy
数组(在单张图像输入时),或 Numpy 数组列表(在额外多个输入时),y
是对应的标签的 Numpy 数组。如果 'sample_weight'
不是 None,生成的元组形式为(x, y, sample_weight)
。如果 y
是 None, 只有 Numpy 数组 x 被返回。
内部调用数组迭代器类:
return NumpyArrayIterator(
x,
y,
self,
batch_size=batch_size,
shuffle=shuffle,
sample_weight=sample_weight,
seed=seed,
data_format=self.data_format,
save_to_dir=save_to_dir,
save_prefix=save_prefix,
save_format=save_format,
subset=subset
)
3.3 flow_from_directory()
功能: 获取图像路径,生成批量增强数据。
函数定义:
def flow_from_directory(self,
directory,
target_size=(256, 256),
color_mode='rgb',
classes=None,
class_mode='categorical',
batch_size=32,
shuffle=True,
seed=None,
save_to_dir=None,
save_prefix='',
save_format='png',
follow_links=False,
subset=None,
interpolation='nearest')
参数:
directory
:目标目录的路径。每个类应该包含一个子目录。任何在子目录树下的PNG, JPG, BMP, PPM
或TIF
图像,都将被包含在生成器中。target_size
:整数元组(height,width)
,默认:(256,256)
。所有的图像将被调整到的尺寸.color_mode
:"grayscale","rbg"
之一。默认:"rgb"
。图像是否被转换成 1 或 3 个颜色通道。classes
:可选的类的子目录列表(例如['dogs', 'cats']
)。默认:None
。如果未提供,类的列表将自动从 directory下的子目录名称/结构中推断出来,其中每个子目录都将被作为不同的类(类名将按字典序映射到标签的索引)。包含从类名到类索引的映射的字典可以通过class_indices
属性获得。class_model
:"categorical", "binary", "sparse", "input"
或None
之一。默认:"categorical"
。决定返回的标签数组的类型:"categorical"
将2D one-hot
编码标签,"binary"
将是1D二进制标签,"sparse"
将是 1D 整数标签,"input"
将是与输入图像相同的图像(主要用于自动编码器)。- 如果为 None,不返回标签(生成器将只产生批量的图像数据,对于
model.predict_generator()
,model.evaluate_generator()
等很有用)。请注意,如果class_mode
为None
,那么数据仍然需要驻留在directory
的子目录中才能正常工作。
batch_size
: 一批数据的大小(默认 32)。shuffle
:是否混洗数据(默认 True)seed
:可选随机种子,用于混洗和转换。save_to_dir
:None
或字符串(默认None)。这使你可以最佳地指定正在生成的增强图片要保存的目录(用于可视化你在做什么)。save_format
:字符串。 保存图片的文件名前缀(仅当save_to_dir
设置时可用)。follow_links
:是否跟踪类子目录中的符号链接(默认为 False)。subset
:数据子集("training"
或"validation"
),如果 在ImageDataGenerator
中设置了validation_split
。interpolation
:在目标大小与加载图像的大小不同时,用于重新采样图像的插值方法。 支持的方法有"nearest", "bilinear", and "bicubic"
。 如果安装了 1.1.3 以上版本的PIL
的话,同样支持"lanczos"
。 如果安装了 3.4.0 以上版本的PIL
的话,同样支持"box"
和"hamming"
。 默认情况下,使用"nearest"
。
返回值:
一个生成(x, y)
元组的 DirectoryIterator
,其中 x
是一个包含一批尺寸为 (batch_size, *target_size, channels)
的图像的 Numpy 数组,y
是对应标签的 Numpy 数组。
3.4 flow_from_dataframe()
功能: 输入dataframe
和目录的路径,并生成批量的增强/标准化数据。
该函数的输入数据格式为
Pandas dataframe
。
函数定义:
def flow_from_dataframe(self, dataframe, directory=None,
x_col="filename", y_col="class", weight_col=None,
target_size=(256, 256), color_mode='rgb', classes=None,
class_mode='categorical', batch_size=32, shuffle=True, seed=None,
save_to_dir=None, save_prefix='', save_format='png', subset=None,
interpolation='nearest', validate_filenames=True, **kwargs)
参数:
dataframe
:Pandas dataframe
,一列为图像的文件名,另一列为图像的类别, 或者是可以作为原始目标数据多个列。directory
: 字符串,目标目录的路径,其中包含在dataframe
中映射的所有图像。x_col
: 字符串,dataframe
中包含目标图像文件夹的目录的列。y_col
: 字符串或字符串列表,dataframe
中将作为目标数据的列。has_ext
: 布尔值,如果dataframe[x_col]
中的文件名具有扩展名则为True
,否则为False
。target_size
: 整数元组(height, width)
,默认为(256, 256)
。所有找到的图都会调整到这个维度。color_mode
:"grayscale", "rbg"
之一。默认:"rgb"
。 图像是否转换为 1 个或 3 个颜色通道。classes
: 可选的类别列表 (例如,['dogs', 'cats'])
。默认:None
。 如未提供,类比列表将自动从y_col
中推理出来,y_col
将会被映射为类别索引)。 包含从类名到类索引的映射的字典可以通过属性class_indices
获得。class_mode
:"categorical", "binary", "sparse", "input", "other" or None
之一。 默认:"categorical"
。决定返回标签数组的类型:"categorical"
将是2D one-hot
编码标签,"binary"
将是 1D 二进制标签,"sparse"
将是 1D 整数标签,"input"
将是与输入图像相同的图像(主要用于与自动编码器一起使用),"other"
将是y_col
数据的numpy
数组,None
,不返回任何标签(生成器只会产生批量的图像数据,这对使用model.predict_generator(), model.evaluate_generator()
等很有用)。
batch_size
: 批量数据的尺寸(默认:32)。shuffle
: 是否混洗数据(默认:True)seed
: 可选的混洗和转换的随即种子。save_to_dir
:None
或str
(默认:None
). 这允许你可选地指定要保存正在生成的增强图片的目录(用于可视化您正在执行的操作)。save_prefix
: 字符串。保存图片的文件名前缀(仅当save_to_dir
设置时可用)。save_format
:"png","jpeg"
之一(仅当save_to_dir
设置时可用)。默认:"png"
。follow_links
: 是否跟随类子目录中的符号链接(默认:False
)。subset
: 数据子集 ("training"
或"validation"
),如果在ImageDataGenerator
中设置了validation_split
。interpolation
: 在目标大小与加载图像的大小不同时,用于重新采样图像的插值方法。 支持的方法有"nearest", "bilinear", and "bicubic"
。 如果安装了 1.1.3 以上版本的 PIL 的话,同样支持"lanczos"
。 如果安装了 3.4.0 以上版本的 PIL 的话,同样支持"box"
和"hamming"
。 默认情况下,使用"nearest"
。
返回值:
一个生成(x, y)
元组的DataFrameIterator
, 其中x
是一个包含一批尺寸为 (batch_size, *target_size, channels)
的图像样本的numpy
数组,y
是对应的标签的 numpy 数组。
3.5 standardize()
此函数主要是对一组batch
输入数据进行标准化处理。
主要步骤:
- 如果
preprocessing_function
不为空,则执行该指定函数的处理x = self.preprocessing_function(x)
- 如果
rescale
为True
,则执行x*=self.rescale
- 如果
samplewise_center
为True
,则执行x-=np.mean(x, keepdims=True)
去中心化计算的是当前一组
batch
数据的均值 - 如果
samplewise_std_normalization
为True
,则执行x /= (np.std(x, keepdims=True) + 1e-6)
标准化计算的是当前一组
batch
数据的标准差 - 如果
featurewise_center
为True
,self.mean
不为空,则执行x -= self.mean
去中心化,否则给出警告 - 如果
featurewise_std_normalization
为True
,self.std
不为空,则执行x /= (self.std + 1e-6)
去中心化,否则给出警告 - 如果
zca_whitening
为True
,self.principal_components
不为空,则执行计算,否则给出警告
该函数的调用在_get_batches_of_transformed_samples()
函数内,用来获取一组batch
处理后的输入数据。
filepaths = self.filepaths
for i, j in enumerate(index_array):
img = load_img(filepaths[j],
color_mode=self.color_mode,
target_size=self.target_size,
interpolation=self.interpolation)
x = img_to_array(img, data_format=self.data_format)
# Pillow images should be closed after `load_img`,
# but not PIL images.
if hasattr(img, 'close'):
img.close()
if self.image_data_generator:
params = self.image_data_generator.get_random_transform(x.shape)
x = self.image_data_generator.apply_transform(x, params)
x = self.image_data_generator.standardize(x) # 执行标准化处理
batch_x[i] = x
越写越觉得有问题,如果
featurewise_center
设置为True
,其调用了.fit()
函数对数据进行了处理(此时self.mean
已经被赋值),那么再执行到self.image_data_generator.standardize(x)
的时候,岂不是又进行了一次去中心化的处理??
4. 具体使用
在使用Keras
进行图像分类任务时,可以将训练数据按照以下结构进行保存:
datas/
train/
dogs/
dog01.jpg
dog02.jpg
...
cats/
cat01.jpg
cat02.jpg
...
validation/
dogs/
dog01.jpg
dog02.jpg
...
cats/
cat01.jpg
cat02.jpg
...
- 每个分类的图像存入一个文件夹中,按照训练集、验证集分开存放。
- 调用
flow_from_directory()
函数时,数据标签值可自动根据数据子目录的名称/结构推断出来,每个子目录都被作为不同的类。因此,标签值可以不输入。
4.1 示例1
该示例不进行数据的标准化/去中心化/ZAC白化处理
如果需要进行数据增强,则按以下步骤:
# 调用ImageDataGenerator类,
train_datagen = ImageDataGenerator(
rotation_range=30,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True)
# 通过flow_from_directory方法实例化一个生成器,它将不断循环生成batch数据
train_generator = train_datagen.flow_from_directory(
'./datas/train',
target_size=(config.image_size, config.image_size),
class_mode='categorical',
batch_size=config.batch_size)
# 将生成器作为模型训练函数fit_generator的参数
model.fit_generator(train_generator,
steps_per_epoch=nb_train_samples//config.batch_size + 1,
epochs=config.epochs,
validation_data=val_generator,
validation_steps=nb_val_samples//config.batch_size + 1,
callbacks=callbacks)
从训练函数fit_generator
的名称中也可以得出,它的输入是生成器对象。
同样,还可以应用于evaluate_generator
或predict_generator
方法。
4.2 对数据进行去中心化/标准化
4.2.1 通过调用ImageDateGenerator.fit()
函数实现
由前面知识可知,fit()
函数的作用是将数据生成器用于示例数据。
当参数featurewise_center
或featurewise_std_normalization
或zca_whitening
为设置为True
时会对输入的数据x
相应执行去中心化、规范化、ZCA白化处理。
以去中心化为例,具体处理如下:
- 计算输入数据
x
的均值 - 执行
x-=self.mean
# ImageDataGenerator.fit()
if self.featurewise_center:
self.mean = np.mean(x, axis=(0, self.row_axis, self.col_axis))
broadcast_shape = [1, 1, 1]
broadcast_shape[self.channel_axis - 1] = x.shape[self.channel_axis]
self.mean = np.reshape(self.mean, broadcast_shape)
x -= self.mean
需要注意:均值是计算输入数据的均值。
需设置对应参数为True
如果不想使用输入数据自己的均值、标准差,则不能调用该函数,使用其他方法。
4.2.2 通过ImageDateGenerator.standardize()
函数实现
该函数的作用是:将适当的规范化配置应用于一批输入数据
输入:输入将要被规范化处理的一组batch数据
返回:经过规范化处理后的输入数据
该函数对输入
x
是就地更改的,因为主要在用在内部对图像进行标准化并提供给网络,如果创建副本,会产生巨大的性能成本。
该函数对数据的处理包含两种情况:
-
参数
featurewise_center
或featurewise_std_normalization
设为True
,但是数据没有经过.fit()
函数进行处理。
此时,没有通过fit()
函数求取数据的均值和标准差等数据,则数据的均值和标准差是为空的,需要指定。
默认为None
:self.mean = None self.std = None
处理如下:
if self.featurewise_center: if self.mean is not None: x -= self.mean else: warnings.warn('This ImageDataGenerator specifies ' '`featurewise_center`, but it hasn\'t ' 'been fit on any training data. Fit it ' 'first by calling `.fit(numpy_data)`.') if self.featurewise_std_normalization: if self.std is not None: x /= (self.std + 1e-6) else: warnings.warn('This ImageDataGenerator specifies ' '`featurewise_std_normalization`, ' 'but it hasn\'t ' 'been fit on any training data. Fit it ' 'first by calling `.fit(numpy_data)`.')
需要手动设置数据的均值和标准差,才可以进行数据的处理,否则给出警告信息,正确使用方式如下:
datagen = ImageDataGenerator( featurewise_center=True, rotation_range=30, shear_range=0.2, zoom_range=0.2) # 手动设置数据均值 datagen.mean = np.array(config.data_mean, dtype=np.float32).reshape((1,1,3)) train_generator = datagen.flow_from_directory(config.train_data, target_size=img_size, batch_size=batch_size, class_mode=None, shuffle=False)
-
如果数据没有经过
.fit()
函数进行处理,且不知道数据均值/标准差,则通过samplewise_center
和samplewise_std_normalization
参数也可以处理。该参数自动计算当前传入一组
batch
数据的均值及标准差# ImageDateGenerator() def standardize(self, x): if self.samplewise_center: x -= np.mean(x, keepdims=True) if self.samplewise_std_normalization: x /= (np.std(x, keepdims=True) + 1e-6)
-
通过
preprocessing_function
参数指定处理函数如果想把对数据处理的过程封装为一个单独的函数,则可以不使用上面介绍的方法(通过指定参数
samplewise_center
或samplewise_std_normalization
或featurewise_center
或featurewise_std_normalization
)如果
self.preprocessing_function
设置为处理函数,则先执行预处理函数。if self.preprocessing_function: x = self.preprocessing_function(x)
调用方法:
# 指定处理 函数preprocessing_function train_datagen = ImageDataGenerator( preprocessing_function=preprocess_input, rotation_range=30, shear_range=0.2, zoom_range=0.2, horizontal_flip=True) train_generator = train_datagen.flow_from_directory( './datas/train', target_size=(224,224), class_mode='categorical', batch_size=32) model.fit_generator(train_generator, steps_per_epoch=nb_train_samples//config.batch_size + 1, epochs=config.epochs, callbacks=callbacks)
更多推荐
所有评论(0)