使用keras ImageDataGenerator时,如何在测试阶段对图像应用归一化?

时间:2018-11-07 08:53:53

标签: python machine-learning keras image-preprocessing

我正在尝试使用经过训练的模型来预测新图像。我的准确率是95%。但是无论我输入什么内容,predict_classes始终返回第一个标签[0]。 我想原因之一是我在featurewise_center=True中使用了samplewise_center=TrueImageDataGenerator。我想我应该在输入图像上做同样的事情。但是我找不到这些功能对图像做了什么。

任何建议将不胜感激。

ImageDataGenerator代码:

train_datagen = ImageDataGenerator(
samplewise_center=True,
rescale=1. / 255,
shear_range=30,
zoom_range=30,
rotation_range=20,
width_shift_range=0.2,
height_shift_range=0.2)

test_datagen = ImageDataGenerator(
samplewise_center=True,
rescale=1. / 255,
shear_range=30,
zoom_range=30,
rotation_range=20,
width_shift_range=0.2,
height_shift_range=0.2,
horizontal_flip=True)

预测代码(我使用100 * 100 * 3图片训练模型):

model = load_model('CNN_model.h5')
img = cv2.imread('train/defect/6.png')
img = cv2.resize(img,(100,100))
img = np.reshape(img,[1,100,100,3])
img = img/255.

classes = model.predict_classes(img)

print (classes)

更新11/14:

我更改代码以预测如下所示的图像。但是,即使我提供了用于训练模型的图像(并获得了95%的准确度),该模型仍然可以预测相同的类。我有什么想念的吗?

model = load_model('CNN_model.h5')
img = cv2.imread('train/defect/6.png')
img = cv2.resize(img,(100,100))
img = np.reshape(img,[1,100,100,3])
img = np.array(img, dtype=np.float64) 
img = train_datagen.standardize(img)

classes = model.predict_classes(img)
print(classes)

3 个答案:

答案 0 :(得分:1)

您需要使用standardize()实例的ImageDataGenerator方法。来自Keras documentation

  

标准化

standardize(x)
     

将规范化配置应用于一批输入。

     

参数

     
      
  • x:要标准化的输入批次。
  •   
     

返回

     

输入已标准化。

所以会是这样:

img = cv2.imread('train/defect/6.png')
img = cv2.resize(img,(100,100))
img = np.reshape(img,[1,100,100,3])
img = train_datagen.standardize(img)

classes = model.predict_classes(img)

请注意,它也将应用重新缩放,因此无需您自己执行(即,删除img = img/255.)。

此外,请记住,由于设置了featurewise_ceneter=True,因此在使用它进行训练之前,需要使用fit()生成器方法:

train_datagen.fit(training_data)

# then use fit_generator method
model.fit_generator(train_datagen, ...)

答案 1 :(得分:0)

不是完整的答案,而是一些信息:

来自keras文档中引用的this link

# this is the augmentation configuration we will use for training
train_datagen = ImageDataGenerator(
    rescale=1. / 255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)

# this is the augmentation configuration we will use for testing:
# only rescaling
test_datagen = ImageDataGenerator(rescale=1. / 255)

train_generator = train_datagen.flow_from_directory(
    train_data_dir,
    target_size=(img_width, img_height),
    batch_size=batch_size,
    class_mode='binary')

validation_generator = test_datagen.flow_from_directory(
    validation_data_dir,
    target_size=(img_width, img_height),
    batch_size=batch_size,
    class_mode='binary')

我认为您应该以这种方式进行培训。然后进行测试,我认为使用train_datagen.standardize是正确的。

答案 2 :(得分:0)

我认为这是您使用cv2导入图像的问题,因为当您使用cv2.imread时,通道不是“ r,g,b”而是“ b,g,r”

例如,

import cv2
from tensorflow.keras.preprocessing import image

bgr = cv2.imread('r.jpg')
rgb = np.array(image.load_img('r.jpg'))
print(bgr[1,1,:],rgb[1,1,:])

结果:

[ 83 113   0] [  0 114  83]