如何提高 CNN 模型的准确性

问题描述 投票:0回答:1

我建立了一个CNN模型,将面部情绪分类为快乐、悲伤、精力充沛和中性面孔。我使用 Vgg16 预训练模型并冻结所有层。经过 50 个 epoch 的训练后,我的模型的测试精度为 0.65,验证损失约为 0.8。

我的训练数据文件夹有 16000(4x4000) ,验证数据文件夹有 2000(4x500) ,测试数据文件夹有 4000(4x1000) rgb 图像。

  1. 您对提高模型精度有什么建议?

  2. 我尝试用我的模型进行一些预测,预测的类别始终相同。什么可能导致问题?

到目前为止我尝试过的:

  1. 添加dropout层(0.5)
  2. 在最后一层之前添加 Dense(256,relu)
  3. 打乱训练数据和验证数据。
  4. 将学习率降低到1e-5

但我无法提高验证和测试准确性。

我的代码

train_src = "/content/drive/MyDrive/Affectnet/train_class/"
val_src = "/content/drive/MyDrive/Affectnet/val_class/"
test_src="/content/drive/MyDrive/Affectnet/test_classs/"

train_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
      rescale=1./255, 
      shear_range=0.2,
      zoom_range=0.2,
      horizontal_flip=True,
    
      )

train_generator = train_datagen.flow_from_directory(
        train_src,
        target_size=(224,224 ),
        batch_size=32,
        class_mode='categorical',
        shuffle=True
        )

validation_datagen = tensorflow.keras.preprocessing.image.ImageDataGenerator(
        rescale=1./255
        )

validation_generator = validation_datagen.flow_from_directory(
        val_src,
        target_size=(224, 224),
        batch_size=32,
        class_mode='categorical',
        shuffle=True
        )
conv_base = tensorflow.keras.applications.VGG16(weights='imagenet',
                  include_top=False,
                  input_shape=(224, 224, 3)
                  )
for layer in conv_base.layers:
  layer.trainable = False

model = tensorflow.keras.models.Sequential()

# VGG16 is added as convolutional layer.
model.add(conv_base)

# Layers are converted from matrices to a vector.
model.add(tensorflow.keras.layers.Flatten())

# Our neural layer is added.
model.add(tensorflow.keras.layers.Dropout(0.5))
model.add(tensorflow.keras.layers.Dense(256, activation='relu'))

model.add(tensorflow.keras.layers.Dense(4, activation='softmax'))

model.compile(loss='categorical_crossentropy',
              optimizer=tensorflow.keras.optimizers.Adam(lr=1e-5),
              metrics=['acc'])
history = model.fit_generator(
      train_generator,
      epochs=50,
      steps_per_epoch=100,
      validation_data=validation_generator,
      validation_steps=5,
      workers=8
      )

损失和准确性

python tensorflow machine-learning keras conv-neural-network
1个回答
5
投票

有几件事。对于训练集,你说你有 16,0000 张图像。然而,如果批量大小为 32,steps_per_epoch= 100,那么对于任何给定的 epoch,您只能在 3,200 张图像上进行训练。同样,您有 2000 个验证图像,但批量大小为 32 且validation_steps = 5,您仅在 5 X 32 = 160 个图像上进行验证。 现在 Vgg 是一个不错的模型,但我不使用它,因为它非常大,这会显着增加训练时间,而且还有其他用于迁移学习的模型更小,甚至更准确。我建议你尝试使用EfficientNetB3。使用代码

conv_base = tensorflow.keras.applications.EfficientNetB3(weights='imagenet',
                  include_top=False,
                  input_shape=(224, 224, 3)
                  pooling='max'
                  )

使用 pooling='max' 可以消除 Flatten 层。此外,EfficientNet 模型期望像素范围为 0 到 255,因此请删除生成器中的 rescale=1/255。 接下来要做的就是使用可调整的学习率。这可以使用 Keras 回调来完成。相关文档位于here。 您想要使用ReduceLROnPlateau 回调。相关文档位于 here。 设置它来监控验证丢失。我建议的代码如下

rlronp=tf.keras.callbacks.ReduceLROnPlateau(monitor="val_loss",factor=0.5,
                                            patience=1, verbose=1)

我还建议您使用回调 EarlyStopping。相关文档位于here。。我推荐的代码如下所示

estop=tf.keras.callbacks.EarlyStopping( monitor="val_loss", patience=4, verbose=1,
                                        restore_best_weights=True)

现在在 model.fit 中包括

callbacks=[rlronp, estop]

将学习率设置为 0.001。设置纪元 = 50。如果被触发,estop 回调将返回您的模型,该模型加载了验证损失最低的时期的权重。我注意到你有代码

for layer in conv_base.layers:
  layer.trainable = False

我知道教程告诉你这样做,但我得到了更好的结果,使其可训练,并且我已经在数百个模型上做到了这一点。

© www.soinside.com 2019 - 2024. All rights reserved.