Tensorflow model.evaluate 给出的结果与训练获得的结果不同

问题描述 投票:0回答:2

我正在使用张量流进行多类分类

我通过以下方式加载训练数据集和验证数据集

train_ds = tf.keras.preprocessing.image_dataset_from_directory(
  data_dir,
  validation_split=0.2,
  subset="training",
  shuffle=True,
  seed=123,
  image_size=(img_height, img_width),
  batch_size=batch_size)

val_ds = tf.keras.preprocessing.image_dataset_from_directory(
  data_dir,
  validation_split=0.2,
  subset="validation",
  shuffle=True,
  seed=123,
  image_size=(img_height, img_width),
  batch_size=batch_size)

然后当我使用 model.fit() 训练模型时

history = model.fit(
  train_ds,
  validation_data=val_ds,
  epochs=epochs,
  shuffle=True
)

我的验证准确率约为 95%。

但是当我加载相同的验证集并使用 model.evaluate() 时

model.evaluate(val_ds)

我的准确率非常低(大约 10%)。

为什么我会得到如此不同的结果?我是否错误地使用了 model.evaluate 函数?

注意:在 model.compile() 中,我指定了以下内容, 优化器 - Adam, 损失 - 稀疏分类交叉熵, 公制 - 准确度

Model.evaluate() 输出

41/41 [==============================] - 5s 118ms/step - loss: 0.3037 - accuracy: 0.1032
Test Loss -  0.3036555051803589
Test Acc -  0.10315627604722977

最后三个时期的 Model.fit() 输出

Epoch 8/10
41/41 [==============================] - 3s 80ms/step - loss: 0.6094 - accuracy: 0.8861 - val_loss: 0.4489 - val_accuracy: 0.9483
Epoch 9/10
41/41 [==============================] - 3s 80ms/step - loss: 0.5377 - accuracy: 0.8953 - val_loss: 0.3868 - val_accuracy: 0.9554
Epoch 10/10
41/41 [==============================] - 3s 80ms/step - loss: 0.4663 - accuracy: 0.9092 - val_loss: 0.3404 - val_accuracy: 0.9590
python tensorflow machine-learning keras
2个回答
0
投票

尝试将模型保存为

.h5
而不是
.tf
- 这在 Keras 2.4.0 和 TensorFlow 2.4.0 中对我有用


-1
投票

我认为是过度拟合导致了这个问题。你可以通过这种方式查看!


  1. 提取模型历史记录

    history_dict = history.history
    history_dict.keys()
    
  2. 可视化历史

    import matplotlib.pyplot as plt    
    acc=history_dict['accuracy']
    val_acc=history_dict['val_accuracy']
    loss=history_dict['loss']
    val_loss=history_dict['val_loss']
    
    epochs=range(1,len(acc)+1)    
    plt.figure(figsize=(10,10))
    
    ax1=plt.subplot(221)
    ax1.plot(epochs,loss,'bo',label='Training loss')
    ax1.plot(epochs,acc,'ro',label='Training acc')
    ax1.set_title('loss and acc of Training')
    ax1.set_xlabel('Epochs')
    ax1.set_ylabel('Loss')
    ax1.legend()
    
    ax2=plt.subplot(222)
    ax2.plot(epochs,val_acc,'r',label='Validation acc')
    ax2.plot(epochs,val_loss,'b',label='Validation loss')
    ax2.set_title('loss and acc of Training')
    ax2.set_xlabel('Epochs')
    ax2.set_ylabel('Acc')
    ax2.legend()
    

也许,你得到的结果是这样的:

  • 训练过程中,acc和loss随着epoch的变化而变化
  • 但在验证中,acc和loss似乎在20个epoch后达到峰值

解决方案

事实证明,当发生过拟合时,可以设置更少的epoch来避免这个问题!

© www.soinside.com 2019 - 2024. All rights reserved.