训练和验证曲线 - 是过度拟合还是拟合良好? [已关闭]

问题描述 投票:0回答:1

Training Vs Validation curve训练损失和验证损失正在收敛,但损失正在接近 0

我预计验证损失应该大于训练损失

  • 我没有使用dropout
  • 这是我的模型网络
model = Sequential()

model.add(LSTM(50, input_shape=(1, look_back)))
model.add(Dense(1))

optimizer = Adam(learning_rate=0.001)
python machine-learning deep-learning lstm overfitting-underfitting
1个回答
0
投票

在没有任何其他信息的情况下,这实际上看起来非常适合我。

如果模型过度拟合,训练损失将随着额外的 epoch 继续减少,而验证损失将开始再次增加。

然而,你的图表表明训练损失和验证损失收敛到相同,并且保持在接近 0 的非常低的水平。因此,我个人认为这是一个非常好的拟合水平。

不过,超过 4 或 5 个 epoch 的训练看起来确实没有任何实质性好处。您的图表似乎显示了从 5 开始,两者的损失数字保持完全相同,即使它上升到 9。

出于兴趣,您的模型在测试数据集与训练数据集上获得了什么样的预测精度(RMSE/散点指数)?这可能会更好地了解您的模型是否过度拟合。

© www.soinside.com 2019 - 2024. All rights reserved.