我预计验证损失应该大于训练损失
model = Sequential()
model.add(LSTM(50, input_shape=(1, look_back)))
model.add(Dense(1))
optimizer = Adam(learning_rate=0.001)
在没有任何其他信息的情况下,这实际上看起来非常适合我。
如果模型过度拟合,训练损失将随着额外的 epoch 继续减少,而验证损失将开始再次增加。
然而,你的图表表明训练损失和验证损失收敛到相同,并且保持在接近 0 的非常低的水平。因此,我个人认为这是一个非常好的拟合水平。
不过,超过 4 或 5 个 epoch 的训练看起来确实没有任何实质性好处。您的图表似乎显示了从 5 开始,两者的损失数字保持完全相同,即使它上升到 9。
出于兴趣,您的模型在测试数据集与训练数据集上获得了什么样的预测精度(RMSE/散点指数)?这可能会更好地了解您的模型是否过度拟合。