我正在使用Keras的ModelCheckpoint
回调:
checkpointer = ModelCheckpoint(filepath= model_filepath,
verbose=1,
save_best_only=True)
我无法一步一步训练模型,因此我必须多次保存/加载模型并继续训练以改进模型。但是,当我加载模型并恢复训练时,当[[first纪元结束时,由于val_loss从inf更改为某个值(例如0.23),模型将被[[always覆盖。但是我在训练模型的时间[上一个最佳val_loss为0.19(0.19 <0.23 =>先前的模型仍然是最佳=>先前的模型应该not 被覆盖)。如何告诉Keras:请在我训练模型的上一个
时间内考虑上一个最佳值],并停止这种错误行为。我正在使用Keras的ModelCheckpoint回调:checkpointer = ModelCheckpoint(filepath = model_filepath,verbose = 1,...