我在小麦的 RGB 图像上使用了 2 个模型,将它们分为 107 个类别。我使用的预训练模型是 Resnet-101 、 EffecientNet_v2_l 。这两个模型都严重过度拟合。
Resnet:TrainAcc = 92% Val Acc:84% 有效网络:TrainAcc = 89% ValAcc:76%
我还有与种子的每个 RGB 图像相对应的 HSI 图像。为此,我使用了 XceptionNet 的架构并从头开始训练它。
Xception:TrainAcc = 97% ValAcc:58%
请告诉我如何克服这种类型的过度拟合,我真的很想知道为什么几乎完全准确的 XceptionNet 表现却如此糟糕
提前致谢!
我尝试了各种方法,例如降低学习率,增加dropout,但都失败了。
首先,您可以降低优化器的学习率值。此外,还有一些改进训练的建议。它们只是一些输入:
patience
值设置为 10 epoch。