LSTM算法在神经网络中的一个问题是控制长时记忆强度的问题。事实上,LSTM 试图将以前的信息存储在其记忆中,而这会导致长期记忆的强度随着输入数据量的增加而随时间增加,从而降低模型的性能。你能提出一个好的解决方案吗?
以下是一些可以帮助您的提示:
使用更高级的 LSTM 变体,例如门控循环单元 (GRU) 或变压器。这些也可以帮助改善 模型的性能和长期控制强度 记忆。
使用正则化和提前停止等技术来改进
模型的性能和长期控制强度
记忆。
另一种方法是使用dropout和batch等技术
归一化。
调整超参数也非常有用。