如何在Flux Julia中调整优化器的学习率

问题描述 投票:0回答:1

如前所述,我试图为我的神经网络实施学习率衰减。我将模型设置如下:

nn = Chain(Dense(10,5),Dense(5,1))
opt = Adam(0.01)
opt_state = setup(opt, nn)

我尝试直接从

opt_state
调整学习率。然后我发现
Optimisers.Adam
opt_state
中的一个不可变结构,但是如果我在
eta
中更改
opt
它工作正常。

opt_state.layers[1][:weight].rule.eta = 0.001 # ERROR: setfield!: immutable struct of type Adam cannot be changed
opt.eta = 0.001 # no error

此外,像这样访问学习率看起来不太好。是否可以在不设置新的

opt
的情况下修改
opt_state
的学习率?

deep-learning julia flux
1个回答
0
投票

你正在寻找这里描述的

adjust!(opt_state, 0.001)
https://fluxml.ai/Optimisers.jl/dev/#Adjusting-Hyperparameters

© www.soinside.com 2019 - 2024. All rights reserved.