在Flux中使用回调进行训练时的记录损失。

问题描述 投票:1回答:1

我想写一个回调的 train! 我的代码是:Flux.function。

cb_loss = x -> push!(x, loss(x_train, y_train))
loss_vector = Vector{Float32}()

Flux.train!(loss, ps, train_data, opt, cb=cb_loss(loss_vector))

它给了我这个错误。

MethodError: objects of type Float32 are not callable

Stacktrace:
 [1] call(::Float32) at C:\Users\arjur\.julia\packages\Flux\Fj3bt\src\optimise\train.jl:36
 [2] foreach at .\abstractarray.jl:1920 [inlined]
 [3] #10 at C:\Users\arjur\.julia\packages\Flux\Fj3bt\src\optimise\train.jl:38 [inlined]
 [4] macro expansion at C:\Users\arjur\.julia\packages\Flux\Fj3bt\src\optimise\train.jl:93 [inlined]
 [5] macro expansion at C:\Users\arjur\.julia\packages\Juno\oLB1d\src\progress.jl:134 [inlined]
 [6] #train!#12(::Array{Float32,1}, ::typeof(Flux.Optimise.train!), ::typeof(loss), ::Zygote.Params, ::DataLoader, ::Descent) at C:\Users\arjur\.julia\packages\Flux\Fj3bt\src\optimise\train.jl:81
 [7] (::Flux.Optimise.var"#kw##train!")(::NamedTuple{(:cb,),Tuple{Array{Float32,1}}}, ::typeof(Flux.Optimise.train!), ::Function, ::Zygote.Params, ::DataLoader, ::Descent) at .\none:0
 [8] top-level scope at In[108]:1

有趣的是,它正确地将第一个值添加到向量中,然后就崩溃了 所以我猜测这个错误信息与此有关。

我检查了函数外的 train! 函数,并且它可以工作,那么我应该如何重写这个函数来记录向量中的损失?

machine-learning deep-learning julia
1个回答
0
投票

看来你需要这样传递。cb=callback. 所以可以使用全局变量或者像这样定义回调。

callback() = push!(loss_vector, loss(x_train, y_train))
© www.soinside.com 2019 - 2024. All rights reserved.