如果Action是多维的,强化学习中如何通过梯度法更新策略?

问题描述 投票:0回答:1

如果Action是多维度的,如何实现策略更新? $J$ 于

$$ abla_ heta J( heta) $$

是多维的?

我还想知道一个具体的Python代码,用神经网络建模的参数来更新多维策略。

我对强化学习的投资组合优化非常感兴趣。 我遇到了这个处理与投资组合权重相对应的多维行动的问题。

我在下面学习了强化的蒙特卡罗策略梯度定理。 $ abla_ heta J( heta) pprox rac{1}{N} \sum_{i=1}^{N} \sum_{t=0}^{T-1} abla_ heta \log \pi_ heta(a_t^i \mid s_t^i) R( au^i)$

python deep-learning reinforcement-learning dqn
1个回答
0
投票

处理多维动作需要扩展标准策略梯度方法来处理动作空间的多维性质。

对于多维动作,策略网络输出动作概率或参数的向量(例如多元正态分布的均值和方差)。

尝试询问 GPT 4.0 如果您只需要快速代码示例👍

© www.soinside.com 2019 - 2024. All rights reserved.