openai-gym 相关问题

OpenAI Gym是一个强化学习研究平台,旨在为各种环境提供通用智能基准。

尝试导入环境 OpenAI Gym 时出错

我正在尝试运行 OpenAI Gym 环境: env = gym.make("ALE/Breakout-v5", render_mode="rgb_array") 但我收到以下错误 追溯(最近一次通话): 文件...

回答 1 投票 0

Jupyter notebook 内核在运行 gym env.render() (MacOS) 时死机

编辑:当我删除 render_mode="rgb_array" 它工作正常。但这显然不是真正的解决方案。 我正在尝试在 Jupyter notebook 中运行游戏渲染,但每次运行它时我都会...

回答 0 投票 0

无法使用 OpenAI Gym 的 RecordVideo 包装器保存剧集视频

我正在尝试使用 RecordVideo 包装器保存代理与其环境交互的视频。我无法让它与 render_mode as rgb_array 或 rgb_array_...一起工作

回答 0 投票 0

Open AI Gym, Agent 不按照冰湖模拟中的指定动作

我有一个 agent 在 Open AI Gym 的 Frozen Lake 模拟上受过训练。根据 Frozen Lake 代码,我看到操作对应于以下数字: 左 = 0 向下 = 1 右 = 2 向上 = 3...

回答 0 投票 0

RL 与 ns3-gym 进行模糊测试

有没有办法使用ns3-gym进行模糊测试? ns3-gym 用于网络,但最近人们也将其用于认知无线电和其他用途。我正在尝试使用 RL 来改进代码

回答 0 投票 0

ns3-gym 用于模糊测试

有没有办法使用ns3-gym进行模糊测试?这用于网络,但最近人们也将其用于认知无线电和其他用途。我正在尝试使用 RL 来改进代码 cov...

回答 0 投票 0

我不能从健身房换到健身房

我正在尝试测试使用 Gym 完成的代码,但我收到了很多警告。 代码在这里: 但我已经改变了一些东西,我现在是这样的: 现在我可以为环境充电...

回答 1 投票 0

tf_agents 使用 actor 重置环境

我正在尝试了解如何在 tf_agents 中使用 Actor 类。我正在使用 DDPG(演员评论家,尽管这并不重要)。我也在学习健身套餐,虽然这又是......

回答 0 投票 0

尝试从 OpenAi 健身包获取动作空间时出现 AttributeError

我正在尝试为益智游戏 baba is you 的 python 导入构建强化学习模型。 当我尝试用 gym 创建一个环境并调用 action_space() 方法时,我得到以下错误...

回答 0 投票 0

Exception has occurred: ValueError too many values to unpack (expected 2)line 13

我收到一条错误消息: 发生异常:ValueError 太多值无法解包(预期 2) 文件“D:\Game Developlment\AI\Learning\Pong ai NEAT\mainTutorial.py”,第 13 行,在<

回答 1 投票 0

OpenAI Gym 中的 NormalizeObservation

作为 OpenAI gymnasium 的初学者,我的目标是从头开始构建 SAC,并用它来训练代理解决 Bipedalwalker 问题。为了对 SAC 有一个平衡的输入,我想标准化 actio...

回答 0 投票 0

如何提高Deep Q Learning Network在Mountain Car问题上的表现?

我正在解决一些 OpenAI Gym 问题,似乎被 Mountain Car 难倒了。我知道我的 Deep Q-Learning 代理正在工作,因为它可以可靠地学习在...上获得 200+ 分

回答 1 投票 0

如何提高这个深度 Q 学习网络在 OpenAI Gym Lunar Lander 问题 (PyTorch) 上的性能?

我正在解决一些 OpenAI Gym 问题,似乎被 Lunar Lander 难倒了。我的 Deep Q-Learning agent 似乎在工作,但正在努力生成一个可以 rel...

回答 0 投票 0

tf_agents 改变底层奖励函数

我正在尝试从 suite_gym() 修改 MountainCarContinuous-v0 环境,但它陷入了局部最小值,因为奖励函数会惩罚

回答 0 投票 0

Lunar Lander-v2 中使用 RL 算法 PPO 的问题

在算法 PPO 中,需要计算一个比率 ratios = torch.exp(new_probs-old_probs) 这是当前策略下动作的概率除以概率之间的比率 ...

回答 1 投票 0

OpenAI Gym 中的多重处理与绳降

我正在使用 abseil 库在 OpenAI Gym 中进行多处理。基本上,gym.make 似乎有效。但是,我正在尝试使用不起作用的 gym-super-mario-bros。下面是一个

回答 0 投票 0

使用带 RLLib 的 LSTM 模型训练 A3C 代理时出错

我正在使用 RLLib 训练一个 A3C 代理,我的观察是二维的(时间步长,特征),所以我的第一层应该是一个 LSTM,然后是另一个 LSTM,然后是一个完全连接的层,最后一个 l...

回答 0 投票 0

OpenAI gym 自定义环境 Ray ray.rllib actor 因创建任务中出现错误而死亡。为什么会这样

我正在使用作为 Gym 和 ray[rllib] 导入的 OpenAI 体育馆 Python 版本 3.9(谷歌协作) enter image description here 自定义环境的快照,它引用了这个 github 链接 h...

回答 0 投票 0

(过时)健身房不通过教程注册环境

注意到我之前的问题,我正计划使用 gym 来使用稳定基线,因为 Gymnasium 尚不支持。 我首先尝试用...替换体育馆相关的所有内容

回答 0 投票 0

PPO算法的学习函数显示错误

我正在尝试使用 OpenAI gym 的 CarRacing-v2 来使用 PPO 算法训练汽车 导入操作系统 进口健身房 从 stable_baselines3 导入 PPO 从 stable_baselines3.common.vec_env 导入 DummyVecEnv ...

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.