openai-gym 相关问题

OpenAI Gym是一个强化学习研究平台,旨在为各种环境提供通用智能基准。

导入环境OpenAI Gym出错

我正在尝试运行 OpenAI Gym 环境,但是出现以下错误: 进口健身房 env = gym.make('Breakout-v0') 错误 /Library/Frameworks/Python.framework/Versions/3.8/lib/python3.8/site-

回答 6 投票 0

在 google coolab 上安装健身房:元数据生成失败

我正在尝试在 Google Colab 笔记本上安装健身房,但是,我不断收到以下错误。我该如何解决? 谷歌协作代码 错误信息 我已经尝试了一切,我无法做到......

回答 2 投票 0

OpenAI DQN 运行时错误我该如何解决?

我正在学习强化学习,我想实施 Q-Network 来解决 OpenAI Taxi 环境问题。我在网上找到了这段代码,我正在尝试运行代码,但出现错误。贝尔...

回答 1 投票 0

使用pygame渲染自上而下护理模拟的自定义openAI健身房环境,其中相机跟随汽车

我正在尝试构建自定义 OpenAI Gym 环境。为此,我正在使用 Pygame 编写渲染函数。在我的环境中,我想想象一辆由加固李尔控制的汽车......

回答 0 投票 0

使用keras和openai gym的深度强化学习项目中的多个错误

我已经从有关深度 q-learning 的源代码中复制了代码以尝试从中学习,但它是一个较旧的源代码,因此 keras 和 openai gym 都有很多问题。我试过了

回答 0 投票 0

在车杆问题中运行 q 学习后 Q_table 没有更新

我尝试使用 Q-learning 算法解决车杆问题。然而,在实施和执行算法之后,q-table 与执行程序之前相同。应该...

回答 0 投票 0

为什么我的 PPO 和 DQN 每集的平均奖励会随着时间的推移而减少?

我正在训练一个 RL 智能体来优化作业车间制造系统中的调度。我的方法基于以下代码:https://github.com/AndreasKuhnle/SimRLFab。它将环境迁移到

回答 0 投票 0

为什么我的 RL 训练代码会引发 OSerror:handle is closed

我在这里附上我的代码 定义火车(选择): 如果 torch.cuda.is_available(): 火炬.cuda.manual_seed(123) 别的: 火炬.manual_seed(123) 如果 os.path.isdir(opt.log_path):

回答 0 投票 0

OpenAI 健身房环境 pygame 渲染窗口在 MacOS 上使用 Jupyter Notebook Python3.9 Pygame 2.1.3 不响应

当我尝试渲染 openAI gym 环境时,渲染窗口无法正常退出。弹出一个窗口,它成功显示了运动但是当步骤完成时,窗口显示 &...

回答 0 投票 0

A2C 和 stable_baselines3

我正在尝试使用 GitHub (https://github.com/nicknochnack/Reinforcement-Learning-for-Trading-Custom-Signals/blob/main/Custom%20Signals.ipynb) 中的代码第 3 点: 模型 = A2C('

回答 1 投票 0

DQN, TF, nested spcaes.Dict : 如何处理可变大小的观察空间?

我对 RL 和 DQN 很陌生。并尝试为我的问题陈述编写代理程序。我正在使用 Replay Buffer 概念并尝试学习手动编写此代理的代码。我的观察空间是Dictio...

回答 2 投票 0

使用稳定基线的模仿学习预训练模型3

我一直在尝试找出一种使用 Stable-baselines3 预训练模型的方法。 在 Stable-baseline(在 Tensorflow 1.X 上运行的版本)的原始文档中,这似乎是...

回答 1 投票 0

使用keras RL搭建agent玩太空侵略者,遇到“AttributeError: 'int' object has no attribute 'shape'”错误

正如标题所说,在按照教程使用 keras RL 制作强化学习代理时,我一直遇到错误。其代码如下: 进口健身房 随机导入 进口新...

回答 1 投票 0

将 Mujoco 环境重置为给定状态

目标: 例如,对于 mujoco 环境(我正在使用 Metaworld)——“Sweep-into”,我想这样做: 重置环境: 采取一些行动... sim_state = 保存当前状态 来点

回答 1 投票 0

gym env.render() 第 N 步

我正在使用 gym==0.26.0,我试图让我的环境只在第 N 步渲染。这样我的 nn 就可以快速学习,但我也可以看到图像的一些进步,而不仅仅是 rew...

回答 1 投票 0

Gym环境动作空间定义

我有以下情况: 我的代理应该在每个步骤中执行以下三个操作之一: 不下单 下达指定连续交易量的市价订单 以指定的连续...下限价订单

回答 0 投票 0

健身房:无法设置观察空间

我正在尝试在 gym-duckietown 的 Gym 环境中训练强化学习代理。我一直在使用他们的 github 存储库中的模板实现时遇到问题。 那个

回答 0 投票 0

Cartpole 健身房环境的 PPO 算法中的属性错误

我正在尝试从这里运行代码(此页面上的 Github 链接):https://keras.io/examples/rl/ppo_cartpole/ 我在训练部分从 observation = observation.res 得到一个属性错误...

回答 1 投票 0

Stable Baselines 3:默认参数

我正在使用来自 Stablebaselines3 的 PPO 和 A2C 算法与 openai-gym 运行一些模拟。 我知道我可以自定义所有这些,但我想知道哪些是默认参数。 规格...

回答 1 投票 0

将Cpp代码与Python集成的最佳方法

我准备做一个机器人模拟器。除了控制器部分,模拟器大部分是用Python做的。控制器是用Cpp制作的。对于每个时间步,在模拟器中,机器人模型发送它的状态(电机...

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.