问题标签 [openai-gym]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
4 回答
10317 浏览

reinforcement-learning - 用于多智能体游戏的 Openai 健身房环境

是否可以将openai健身房环境用于多智能体游戏?具体来说,我想模拟一个有四个玩家(代理人)的纸牌游戏。得分一回合的玩家开始下一回合。我将如何模拟玩家之间的必要协调(例如下一个轮到谁)?最终,我想在四个相互对抗的代理上使用强化学习。

0 投票
2 回答
2188 浏览

deep-learning - OpenAI 健身房:如何获取 ATARI 环境的完整列表

我已经安装了 OpenAIgym和 ATARI 环境。我知道我可以在文档中找到所有的 ATARI 游戏,但是有没有办法在 Python 中做到这一点,而无需打印任何其他环境(例如,不是经典的控制环境)

0 投票
1 回答
24499 浏览

reinforcement-learning - OpenAI Gym:理解 `action_space` 符号(spaces.Box)

我想在 OpenAICarRacing-v0环境中设置一个 RL 代理,但在此之前我想了解操作空间。在github第 119 行的代码中说:

我如何阅读这一行?虽然我的问题是具体的,但CarRacing-v0我想spaces.Box()总体上理解这个符号

0 投票
2 回答
1023 浏览

openai-gym - 为什么 OpenAI Gym Atari 在渲染时会给出错误的观察结果?

截屏

这是env.render()屏幕上的输出,环境是 SpaceInvader-v0。

我在这里做错了吗?我的代码就在 OpenAI Gym 网站上,只是改变了环境。

0 投票
1 回答
139 浏览

tensorflow - TensorFlow 创建 Ai,错误:您必须为占位符张量“input_1/X”提供一个值

我目前正在为 openai 开发 AI,我正在尝试传递收集到的随机数据以制作神经网络模型,然后使用该模型创建新数据。当我尝试使用新的训练数据制作另一个模型时,它不会让 e 创建一个新模型并给出一个

我的代码:

错误:

0 投票
1 回答
9172 浏览

keras - 如何在 keras-rl / OpenAI GYM 中实现自定义环境?

我是强化学习的新手,一直在寻找一个框架/模块来轻松驾驭这个险恶的地形。在我的搜索中,我遇到了两个模块 keras-rl 和 OpenAI GYM。

我可以让他们两个都在他们在 WIKI 上共享的示例上工作,但是它们带有预定义的环境,并且很少或根本没有关于如何设置我自己的自定义环境的信息。

如果有人能给我指点教程或只是向我解释如何设置非游戏环境,我将非常感激?

0 投票
1 回答
762 浏览

deep-learning - OpenAI健身房keyboard_agent.py:如何重启?

我想用keyboard_agent.py来玩Breakout-v0。当我启动环境时:

比赛开始了,我可以打第一轮没问题。但是我不能让它重新启动!

在我们的代码中:

我无法上班。谷歌告诉我0xff0dFULLWIDTH HYPHEN-MINUS. 我做错了什么,或者我该如何制作这个角色?

0 投票
1 回答
1428 浏览

openai-gym - OpenAI 健身房的 breakout-v0 “暂停”

在 OpenAI 健身房环境中训练时,我认为环境有时会“停止”。对于连续的许多帧,没有球可见/停止生成。

这是健身房环境中的错误吗?这是游戏 Breakout-v0 的一部分吗?

我还想知道 Breakout-v0 中可能的操作是什么。我想出了什么:

0 - 什么都不做/静止不动?

1 - 什么都不做/静止不动?

2 - 向右施加“力”?

3 - 向左施加“力”?

编辑:对于想知道我在说什么的人:看这个 gif:http: //imgur.com/a/pBLGX 5 和 4 生命之间的过渡需要很多帧......有时休息时间甚至比这更长...

0 投票
0 回答
281 浏览

reinforcement-learning - OpenAI Gym CartPole-v0 第 200 步中断对代理不公平吗?

这个 OpenAI环境只为智能体提供位置和速度,因此智能体无法区分开始时的良好状态(直立杆,低速)应该具有高值和靠近附近的良好状态(直立杆,低速) end(第 200 步),令代理感到恐惧和困惑的是,由于环境即将关闭,实际上预期奖励非常低。

我想知道这会对常见的强化算法产生多大的影响。

附言

我已经在我的(非常简单的)DQN 算法中实现了体验重放,看起来,在训练中忽略时间大于 150 的步骤实际上效果更好。但是,算法的性能非常嘈杂,因此我需要对此进行更多实验。

另外,我偶然发现了这个环境,这似乎与问题有关。安全(在“回形针最大化”意义上)人工智能应该对关闭无动于衷。

0 投票
1 回答
676 浏览

python - 安装 OpenAI 的健身房时遇到问题

我想安装整个Open AI gym包。之后 (我在 Mac 上) brew install cmakesudo pip install gym[all]给我以下错误

在此处输入图像描述

我正在使用 anaconda 4.3.22。我不在conda 虚拟环境中。which python输出/anaconda/bin/python。anaconda 使用的解释器是 python 3.6.1。只是运行sudo pip gym(必须是最小版本)运行良好。

谢谢您的帮助。