对于连续动作空间,是否有任何符合 OpenAI Gym 的接口实现?如果是这样,它是否支持多代理环境?我正在研究多代理 DDPG 实施,但我找不到合适的基线环境。
问问题
534 次
1 回答
0
健身房中的多智能体强化学习
OpenAI Gym 没有为 Multi-Agent RL 环境提供一个很好的界面,但是,通过拥有
env.step(action_n: List) -> observation_n: List
获取与每个代理对应的动作列表并输出观察列表,每个代理一个。
如果您正在重新实现 MADDPG,您还可以使用Ryan Lowe 自己提供的多智能体粒子环境的实现。
当然,重新实现环境不会有什么坏处。
连续动作空间
在多智能体粒子环境的链接实现中,您可以通过将这行代码更改为 False 将动作空间的类型从离散更改为连续。
但是,之前尝试过这个,我可以告诉你,这会导致 MADDPG 的性能变差。
于 2020-02-11T22:07:12.610 回答