我正在尝试使用 RLlib 设置一个自定义的多代理环境,但是我正在使用曾经在线可用的环境,或者我正在制作一个,我遇到了与下面提到的相同的错误。请帮帮我。我已经安装了他们在步骤 (a) 中向我提出的任何要求我正在使用注册我的环境
def env_creator(env_config):
return SimpleCorridor(env_config)
register_env("corridor", env_creator)
if __name__ == "__main__":
ray.shutdown()
ray.init()
tune.run(
"PPO",
stop={
"timesteps_total": 10000,
},
config={
"env": "corridor", # <--- This works fine!
"env_config": {
"corridor_length": 5,
},
},
)
(pid=266728) Try one of the following:
(pid=266728) a) For Atari support: `pip install gym[atari] atari_py`.
(pid=266728) For VizDoom support: Install VizDoom
(pid=266728) (https://github.com/mwydmuch/ViZDoom/blob/master/doc/Building.md) and
(pid=266728) `pip install vizdoomgym`.
(pid=266728) For PyBullet support: `pip install pybullet`.
(pid=266728) b) To register your custom env, do `from ray import tune;
(pid=266728) tune.register('[name]', lambda cfg: [return env obj from here using cfg])`.
(pid=266728) Then in your config, do `config['env'] = [name]`.
(pid=266728) c) Make sure you provide a fully qualified classpath, e.g.:
(pid=266728) `ray.rllib.examples.env.repeat_after_me_env.RepeatAfterMeEnv`
还有什么我应该照顾的吗?这只是我看到的示例中的一个基本环境。甚至我正在定制的环境也面临着同样的问题。我已将观察空间初始化为元组,因此我无法使用稳定的基线进行评估。
请帮帮我。