1

我正在尝试使用 RLlib 设置一个自定义的多代理环境,但是我正在使用曾经在线可用的环境,或者我正在制作一个,我遇到了与下面提到的相同的错误。请帮帮我。我已经安装了他们在步骤 (a) 中向我提出的任何要求我正在使用注册我的环境

def env_creator(env_config):
    return SimpleCorridor(env_config)

register_env("corridor", env_creator)


if __name__ == "__main__":
    ray.shutdown()
    ray.init()
    tune.run(
        "PPO",
        stop={
            "timesteps_total": 10000,
        },
        config={
            "env": "corridor", # <--- This works fine!
            "env_config": {
                "corridor_length": 5,
            },
        },
    )


(pid=266728) Try one of the following:
(pid=266728) a) For Atari support: `pip install gym[atari] atari_py`.
(pid=266728)    For VizDoom support: Install VizDoom
(pid=266728)    (https://github.com/mwydmuch/ViZDoom/blob/master/doc/Building.md) and
(pid=266728)    `pip install vizdoomgym`.
(pid=266728)    For PyBullet support: `pip install pybullet`.
(pid=266728) b) To register your custom env, do `from ray import tune;
(pid=266728)    tune.register('[name]', lambda cfg: [return env obj from here using cfg])`.
(pid=266728)    Then in your config, do `config['env'] = [name]`.
(pid=266728) c) Make sure you provide a fully qualified classpath, e.g.:
(pid=266728)    `ray.rllib.examples.env.repeat_after_me_env.RepeatAfterMeEnv`

还有什么我应该照顾的吗?这只是我看到的示例中的一个基本环境。甚至我正在定制的环境也面临着同样的问题。我已将观察空间初始化为元组,因此我无法使用稳定的基线进行评估。

请帮帮我。

4

0 回答 0