0

我一直在按照这里有用的示例在健身房中创建一个自定义环境,然后我想在 rllib 中进行训练。

我的环境有一些我想在训练时选择的可选参数。我认为代码的相关部分在train.py这里:

    # start Ray -- add `local_mode=True` here for debugging
    ray.init(ignore_reinit_error=True)

    # register the custom environment
    select_env = "example-v0"
    register_env(select_env, lambda config: Example_v0())

我尝试了一些明显的东西,比如

    register_env(select_env, lambda config: Example_v0(optional_arg=n))

但似乎没有任何效果。有没有办法在训练之前传递不同的论点?

4

1 回答 1

0

我认为你应该在构造函数中使用 env_config 然后传递字典 env_config = {'optional_arg': n}

于 2021-10-28T14:05:00.440 回答