我一直在按照这里有用的示例在健身房中创建一个自定义环境,然后我想在 rllib 中进行训练。
我的环境有一些我想在训练时选择的可选参数。我认为代码的相关部分在train.py
这里:
# start Ray -- add `local_mode=True` here for debugging
ray.init(ignore_reinit_error=True)
# register the custom environment
select_env = "example-v0"
register_env(select_env, lambda config: Example_v0())
我尝试了一些明显的东西,比如
register_env(select_env, lambda config: Example_v0(optional_arg=n))
但似乎没有任何效果。有没有办法在训练之前传递不同的论点?