2

我正在使用 ray.rllib,我坚持使用静态方法 (line40)对我的自定义环境进行矢量化并使用 PPOTrainer() 对其进行训练。我使用existing_envs参数并交出我手动创建的 gym.envs 列表。是否有任何选项可以在 PPOTrainer() 中传递 vec 环境,有人可以帮我解决这个问题吗?

简而言之:当我使用静态方法 (line40)创建矢量化环境时,如何使用 ray.rllib 训练 PPO 。

4

0 回答 0