2

我是强化学习的新手。最近,我一直在尝试训练一个 Deep Q 网络来解决 OpenAI 健身房的 CartPole-v0 问题,其中解决意味着在 100 个连续剧集中达到至少 195.0 的平均分数。

我正在使用 2 层神经网络,使用包含 100 万次体验的内存进行体验重放、epsilon 贪婪策略、RMSProp 优化器和 Huber 损失函数。

使用此设置,解决任务需要数千集 (> 30k)。学习有时也很不稳定。那么,Deep Q 网络在学习这样的任务时出现波动并花这么长时间学习这样的任务是正常的吗?还有哪些其他替代方案(或对我的 DQN 的改进)可以提供更好的结果?

4

1 回答 1

2

还有哪些其他替代方案(或对我的 DQN 的改进)可以提供更好的结果?

以我的经验,策略梯度与cartpole 配合得很好。而且,它们相当容易实现(如果你眯着眼睛,策略梯度几乎看起来像监督学习)。

一个很好的起点: http: //kvfrans.com/simple-algoritms-for-solving-cartpole/

于 2017-10-25T12:25:00.460 回答