我正在使用基于 rglue 的python-rl框架进行 q-learning。我的理解是,随着剧集的数量,算法收敛到最优策略(这是一个映射,说明在什么状态下采取什么行动)。
问题 1:这是否意味着在经过若干集(比如 1000 集或更多集)之后,我应该基本上得到相同的状态:动作映射?
当我绘制奖励(或平均超过 100 集的奖励)时,我会在此链接中得到类似于图 6.13 的图表。
问题2:如果算法已经收敛到某个策略,为什么奖励会下降?奖励是否有可能发生巨大变化?
问题 3:我可以使用一些标准方法来比较各种 RL 算法的结果吗?