有没有人实施过深度 Q 学习来解决网格世界问题,其中状态是玩家的 [x, y] 坐标,目标是达到某个坐标 [A, B]。每一步的奖励设置可以是-1,达到[A,B]的奖励设置可以是+10。[A, B] 总是固定的。
令人惊讶的是,我没有在 google 上找到这样的实现。我自己使用taxi-v3尝试了DQN,但没有成功。因此,寻找这样的参考实现来解决我的问题。
有没有人实施过深度 Q 学习来解决网格世界问题,其中状态是玩家的 [x, y] 坐标,目标是达到某个坐标 [A, B]。每一步的奖励设置可以是-1,达到[A,B]的奖励设置可以是+10。[A, B] 总是固定的。
令人惊讶的是,我没有在 google 上找到这样的实现。我自己使用taxi-v3尝试了DQN,但没有成功。因此,寻找这样的参考实现来解决我的问题。
对于网格世界,不需要深度 Q 学习,这可能就是为什么很少有人这样做的原因。但是我发现了一个使用深度 Q 学习和网格世界的教程:https ://livebook.manning.com/book/deep-reinforcement-learning-in-action/chapter-3/1