3

我使用来自 Kinect 相机的关节位置作为我的状态空间,但我认为它会太大(25 个关节 x 每秒 30 个),无法仅输入 SARSA 或 Qlearning。

现在我正在使用 Kinect Gesture Builder 程序,该程序使用监督学习将用户移动与特定手势相关联。但这需要我想摆脱的监督培训。我认为该算法可能会拾取关节之间的某些关联,就像我自己对数据进行分类时那样(例如,举起手来,向左走,向右走)。

我认为将这些数据输入深度神经网络,然后将其传递给强化学习算法可能会给我带来更好的结果。

最近有一篇关于这个的论文。https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf

我知道 Accord.net 既有深度神经网络又有 RL,但有人将它们结合在一起吗?有什么见解吗?

4

1 回答 1

0

如果我从您的问题 + 评论中正确理解,您想要的是拥有一个使用视觉输入(来自相机的原始像素)执行离散动作的代理。这看起来与 DeepMind 的人最近所做的完全一样,扩展了你提到的论文。看看这个。这是玩 Atari 游戏的更新(和更好)版本。他们还提供了官方实现,您可以在此处下载。甚至在 Neon中也有一个运行良好的实现。

最后,如果您想使用连续动作,您可能会对这篇最近的论文感兴趣。

回顾一下:是的,有人将 DNN + RL 结合起来,它可以工作,如果你想使用原始相机数据来训练带有 RL 的代理,这绝对是一种方法:)

于 2015-12-17T22:49:58.690 回答