我使用来自 Kinect 相机的关节位置作为我的状态空间,但我认为它会太大(25 个关节 x 每秒 30 个),无法仅输入 SARSA 或 Qlearning。
现在我正在使用 Kinect Gesture Builder 程序,该程序使用监督学习将用户移动与特定手势相关联。但这需要我想摆脱的监督培训。我认为该算法可能会拾取关节之间的某些关联,就像我自己对数据进行分类时那样(例如,举起手来,向左走,向右走)。
我认为将这些数据输入深度神经网络,然后将其传递给强化学习算法可能会给我带来更好的结果。
最近有一篇关于这个的论文。https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
我知道 Accord.net 既有深度神经网络又有 RL,但有人将它们结合在一起吗?有什么见解吗?