1

我在matlab中工作。

我在时间步长有两个不相关变量的数据样本。256它们在 Y 轴上的值和在 X 轴上的时间步长的图如下。第一个变量的典型图Pos在此处输入图像描述

第二个变量的典型图Vel在此处输入图像描述

现在我需要在下一个10时间步预测这些变量的值。为了检查各种机器学习技术,我在第一个246时间步取变量值,预测下一个10时间步,然后通过计算均方误差将它们与实际值进行比较ms_error

我已经使用time-series(NAR) ,linear regression,fuzzy input systems,neural networks. 但这些都不能给出ms_error小于 2 的值。有人可以建议一种学习算法来预测像这两个数据样本的未来值。

4

1 回答 1

0

您可以通过遗传编程尝试符号回归。

遗传编程不对适合您的数据点的函数结构做出任何假设,因此它非常适合这种发现任务。

符号回归是 GP 最早的应用之一,并继续被广泛研究

每种主要的编程语言都有许多现成的环境和许多关于该主题的教程,例如

(我并不是说这些是最好的,只是众所周知。当然,谷歌搜索可以找到其他更适合您需求的软件)。

于 2014-05-21T08:07:34.973 回答