2

在时间序列分析中,我使用来自 R 包 urca (Bernard Pfaff) 的 ur.df 测试测试了 30 个时间序列和 62 个单位根的观测值,滞后长度由 AIC 标准决定。无一例外,都选择了滞后长度 1。这似乎极不可信。使用 R 包 CADFtest 中的 CADF 测试进行测试(如果选择 x~1,则执行普通 ADF 测试),以及滞后长度选择的 AIC 标准,滞后数在 0 到 7 之间变化。有没有人可以解释urca 中滞后长度均匀且短的趋势?

此外,如果 ur.df 和 CADFtest 中的滞后长度相同,则测试统计量不同。例如,对于荷兰 1950-2010 年的时间序列 lcon(人均消费的自然对数),测试统计量(常数和趋势)在 ur.df 和 CADFtest 中分别为 -1.53​​78 (1) 和 -2.4331 (1)。R 包 tseries 中的 Adf.test 计算等于 ur.df (-1.53​​78, 1 lag) 的测试统计量。因此拒绝单位根取决于包,这不是最佳情况。

4

2 回答 2

0

我有同样的问题。您需要指定最大延迟数,否则默认值为 1。

例如

ur.df(变量,类型=“漂移”,滞后=30,选择滞后=“AIC”)

于 2018-04-20T14:44:30.167 回答
0

由于结果对样本长度的敏感性,似乎存在一个严重的问题。一些观察结果可能会显着改变结果(即比较滞后长度 p=3 和 4,对于前者,系列从 y_t=3 开始,而后者从 y_t=4 开始)。因此,时间序列应该从一个共同的日期开始(对于基于 IC 的 VAR 模型的滞后长度选择也建议)。因此,如果 max.lag.y=6,则需要相应地截断提供的时间序列(即 y[-c(1:5)])。不幸的是,这不是默认设置。希望这可以帮助。不确定这是否是 CADFtest 的唯一问题......(另请参阅https://stat.ethz.ch/pipermail/r-help/2011-November/295519.html

最好的

汉内斯

于 2015-08-07T03:32:38.517 回答