51

I do this linear regression with StatsModels:

import numpy as np
import statsmodels.api as sm
from statsmodels.sandbox.regression.predstd import wls_prediction_std

n = 100

x = np.linspace(0, 10, n)
e = np.random.normal(size=n)
y = 1 + 0.5*x + 2*e
X = sm.add_constant(x)

re = sm.OLS(y, X).fit()
print(re.summary())

prstd, iv_l, iv_u = wls_prediction_std(re)

My questions are, iv_l and iv_u are the upper and lower confidence intervals or prediction intervals?

How I get others?

I need the confidence and prediction intervals for all points, to do a plot.

4

6 回答 6

56

对于测试数据,您可以尝试使用以下内容。

predictions = result.get_prediction(out_of_sample_df)
predictions.summary_frame(alpha=0.05)

我在这里找到了 summary_frame() 方法,您可以这里找到 get_prediction() 方法。您可以通过修改“alpha”参数来更改置信区间和预测区间的显着性水平。

我在这里发布这个帖子是因为这是在寻找置信区间和预测区间的解决方案时出现的第一个帖子——尽管这与测试数据本身有关。

这是一个使用这种方法获取模型、新数据和任意分位数的函数:

def ols_quantile(m, X, q):
  # m: OLS model.
  # X: X matrix.
  # q: Quantile.
  #
  # Set alpha based on q.
  a = q * 2
  if q > 0.5:
    a = 2 * (1 - q)
  predictions = m.get_prediction(X)
  frame = predictions.summary_frame(alpha=a)
  if q > 0.5:
    return frame.obs_ci_upper
  return frame.obs_ci_lower
于 2017-11-09T00:18:42.240 回答
45

更新请参阅更新的第二个答案。一些模型和结果类现在具有get_prediction提供附加信息的方法,包括预测均值的预测区间和/或置信区间。

旧答案:

iv_liv_u为您提供每个点的预测区间的限制。

预测区间是观测值的置信区间,包括对误差的估计。

我认为,平均预测的置信区间在statsmodels. (实际上,拟合值的置信区间隐藏在influence_outlier的summary_table中,但我需要验证这一点。)

statsmodels 的正确预测方法在 TODO 列表中。

添加

OLS 有置信区间,但访问有点笨拙。

要在运行脚本后包含:

from statsmodels.stats.outliers_influence import summary_table

st, data, ss2 = summary_table(re, alpha=0.05)

fittedvalues = data[:, 2]
predict_mean_se  = data[:, 3]
predict_mean_ci_low, predict_mean_ci_upp = data[:, 4:6].T
predict_ci_low, predict_ci_upp = data[:, 6:8].T

# Check we got the right things
print np.max(np.abs(re.fittedvalues - fittedvalues))
print np.max(np.abs(iv_l - predict_ci_low))
print np.max(np.abs(iv_u - predict_ci_upp))

plt.plot(x, y, 'o')
plt.plot(x, fittedvalues, '-', lw=2)
plt.plot(x, predict_ci_low, 'r--', lw=2)
plt.plot(x, predict_ci_upp, 'r--', lw=2)
plt.plot(x, predict_mean_ci_low, 'r--', lw=2)
plt.plot(x, predict_mean_ci_upp, 'r--', lw=2)
plt.show()

在此处输入图像描述

这应该给出与 SAS 相同的结果,http://jpktd.blogspot.ca/2012/01/nice-thing-about-seeing-zeros.html

于 2013-07-10T00:20:48.953 回答
3

get_forecast()使用时间序列结果,您可以使用该方法获得更平滑的图。时间序列的示例如下:

# Seasonal Arima Modeling, no exogenous variable
model = SARIMAX(train['MI'], order=(1,1,1), seasonal_order=(1,1,0,12), enforce_invertibility=True)

results = model.fit()

results.summary()

在此处输入图像描述

下一步是进行预测,这会生成置信区间。

# make the predictions for 11 steps ahead
predictions_int = results.get_forecast(steps=11)
predictions_int.predicted_mean

在此处输入图像描述

这些可以放在数据框中,但需要一些清理:

# get a better view
predictions_int.conf_int()

在此处输入图像描述

连接数据帧,但清理标题

conf_df = pd.concat([test['MI'],predictions_int.predicted_mean, predictions_int.conf_int()], axis = 1)

conf_df.head()

在此处输入图像描述

然后我们重命名列。

conf_df = conf_df.rename(columns={0: 'Predictions', 'lower MI': 'Lower CI', 'upper MI': 'Upper CI'})
conf_df.head()

在此处输入图像描述

制作情节。

# make a plot of model fit
# color = 'skyblue'

fig = plt.figure(figsize = (16,8))
ax1 = fig.add_subplot(111)


x = conf_df.index.values


upper = conf_df['Upper CI']
lower = conf_df['Lower CI']

conf_df['MI'].plot(color = 'blue', label = 'Actual')
conf_df['Predictions'].plot(color = 'orange',label = 'Predicted' )
upper.plot(color = 'grey', label = 'Upper CI')
lower.plot(color = 'grey', label = 'Lower CI')

# plot the legend for the first plot
plt.legend(loc = 'lower left', fontsize = 12)


# fill between the conf intervals
plt.fill_between(x, lower, upper, color='grey', alpha='0.2')

plt.ylim(1000,3500)

plt.show()

在此处输入图像描述

于 2019-12-10T18:45:45.383 回答
3

summary_frame当您需要单个分summary_table位数的精确结果但不能很好地矢量化时,效果很好。这将提供预测区间(不是置信区间)的正态近似值,并适用于分位数向量:

def ols_quantile(m, X, q):
  # m: Statsmodels OLS model.
  # X: X matrix of data to predict.
  # q: Quantile.
  #
  from scipy.stats import norm
  mean_pred = m.predict(X)
  se = np.sqrt(m.scale)
  return mean_pred + norm.ppf(q) * se
于 2018-09-11T18:50:48.527 回答
2

You can get the prediction intervals by using LRPI() class from the Ipython notebook in my repo (https://github.com/shahejokarian/regression-prediction-interval).

You need to set the t value to get the desired confidence interval for the prediction values, otherwise the default is 95% conf. interval.

The LRPI class uses sklearn.linear_model's LinearRegression , numpy and pandas libraries.

There is an example shown in the notebook too.

于 2016-07-09T18:44:42.020 回答
0

您可以根据 statsmodel 给出的结果和正态假设来计算它们。

以下是平均值的 OLS 和 CI 示例:

import statsmodels.api as sm
import numpy as np
from scipy import stats

#Significance level:
sl = 0.05
#Evaluate mean value at a required point x0. Here, at the point (0.0,2.0) for N_model=2:
x0 = np.asarray([1.0, 0.0, 2.0])# If you have no constant in your model, remove the first 1.0. For more dimensions, add the desired values.

#Get an OLS model based on output y and the prepared vector X (as in your notation):
model = sm.OLS(endog = y, exog = X )
results = model.fit()
#Get two-tailed t-values:
(t_minus, t_plus) = stats.t.interval(alpha = (1.0 - sl), df =  len(results.resid) - len(x0) )
y_value_at_x0 = np.dot(results.params, x0)
lower_bound = y_value_at_x0 + t_minus*np.sqrt(results.mse_resid*( np.dot(np.dot(x0.T,results.normalized_cov_params),x0) ))
upper_bound = y_value_at_x0 +  t_plus*np.sqrt(results.mse_resid*( np.dot(np.dot(x0.T,results.normalized_cov_params),x0) ))

您可以使用输入结果、点 x0 和显着性水平 sl 围绕它包装一个很好的函数。

我现在不确定你是否可以将它用于 WLS(),因为那里发生了额外的事情。

参考:[DC Montgomery 和 EA Peck 中的第 3 章。“线性回归分析简介。” 第四。编辑,威利,1992]。

于 2018-10-27T09:17:59.700 回答