我用'scipy.optimize.minimize'估计了一个参数(atheta)。我的过程相当于计算最大似然。我想计算这个参数的标准误差,就像统计软件一样。
我找到了 scikits.bootstrap 包,但它似乎不计算自定义函数的置信区间,而只计算 scipy 统计函数的置信区间。
如何继续计算标准误差?
这是我的代码:
from __future__ import division
import numpy as np
import pandas
import scipy
from scipy import optimize
# import data
dir =
data =
#define function to minimize
def f(y, ns, vars):
atheta = y[:1]
tosum = 1/(np.exp(atheta)-np.exp(-atheta*vars))
sum = np.nansum(tosum,axis=1)
firstterm = tosum[:,[0]]
firsterm2 = firstterm.flatten()
lnp1 = np.log(firsterm2 * 1/sum)
return -np.sum(lnp1)
# this is the minimisation of the likelihood. It gives back atheta.
def main():
print '*'*80
print 'nouvelle execution'
print '*'*80
# data
ns = data['n'].values.astype('int')
vars = data.loc[:, ('R1', 'R2', 'R3', 'R4', 'R5', 'R6')].values
ns= np.array(ns, dtype=np.int)
vars= np.array(vars, dtype=np.float)
x0 = [-0.1]
result = scipy.optimize.minimize(f, x0, method = 'Nelder-Mead',
args = (ns, vars))
return result
if __name__ == "__main__":
print 'resultat du main = ', main()
以下是数据的样子:
R1 R2 R3 R4 R5 R6 n
1 30.3 4.1 10.2 2.5 10.8 6
0.9 10.4 4.1 6.3 3.3 NaN 5
这只是一个示例,因为数据有 25000 行,变量 R 的数量上升到 R24。