4

我用'scipy.optimize.minimize'估计了一个参数(atheta)。我的过程相当于计算最大似然。我想计算这个参数的标准误差,就像统计软件一样。

我找到了 scikits.bootstrap 包,但它似乎不计算自定义函数的置信区间,而只计算 scipy 统计函数的置信区间。

如何继续计算标准误差?

这是我的代码:

from __future__ import division
import numpy as np
import pandas 
import scipy
from scipy import optimize

# import data 
dir = 
data = 

#define function to minimize
def f(y, ns, vars):
    atheta = y[:1]
    tosum = 1/(np.exp(atheta)-np.exp(-atheta*vars))
    sum = np.nansum(tosum,axis=1)
    firstterm = tosum[:,[0]]
    firsterm2 = firstterm.flatten()
    lnp1 = np.log(firsterm2 * 1/sum)
    return -np.sum(lnp1)

# this is the minimisation of the likelihood. It gives back atheta.
def main():
    print '*'*80
    print 'nouvelle execution'
    print '*'*80

    # data
    ns = data['n'].values.astype('int')
    vars = data.loc[:, ('R1', 'R2', 'R3', 'R4', 'R5', 'R6')].values  
    ns= np.array(ns, dtype=np.int)
    vars= np.array(vars, dtype=np.float)

    x0 = [-0.1]   
    result = scipy.optimize.minimize(f, x0, method = 'Nelder-Mead',
                                        args = (ns, vars))

    return result

if __name__ == "__main__":
    print 'resultat du main = ', main()

以下是数据的样子:

R1 R2 R3 R4 R5 R6 n  
1  30.3 4.1 10.2 2.5 10.8 6    
0.9 10.4 4.1 6.3 3.3 NaN 5  

这只是一个示例,因为数据有 25000 行,变量 R 的数量上升到 R24。

4

0 回答 0