我正在尝试在 python 中拟合一些具有 y 不确定性的数据点。数据在 python 中标记为 x、y 和 yerr。我需要对 loglog 尺度的数据进行线性拟合。如果拟合结果正确,作为参考,我将 python 结果与 Scidavis 的结果进行比较
我试过curve_fit
def func(x, a, b):
return np.exp(a* np.log(x)+np.log(b))
popt, pcov = curve_fit(func, x, y,sigma=yerr)
以及 kmpfit 与
def funcL(p, x):
a,b = p
return ( np.exp(a*np.log(x)+np.log(b)) )
def residualsL(p, data):
a,b=p
x, y, errorfit = data
return (y-funcL(p,x)) / errorfit
a0=1
b0=0.1
p0 = [a0,b0]
fitterL = kmpfit.Fitter(residuals=residualsL, data=(x,y,yerr))
fitterL.parinfo = [{}, {}]
fitterL.fit(params0=p0)
当我尝试将数据与其中一个没有不确定性的数据(即设置 yerr=1)进行拟合时,一切正常,结果与 scidavis 的结果相同。但是,如果我将 yerr 设置为数据文件的不确定性,我会得到一些令人不安的结果。在 python 中,我得到 a=0.86,在 scidavis 中得到 a=0.14。我读到了一些关于错误包含在权重中的内容。为了正确计算适合度,我是否必须进行任何更改?或者我做错了什么?
编辑:这里是一个数据文件的例子 (x,y,yerr)
3.942387e-02 1.987800e+00 5.513165e-01
6.623142e-02 7.126161e+00 1.425232e+00
9.348280e-02 1.238530e+01 1.536208e+00
1.353088e-01 1.090471e+01 7.829126e-01
2.028446e-01 1.023087e+01 3.839575e-01
3.058446e-01 8.403626e+00 1.756866e-01
4.584524e-01 7.345275e+00 8.442288e-02
6.879677e-01 6.128521e+00 3.847194e-02
1.032592e+00 5.359025e+00 1.837428e-02
1.549152e+00 5.380514e+00 1.007010e-02
2.323985e+00 6.404229e+00 6.534108e-03
3.355974e+00 9.489101e+00 6.342546e-03
4.384128e+00 1.497998e+01 2.273233e-02
结果:
in python:
without uncertainties: a=0.06216 +/- 0.00650 ; b=8.53594 +/- 1.13985
with uncertainties: a=0.86051 +/- 0.01640 ; b=3.38081 +/- 0.22667
in scidavis:
without uncertainties: a = 0.06216 +/- 0.08060; b = 8.53594 +/- 1.06763
with uncertainties: a = 0.14154 +/- 0.005731; b = 7.38213 +/- 2.13653