我正在对一些有限大小的物理系统进行计算机模拟,然后我将外推到无穷大(热力学极限)。一些理论说数据应该随着系统大小线性扩展,所以我正在做线性回归。
我拥有的数据很嘈杂,但是对于每个数据点,我都可以估计误差线。因此,例如数据点如下所示:
x_list = [0.3333333333333333, 0.2886751345948129, 0.25, 0.23570226039551587, 0.22360679774997896, 0.20412414523193154, 0.2, 0.16666666666666666]
y_list = [0.13250359351851854, 0.12098339583333334, 0.12398501145833334, 0.09152715, 0.11167239583333334, 0.10876248333333333, 0.09814170444444444, 0.08560799305555555]
y_err = [0.003306749165349316, 0.003818446389148108, 0.0056036878203831785, 0.0036635292592592595, 0.0037034897788415424, 0.007576672222222223, 0.002981084130692832, 0.0034913019065973983]
假设我正在尝试在 Python 中执行此操作。
我知道的第一种方法是:
m, c, r_value, p_value, std_err = scipy.stats.linregress(x_list, y_list)
我知道这给了我结果的错误栏,但这没有考虑到初始数据的错误栏。
我知道的第二种方法是:
m, c = numpy.polynomial.polynomial.polyfit(x_list, y_list, 1, w = [1.0 / ty for ty in y_err], full=False)
在这里,我们使用每个点的误差条的倒数作为权重,用于最小二乘近似。所以如果一个点不是真的那么可靠,它不会对结果有很大的影响,这是合理的。
但我不知道如何获得结合这两种方法的东西。
我真正想要的是第二种方法的作用,这意味着当每个点以不同的权重影响结果时使用回归。但同时我想知道我的结果有多准确,也就是说,我想知道结果系数的误差线是什么。
我怎样才能做到这一点?