我正在使用 Machine Learning in Action 书研究回归,我看到了如下来源:
def stocGradAscent0(dataMatrix, classLabels):
m, n = np.shape(dataMatrix)
alpha = 0.01
weights = np.ones(n) #initialize to all ones
for i in range(m):
h = sigmoid(sum(dataMatrix[i]*weights))
error = classLabels[i] - h
weights = weights + alpha * error * dataMatrix[i]
return weights
您可能会猜到代码的含义。但我不明白。我多次阅读这本书并搜索了相关的东西,如 wiki 或 google,其中指数函数是为了获得最小差异的权重。为什么我们要使用具有 X*权重之和的指数函数来获得适当的权重?这将是一种OLS。无论如何,我们得到如下结果:
谢谢!