让我们把它分解成简单的步骤来分析:
1)model.predict_proba(X)[1]
这相当于
probas = model.predict_proba(X)
probas[1]
所以这首先输出所有样本的所有类的概率。所以假设你的 X 包含 5 行和 4 个特征,有两个不同的类。
所以 probas 将是这样的:
Prob of class 0, prob of class 1
For sample1 [[0.1, 0.9],
For sample2 [0.8, 0.2],
For sample3 [0.85, 0.15],
For sample4 [0.4, 0.6],
For sample5 [0.01, 0.99]]
probas[1]
只会输出输出第二列的概率probas
,即。第 1 类的概率。
Output [0.9, 0.2, 0.15, 0.6, 0.99]
其他两行代码取决于如何处理一维数组的实现和版本。例如。scikit v18 仅显示警告并将其视为单行。但是 v19(主分支)会引发错误。
编辑:更新了 LGBMClassifier
2)model.predict_proba(X[1])
这相当于:
X_new = X[1]
model.predict_proba(X_new)
在这里,您只选择了第二行,它会产生一个 shape [n_features, ]
。但是 LGBMClassifier 要求二维数据是 shape [n_samples, n_features]
。如上所述,这可能是错误的来源。您可以重塑给定的数组以用 1 代替 n_samples:
model.predict_proba(X[1].reshape(1, -1))
# 会正常工作
3)model.predict_proba(list(X[1]))
这可以分为:
X_new = list(X[1])
model.predict_proba(X_new)
这也与 2nd 基本相同,只是X_new
现在是一个列表而不是 numpy 数组,并自动作为单行处理(与X[1].reshape(1, -1)
2nd 情况相同),而不是引发错误。
所以考虑上面的例子,输出将只有,
For sample2 [0.8, 0.2],