假设我为 10 个类别中的每个类别创建了一个包含约 30 个项目的模型。我已经采用了提供给我的所有默认值。
该模型的平均 F1 分数为 0.875(我有 2 个类别密切相关,所以这有点损害准确性)。
如果我对一段应该与类别 3 和 8 正匹配的文本进行实时预测,我会得到以下结果:
{
"Prediction": {
"details": {
"Algorithm": "SGD",
"PredictiveModelType": "MULTICLASS"
},
"predictedLabel": "8",
"predictedScores": {
"1": 0.002642059000208974,
"2": 0.010648942552506924,
"3": 0.41401588916778564,
"4": 0.02918998710811138,
"5": 0.008376320824027061,
"6": 0.009010250680148602,
"7": 0.006029266398400068,
"8": 0.4628857374191284,
"9": 0.04102163389325142,
"10": 0.01617990992963314
}
}
}
我想知道的是 3 和 8 是否都有效地具有约 80% 的确定性,但是因为它们都匹配,所以确定性在两者之间是分开的。如果你把所有的 相加predictedScores
,你会得到 .999999997,这让我怀疑在每个可用类别之间是否有一个总分 1.0 分......
如果我改为设置 10 个不同的模型,并独立地对每个模型进行二进制匹配,我会看到 3 和 8 得分更高(例如更接近 0.8)吗?
我想一个相关的问题,我真的不需要回答,但可能有助于澄清整个问题,是......如果我有一个绝对适合所有 10 个类别的理论文本,亚马逊机器学习可以用predictedScore
价值每个类别1.0?或者,因为最大值predictedScore
为 1.0,是否会为每个类别返回 0.1?