我正在使用 XGBoost 进行二进制分类。标准/默认损失函数(二元逻辑)考虑所有分类(正类和负类)的性能。
我只关心精度。我不介意它是否进行很少的分类,只要它最大限度地提高它的正确率。所以我想要一个完全不关心错失机会(即假阴性或真阴性)的损失函数/评估指标组合,只寻求最大化真阳性(并最小化假阳性)。
我有一个相对平衡的面板。
在 xgboost 中是否有一种直接的方法可以做到这一点(通过现有的超参数,或通过新的损失函数)?如果有更好的损失/目标函数(和梯度/粗麻布),是否有这方面的论文或参考资料?