我目前正在探索PU学习。这只是从正面和未标记的数据中学习。其中一篇出版物[Zhang, 2009]断言,可以通过修改具有概率输出(例如逻辑回归)的二元分类器算法的损失函数来学习。论文指出,应该优化平衡精度。
Vowpal Wabbit 目前支持五种损失函数[在此处列出]。我想添加一个自定义损失函数,在此优化 AUC (ROC),或者等效地,按照论文:1 - Balanced_Accuracy。
我不确定从哪里开始。查看代码表明我需要提供一阶、二阶导数和其他一些信息。我也可以使用 Logistic 损失运行标准算法,但尝试根据我的目标调整 l1 和 l2(不确定这是否好)。我很高兴获得有关如何进行的任何指示或建议。
更新更多搜索显示在在线学习中优化 AUC 是不可能/困难的:答案