我正在使用带有低秩二次选项 (--lrq ) 的 vowpal wabbit 逻辑回归进行 CTR 预测。我已经用两种情况训练了模型
- 使用命令一次建模
vw -d traning_data_all.vw --lrq ic2 --link logistic --loss_function logistic --l2 0.0000000360911 --l1 0.00000000103629 --learning_rate 0.3 --holdout_off -b 28 --noconstant -f final_model
- 我已经将训练数据分成 20 个块(按天计算)并以迭代方式构建模型(使用选项 -i 和 --save_resume)。
第一步:-
vw -d traning_data_day_1.vw --lrq ic2 --link logistic --loss_function logistic --l2 0.0000000360911 --l1 0.00000000103629 --learning_rate 0.3 --holdout_off -b 28 --noconstant -f model_1
接着
`vw -d traning_data_day_2.vw --lrq ic2 --link logistic --loss_function logistic --l2 0.0000000360911 --l1 0.00000000103629 --learning_rate 0.3 --holdout_off -b 28 --noconstant --save_resume -i model_1 -f model_2`
等等最多20次迭代
第一种情况运行良好,但在第二种情况下,预测在 7-8 次迭代后趋于 1 或 0(仅)。我需要第二个场景工作,因为我想经常更新模型。l1、l2 和 learning_rate 由 vw-hypersearch 脚本优化。
请帮助我如何解决这个问题。我错过了什么吗?我试过选项--lrqdropout.