0

我正在使用带有低秩二次选项 (--lrq ) 的 vowpal wabbit 逻辑回归进行 CTR 预测。我已经用两种情况训练了模型

  1. 使用命令一次建模

vw -d traning_data_all.vw --lrq ic2 --link logistic --loss_function logistic --l2 0.0000000360911 --l1 0.00000000103629 --learning_rate 0.3 --holdout_off -b 28 --noconstant -f final_model

  1. 我已经将训练数据分成 20 个块(按天计算)并以迭代方式构建模型(使用选项 -i 和 --save_resume)。

第一步:-

vw -d traning_data_day_1.vw --lrq ic2 --link logistic --loss_function logistic --l2 0.0000000360911 --l1 0.00000000103629 --learning_rate 0.3 --holdout_off -b 28 --noconstant -f model_1

接着

`vw -d  traning_data_day_2.vw --lrq ic2  --link logistic  --loss_function logistic --l2 0.0000000360911 --l1 0.00000000103629  --learning_rate 0.3 --holdout_off  -b 28 --noconstant  --save_resume -i model_1 -f model_2`

等等最多20次迭代

第一种情况运行良好,但在第二种情况下,预测在 7-8 次迭代后趋于 1 或 0(仅)。我需要第二个场景工作,因为我想经常更新模型。l1、l2 和 learning_rate 由 vw-hypersearch 脚本优化。

请帮助我如何解决这个问题。我错过了什么吗?我试过选项--lrqdropout.

4

0 回答 0