我正在使用 SageMaker 的内置 XGBoost 算法和以下训练和验证集:
当使用上述数据集运行从训练中得出的预测模型时,总是会产生完全相同的结果。
训练或验证数据集中有什么明显的东西可以解释这种行为吗?
这是我设置超参数的示例代码片段:
{
{"max_depth", "1000"},
{"eta", "0.001"},
{"min_child_weight", "10"},
{"subsample", "0.7"},
{"silent", "0"},
{"objective", "reg:linear"},
{"num_round", "50"}
}
我不清楚可能需要调整哪些超参数。
但是当我添加第 11 个时,它失败了。这让我相信我必须用零索引训练模型,而不是删除它们。所以接下来我会试试。
更新:包含零值的再培训似乎没有帮助。每次我仍然得到相同的价值。我注意到我不能向预测端点发送超过 10 个值,否则它将返回错误:“无法评估提供的有效负载”。所以此时使用 libsvm 格式只会增加更多的问题。