我正在使用SageMaker内置的XGBoost算法以及以下培训和验证集:
当使用上述数据集运行训练中出现的预测模型时,总会产生完全相同的结果。
培训或验证数据集中是否有明显的东西可以解释这种行为?
以下是我正在设置超级参数的示例代码段:
{
{"max_depth", "1000"},
{"eta", "0.001"},
{"min_child_weight", "10"},
{"subsample", "0.7"},
{"silent", "0"},
{"objective", "reg:linear"},
{"num_round", "50"}
}
我不清楚可能需要调整哪些超参数。
但是当我添加第11个时,它失败了。这让我相信我必须用零索引训练模型而不是删除它们。所以我接下来会尝试。 更新:包含零值的再培训似乎没有帮助。我每次都得到同样的价值。我注意到我不能向预测端点发送超过10个值,否则它将返回错误:“无法评估提供的有效负载”。所以此时使用libsvm格式只会增加更多问题。
答案 0 :(得分:0)
你在那里遇到了一些问题。
暗示:
{"max_depth", "6"},
{"eta", "0.05"},
{"min_child_weight", "3"},
{"subsample", "0.8"},
{"silent", "0"},
{"objective", "reg:linear"},
{"num_round", "200"}
尝试此操作并报告输出
答案 1 :(得分:-1)
当我对时间序列进行分组时,某些频率会在数据中造成间隙。 我通过填充所有NaN来解决了这个问题。