我正在使用LightGBM 2.0.6 Python API。我的训练数据有大约80K样本和400个特征,我正在训练一个大约2000次迭代的模型,该模型用于多类分类(#classes = 10)。当训练模型时,当我调用model.feature_importance()
时,我遇到了分段错误。
我尝试生成人工数据进行测试(使用相同数量的样本,类,迭代和超参数),我可以成功获取特征重要性列表。因此我怀疑问题是否发生取决于训练数据。
我想看看是否有其他人遇到过这个问题,如果是这样,它是如何克服的。谢谢。
答案 0 :(得分:0)
这是LightGBM中的一个错误; 2.0.4没有这个问题。它也应该在LightGBM master中修复。因此要么降级到2.0.4,要么等待下一个版本,要么使用LightGBM master。
问题的确取决于训练数据; feature_importances segfault仅在训练集合中存在“常量”树时,即具有单个叶子的树,没有任何分裂。