我正在使用sklearn.ensemble.RandomForestClassifier建立分类模型。数据包含两个平衡的类。例如:
target = [0,1,1,1,0,0,1,0] #1 & 0 appear four times each
在模型的实际使用情况下,错误的“ 1”预测比错误的“ 0”预测代价更高。为此,我可以使用class_weight参数来强制模型对错误的“ 1”进行惩罚吗? ?
当我测试参数(class_weight={0:2,1:1}
)时,可以达到预期的效果,但是我不确定是否认为该方法是解决此问题的正确方法。更改“ 1”预测的概率阈值是我正在考虑的另一种方法。