顺序拟合随机森林sklearn

时间:2016-12-13 13:21:45

标签: python machine-learning scikit-learn

我正在使用sklearn在图像数据语料库中训练python中的随机森林分类器。因为我正在执行图像分割,所以我必须存储每个像素的数据,最终是一个巨大的矩阵,就像100,000,000个长矩阵的数据点,所以当在该矩阵上运行RF分类器时,我的计算机会出现内存溢出错误,并永远运行。

我的一个想法是在连续的小批量数据集上训练分类器,因此最终训练整个事物,但每次都改进分类器的拟合。这是一个可行的想法吗?每次运行时,拟合是否会覆盖最后一次拟合?

1 个答案:

答案 0 :(得分:4)

您可以使用warm_start来预先计算树:

# First build 100 trees on X1, y1
clf = RandomForestClassifier(n_estimators=100, warm_start=True)
clf.fit(X1, y1)

# Build 100 additional trees on X2, y2
clf.set_params(n_estimators=200)
clf.fit(X2, y2)

或者

def generate_rf(X_train, y_train, X_test, y_test):
    rf = RandomForestClassifier(n_estimators=5, min_samples_leaf=3)
    rf.fit(X_train, y_train)
    print "rf score ", rf.score(X_test, y_test)
    return rf

def combine_rfs(rf_a, rf_b):
    rf_a.estimators_ += rf_b.estimators_
    rf_a.n_estimators = len(rf_a.estimators_)
    return rf_a

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.33)
# Create 'n' random forests classifiers
rf_clf = [generate_rf(X_train, y_train, X_test, y_test) for i in range(n)]
# combine classifiers
rf_clf_combined = reduce(combine_rfs, rfs)