我正在使用sklearn在图像数据语料库中训练python中的随机森林分类器。因为我正在执行图像分割,所以我必须存储每个像素的数据,最终是一个巨大的矩阵,就像100,000,000个长矩阵的数据点,所以当在该矩阵上运行RF分类器时,我的计算机会出现内存溢出错误,并永远运行。
我的一个想法是在连续的小批量数据集上训练分类器,因此最终训练整个事物,但每次都改进分类器的拟合。这是一个可行的想法吗?每次运行时,拟合是否会覆盖最后一次拟合?
答案 0 :(得分:4)
您可以使用warm_start
来预先计算树:
# First build 100 trees on X1, y1
clf = RandomForestClassifier(n_estimators=100, warm_start=True)
clf.fit(X1, y1)
# Build 100 additional trees on X2, y2
clf.set_params(n_estimators=200)
clf.fit(X2, y2)
或者
def generate_rf(X_train, y_train, X_test, y_test):
rf = RandomForestClassifier(n_estimators=5, min_samples_leaf=3)
rf.fit(X_train, y_train)
print "rf score ", rf.score(X_test, y_test)
return rf
def combine_rfs(rf_a, rf_b):
rf_a.estimators_ += rf_b.estimators_
rf_a.n_estimators = len(rf_a.estimators_)
return rf_a
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.33)
# Create 'n' random forests classifiers
rf_clf = [generate_rf(X_train, y_train, X_test, y_test) for i in range(n)]
# combine classifiers
rf_clf_combined = reduce(combine_rfs, rfs)