使用pickle时的大型序列化文件

时间:2016-02-17 07:50:52

标签: python python-3.x scikit-learn

我的泡菜功能有一个小问题。 我使用sci-kit随机森林模块训练一个特定的数据集,我想在训练结束后腌制模块,所以每次我需要时我都不需要重新训练它预测。

我遇到的一个问题是,当我在机器学习模块(特别是随机森林)上使用泡菜时,腌制文件太大了。 数据集大小约为450 MB,并且pickle模块具有相同的大小,因此我猜它以某种方式将数据集包含在序列化对象中。

我想知道是否有办法让腌制模块更小(比如 - 更小)?

0 个答案:

没有答案