标签: deep-learning bigdata training-data
我有一个很大的8k图像数据集。我想在PC上训练此数据,但是存在内存问题,所以我想也许我可以将我的数据分为4个部分,每个部分包含2K图像并训练每个部分只能在同一模型上。
答案 0 :(得分:0)
您可以使用生成器将数据提供给分区中的模型,而不会占用内存。
您应该看一下tutorial,他们在Keras中解释问题并教您如何解决问题(如果您使用的是框架)
Keras