大家好〜我是Tensorflow的新手。
我搜索了几天,无法在stackoverflow上找到类似的问题
我的目标是使用较小的 ILSVRC2012图像数据集训练Google Inception-v3模型,
因为数据集大小为138G并且培训时间过长(8个GPU大约需要2周)
我找到的唯一示例代码来自
Udacity课程教程"机器学习简介" - SVM - 较小的训练集
features_train = features_train[:len(features_train)/100]
labels_train = labels_train[:len(labels_train)/100]
减少Tensorflow,bazel或python的数据集大小的代码是什么?
很多〜
答案 0 :(得分:0)
与他人讨论后
我终于弄清楚如何以简单的方式做到这一点
从imagenet下载的数据集大约为400 GB,包含1000个训练数据文件夹
您可以百分之一(1000 * 0.01 = 10个文件夹)
并将其传输到tfrecords或其他张量流可读文件格式