我有一个包含128x128尺寸的10 000张图像的数据集。它们在我的Google云端硬盘中,我将GD安装到了笔记本上。我试图像这样将其加载到Colab:
my_dataset = tf.keras.preprocessing.image_dataset_from_directory(dataset_base_path, image_size=(128,128), batch_size=256, label=None)
我将此数据集对象作为my_dataset变量获取:
<BatchDataset shapes: (None, 128, 128, 3), types: tf.float32>
当我尝试遍历该数据集时,但是包含以下代码的单元将无限地运行:
num = 0
for image in my_dataset.take(3):
num += 1
我想知道这段代码是什么问题?我是否错误地加载了数据集,或者Colab存在问题?
非常感谢您指出正确的方向来解决这个问题。
我使用Tensorflow 2.0,它以默认的紧急执行模式运行。