我有一个3层卷积神经网络,然后是一层致密层,最后是一个softmax层。目的是训练卷积层,然后用RNN层替换致密层。我的问题是,我需要一个 batch_size 128 , time_steps 100 , hidden_state 大小为100.因此,任何输入都必须是形状: [batch_size,n_steps,number_features] ,其中number_features是第3个conv层之后的重新形成池层。
因此,喂食128 (for batch_size) * 100(for num_steps)
图像将不适合我的记忆。
我需要实现的目标如下:我需要一次处理128个图像,作为小批量处理,提取其功能,然后保持。在100个小批量之后,我可以将128,100,num_features输入RNN。在这种情况下,我不会耗尽内存。
那么,我怎样才能在tensorflow中实现这个目标呢?
非常感谢任何帮助!!