我正在尝试使用tflearn和tensorflow来拍摄较小的灰度图像并生成较大的RGB图像,一次以60个块乘60个块为一个块。
我当时想我可以通过传递完整的较小图像以及要训练的最终图像上块的x,y位置来实现。在将较小的图像通过几个卷积层运行后,我将串联位置数据:
import tflearn as tf
imgConvnet = tf.input_data(shape = [None, 500, 500, 1])
location = tf.input_data(shape = [None, 2])
imgConvnet = tf.conv_2d(imgConvnet, 32, 2, activation='relu')
imgConvnet = tf.conv_2d(imgConvnet, 32, 2, activation='relu')
imgConvnet = tf.fully_connected(imgConvnet,1000)
imgConvnet = tf.merge([imgConvnet,location],'concat')
imgConvnet = tf.fully_connected(imgConvnet,2000)
imgConvnet = tf.fully_connected(imgConvnet,3600)
imgConvnet = tf.regression(imgConvnet)
但是问题是,显然只有在两个数组的大小相同时,才在tflearn中使用merge。我显然不想将图像数据缩小到两个值,并且我不确定是否要炸毁位置数据太多,甚至不确定如何处理。
有没有办法在张量流中向卷积网络中添加少量非图像数据?
将来,我还要在位置上添加一些描述性文字。
非常感谢