Keras:两个同时的层,其中一层对前一层的输出进行卷积

时间:2019-02-06 12:22:08

标签: python python-3.x tensorflow machine-learning keras

我正在尝试实现这种模型的连通性:

输入图像1->卷积层1

输入图像2->层,其中输入的每个像素仅连接一个权重,即1:1对应->卷积层2

此后,这两层将遵循标准CNN的结构,但是我很难实现两个同时的层,其中一层只是简单地获取输入并了解对每个单个像素的处理程度,而无需查看相邻像素。

第二个输入图像应遵循类似的内容:

enter image description here

我知道这不是标准的,但是在Keras(或Tensorflow)中有什么方法可以实现吗?

任何指导将不胜感激。

1 个答案:

答案 0 :(得分:2)

我认为这是您想要的:

https://keras.io/layers/local/

基本上:

  

LocallyConnected1D层的工作方式与Conv1D层相似,不同之处在于权重是不共享的,也就是说,在输入的每个不同色块上应用了一组不同的过滤器。

在这种情况下,您希望使用内核大小为(1,1)的这一层,仅将一个权重值分配给图像的一个像素。