标签: python keras
我正在阅读一篇使用具有共同权重的MLP的论文。我找到了作者实现,他正在使用内核大小为1的卷积层。在我的带有Convolution1D层的实现下面:
Convolution1D(512, kernel_size=(1), strides=(1), padding='valid')
首先,这有意义吗?可以以某种方式与具有共享权重的密集层进行比较吗?