为什么在添加多个神经网络输出时我们采用相等的图层尺寸?

时间:2019-07-20 05:12:52

标签: machine-learning keras deep-learning keras-layer

我正在阅读一个涉及同时处理图像和文本序列输入的项目,我想知道为什么在 Keras add()中采用相同的尺寸我们在致密层

中组合来自不同神经网络的输出时的“ strong>函数”

第一季度:这样做有什么好处吗?

第二季度:如果我们在add()或merge()中采用不相等的尺寸,会影响模型性能吗?

第3季度:还可以将其视为另一个超参数并对其进行调整以使其最适合模型吗?

这是结构 enter image description here

1 个答案:

答案 0 :(得分:1)

Add()需要相同尺寸的张量。因此,您根本无法使用具有不同尺寸的add()操作。

只有在A == B时,才将矩阵(N,A)与矩阵(N,B)相加才有意义,对于A和B的值>1。当A或B == 1时,您可以应用广播规则