我正在家里使用张量流来玩卷积神经网络(顺便说一句,我已经完成了udacity深度学习课程,所以我有理论基础)。 当运行卷积时,补丁的大小会有什么影响?当图像更大/更小时,这种尺寸是否必须改变?
我做过的其中一个练习涉及CIFAR-10图像数据库(32x32像素),然后我使用了3x3的卷积(填充为1),得到了不错的结果。
但是现在我想说我想玩大于那个的图像(例如100x100),我应该让我的补丁更大吗?我保持3x3吗?此外,制作补丁真的很大的影响是什么? (说50x50)。
通常情况下我会直接在家测试一下,但在我的电脑上运行它有点慢(没有nvidia GPU!)
所以问题应归纳为
答案 0 :(得分:3)
如果你没有使用填充,较大的内核会使下一层神经元的数量变小。
示例:大小为1x1的内核为下一层提供相同数量的神经元;大小为NxN的内核在下一层只给出一个神经元。
更大内核的影响:
答案:
如果你正在使用填充,你可以进行调整,这样卷积后的结果神经元就会一样。我不能说它比不使用填充更好,但是比使用更小的内核仍然会丢失更多的细节
答案 1 :(得分:0)
这更多地取决于要检测的对象的大小,或者换句话说,取决于要具有的接收场的大小。尽管如此,选择内核大小始终是一个具有挑战性的决定。这就是创建使用不同内核大小(1x1、3x3、5x5)的Inception模型的原因。该模型的创建者也进行了更深入的研究,尝试将卷积层分解为较小的补丁大小,同时保持相同的接收场以加快训练速度(例如,将5x5分解为两个3x3,3x3分解为3x1和1x3)创建不同版本的初始模型。
您也可以查看Inception V2纸以了解更多详细信息,https://arxiv.org/abs/1512.00567