为什么googlenet(inception)在ImageNet数据集上运行良好?

时间:2016-06-02 06:23:02

标签: deep-learning imagenet

有些人说,在ImageNet数据集上开始运作良好的原因是:ImageNet数据集中的原始图像具有不同的分辨率,并且在使用它们时将它们调整为相同的大小。因此,可以处理不同分辨率的初始化非常适合ImageNet。这种描述是否属实?任何人都可以提供更多细节解释吗?我真的很困惑。非常感谢!

1 个答案:

答案 0 :(得分:0)

首先,深度卷积神经网络,接收修复输入图像大小(如果按大小,你的意思是,像素数),所以所有图像应该是相同的大小或尺寸,这意味着相同的分辨率另一方面,如果图像分辨率很高且有很多细节,任何网络的结果会变得更好。 Imagnet图像是fliker的高分辨率,调整大小的主题不需要插值,因此调整大小的图像保持良好的形状。

第二,初始模块的主要目标是降维,这意味着如果我们有1X1卷积,那么维度计算中的系数是1:

output_dim = (input_dim + 2 * pad_data[i] - kernel_extent) / stride_data[i] + 1;

成立或者换句话说GoogLeNet,网络是巨大的(超过100层)并且计算上不可能让许多CPU或甚至GPU经历所有卷积,因此需要减少维度。 / p>

你可以在Imagnet数据集中使用更深的AlexNet(更多图层),我打赌它会给你一个好的结果但是当你想要超过30层时,你应该有一个好的策略,比如Inception。方式,Imagnet数据集在深网more image == more accuracy

中有超过500万张图像(我上次检查过)