尺寸问题与深度学习模型有关

时间:2017-05-22 19:58:36

标签: deep-learning classification dimension

我似乎有一些问题需要了解本文中描述的model是如何设计的

这是关于模型维度的文章。

  

......在这些实验中,我们使用了一个卷积层,一个汇集层   顶部有两个完全连接的隐藏层。完全连接   每层有1000个单位。卷积和汇集参数   是:池大小为6,移位大小为2,过滤大小为8,150特征   FWS的地图..

所以根据^模型是否包含

输入

卷积

输入150个特征图(每个都有形状(8,3)

Covolution为1d,因为内核大小为8

并且汇集大小为6,步幅为2.

对输出的期望是(1,“过滤器的数量)的形状,但我得到的是(14,”过滤器的数量)

我理解为什么会这样,但我不明白这篇文章是如何建议这可以给出(1,“过滤器数量”)的输出形状

当使用100个过滤器时,我从每个层获得这些输出

convolution1d给我(33,100)

汇集(14,100)..

为什么我希望输出为1而不是14

该模型应该识别手机,它需要50帧(包括增量150)作为输入,这些是一个上下文帧,这意味着这些用作检测单个帧的支持...这通常是为什么上下文使用窗户。

1 个答案:

答案 0 :(得分:-1)

正如我从您的问题中所理解的,形状struct MyClassCtor { std::string param; template<int base> operator MyClass<base>() { return param; } }; MyClassCtor operator "" _G(const char* param, size_t length) { return {std::string(param, length)}; } 在池化层之后出现。这是预期的。

您需要做的是在将结果馈送到两层完全连接的网络之前将结果展平为单个矢量。

Marcin Morzejko在indirect中回答我的问题会有所帮助。