当mask不等于零时,使用Masking进行GlobalAveragePooling

时间:2018-07-17 06:57:38

标签: machine-learning nlp

我们正在掩模层上实现GlobalAveragePooling,这会导致不支持的错误。
我们看到了this solution,但很遗憾,此解决方案无法适应我们的情况。
我们使用自定义嵌入算法,导致某些样本全为零,因此我们无法使用零向量进行屏蔽
,例如。 self.model.add(Masking(mask_value=-9999., input_shape=(max_length, nr_in)))
以及随后的一些图层

avged = GlobalAveragePooling1D()(result, mask=max_len)
maxed = GlobalMaxPooling1D()(result, mask=max_len)
merged = merge([avged, maxed])

是否可以将全局平均和最大合并方法与此类掩码一起使用?
谢谢!

我们正在使用Tensorflow 0.12.0和keras 1.2.2

0 个答案:

没有答案