在神经网络压缩中,“减少模型参数中的冗余”是什么意思

时间:2018-08-30 07:43:01

标签: parameters neural-network compression

在论文Combined Group and Exclusive Sparsity for Deep Neural NetworksIntroduction中,

  

获得紧凑型深度网络的一种方法是   减少模型参数中的冗余。在最佳状态   情况下,每一层的权重将完全正交   彼此形成正交的基础   设置。

我只是想知道the weights are orthogonal是什么意思,为什么它可以减少模型参数中的冗余,从而形成紧凑的深度网络。

0 个答案:

没有答案