标签: parameters neural-network compression
在论文Combined Group and Exclusive Sparsity for Deep Neural Networks的Introduction中,
Introduction
获得紧凑型深度网络的一种方法是 减少模型参数中的冗余。在最佳状态 情况下,每一层的权重将完全正交 彼此形成正交的基础 设置。
我只是想知道the weights are orthogonal是什么意思,为什么它可以减少模型参数中的冗余,从而形成紧凑的深度网络。
the weights are orthogonal