我正在使用MobileNet v2 provided in TensorFlow Slim的开源实现。我想访问网络中的中间激活(层输出/输入)。我想这样做,以便可以:
1)分析这些激活的统计特性(例如稀疏性)
2)通过将其L1范数添加到网络的损失函数中来对这些激活(而非权重)应用L1正则化,如Yoshua Bengio's paper on the Relu
我的问题是:如何将中间激活转储到numpy数组以评估稀疏性,以及如何将这些激活的L1范数添加到成本函数中?
我发现了this answer,但是作为TensorFlow初学者(我通常使用PyTorch),我不确定如何将其应用于slim.learning.train和slim.evaluation.evaluate_once。