基于神经网络的重构输出实现自定义损失函数?

时间:2017-12-21 16:03:09

标签: tensorflow neural-network keras gradient-descent regularized

我正在尝试使用神经网络进行盲源分离。我尝试使用具有不同正则化/丢失的自动编码器,但似乎没有任何效果。

现在,我决定根据重建的输出实现自定义丢失功能。我可以使用一对,例如输出向量之间的相关性(应该最小化),或输出向量的非高斯性(应该最大化)。

但是,我不知道如何在keras中做到这一点,或者甚至可能。基本上,这就是我想要做的事情:

  1. 将线性混合信号输入网络输入

  2. 有一些隐藏层,可以根据网络的各种权重重新组合信号

  3. 每个训练步骤,重建我的网络输出,并计算重建输出的统计数据,然后将这些添加到我的成本函数中,例如,如果我的所有重建输出高度相关,我会惩罚该重量组合,希望将来能够产生一系列重量相关的权重(从而解决盲源分离问题)。

  4. 有没有人知道如何在keras中这样做?我不介意搬到Tensorflow,但更愿意留在Keras。

    由于

0 个答案:

没有答案