在Tensorflow中使用复杂参数进行反向传播

时间:2018-10-02 03:25:58

标签: python tensorflow machine-learning neural-network

当前,我正在尝试训练从电信工程模型生成的复杂数据。权重和偏差也很复杂。我在第l层对隐藏层使用了relu激活,如下所示:

A_l = tf.complex(tf.nn.relu(tf.real(Z_l)), tf.nn.relu(tf.imag(Z_l))) 

但是,请问如何针对成本和优化程序来实现呢?我真的很困惑,因为我是机器学习的初学者。我浏览了一些有关非解析函数的论文,但是它们都没有帮助使用Tensorflow API。例如:如何重写下面的函数?

cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = Z_out, labels = y)) 
optimizer = tf.train.AdamOptimizer(learning_rate = learning_rate).minimize(cost)

我已经看到一条建议,将成本分为实部和虚部:

cost_R = .., cost_I = ... 

但是我没有尝试过,因为我认为优化器将被拆分并且优化无法正常进行。我在第l层对隐藏层使用了relu激活,如下所示:

A_l = tf.complex(tf.nn.relu(tf.real(Z_l)), tf.nn.relu(tf.imag(Z_l))) 

但是成本和优化器如何? 非常感谢您的帮助。

0 个答案:

没有答案