tf.nn.softmax_cross_entropy_with_logits进行二进制分类?

时间:2018-05-28 11:44:57

标签: python tensorflow

我正在研究一个模型,我必须将我的数据分为两类。大多数代码使用tf.nn.sigmoid_cross_entropy_with_logits来计算二进制分类的交叉熵。

当我使用相同的功能来训练我的模型时,我得到了熵的负值。我想问一下我是否可以使用tf.nn.softmax_cross_entropy_with_logits克服负熵?

x = tf.placeholder(tf.float32, [None, Pixels])
W1 = tf.Variable(tf.random_normal([Pixels, Nodes1], stddev=0.01))
b1 = tf.Variable(tf.zeros([Nodes1]))
y1 = tf.nn.sigmoid(tf.matmul(x, W1) + b1)
W2 = tf.Variable(tf.random_normal([Nodes1, Labels], stddev=0.01))
b2 = tf.Variable(tf.zeros([Labels]))
y = tf.matmul(y1, W2) + b2
cross_entropy = 
tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(labels=y, 
logits=y_))

0 个答案:

没有答案