Tensorflow中梯度下降的目标函数

时间:2017-04-14 03:01:55

标签: tensorflow neural-network gradient-descent

当使用神经网络构建分类器时,我使用了GD,但似乎我并不理解它。两个关于梯度下降的目标函数实现之间的区别是什么,其中D是分类器,而X标记为1,Y标记为0。

示例1:

n_true = classifier(X) 
n_false = classifier(Y)
loss = 0.5 * (tf.reduce_mean((n_true - 1)**2) + tf.reduce_mean(n_false**2))
solver = (tf.train.AdamOptimizer(learning_rate=lr).minimize(loss))

示例2:

results  = tf.concat([n_true, n_false], 0)
lables = np.transpose(np.hstack((np.ones(size),np.zeros(size))))
loss = 0.5 * (tf.reduce_mean(results-lables)**2)
solver = (tf.train.AdamOptimizer(learning_rate=lr).minimize(loss))

0 个答案:

没有答案