Tensorflow中的Adaboost实施中可以使用softmax交叉熵损失吗?

时间:2019-06-05 03:57:38

标签: tensorflow loss-function adaboost cross-entropy

我想知道在实施Adaboost算法时在Tensorflow中使用softmax交叉熵损失函数是否正确。

我正在Tensorflow中实现Adaboost算法。我将权重传递给softmax_cross_entropy函数,并使用返回的加权损失作为epsilon或error来计算分类器投票权重。这是正确的方法吗?还是我应该使用'Logitboost'而不是Adaboost,因为我的损失函数是softmax_cross_entropy?

# epsilon/error
weighted_loss = tf.losses.softmax_cross_entropy(onehot_labels=labels_2, logits=logits,weights=weights, reduction=tf.losses.Reduction.SUM) 

# classifier voting weight
classifier_wt = 0.5 * tf.log((1-weighted_loss)/weighted_loss)

0 个答案:

没有答案