我想知道在实施Adaboost算法时在Tensorflow中使用softmax交叉熵损失函数是否正确。
我正在Tensorflow中实现Adaboost算法。我将权重传递给softmax_cross_entropy函数,并使用返回的加权损失作为epsilon或error来计算分类器投票权重。这是正确的方法吗?还是我应该使用'Logitboost'而不是Adaboost,因为我的损失函数是softmax_cross_entropy?
# epsilon/error
weighted_loss = tf.losses.softmax_cross_entropy(onehot_labels=labels_2, logits=logits,weights=weights, reduction=tf.losses.Reduction.SUM)
# classifier voting weight
classifier_wt = 0.5 * tf.log((1-weighted_loss)/weighted_loss)