我正在努力训练一个二元分类模型,希望给予积极的等级更多的权重。据我所知,tf.weighted_cross_entropy_with_logits
适用于此,但我不确定,也无法找到关于如何定义类以及在此背景下被认为是正面的正式解释
即。我是否需要两个输出节点,第二个节点是隐式正类,还是需要单个节点,其较高的值被视为正类?
答案 0 :(得分:0)
据我所知,tf.weighted_cross_entropy_with_logits适用于此
是
但我不确定,也无法找到关于如何定义课程以及在此背景下被认为是正面的官方解释?
在targets
中,正数为1
,否定为0
。您可以通过阅读documentation:
targets * -log(sigmoid(logits)) * pos_weight + (1 - targets) * -log(1 - sigmoid(logits))
即。我是否需要两个输出节点,第二个节点是隐式正类,还是需要单个节点,其较高的值被视为正类?
您只需要一个节点,它输出您的输入属于正类的概率。