是否将损失乘以0.1改变倒退步骤?

时间:2019-05-20 14:32:54

标签: pytorch gradient loss-function

我有一些代码在组合两个损失函数。

criterion = torch.nn.BCELoss()
criterion2 = torch.nn.MSELoss()
...
loss1 = criterion(y_pred1, y1)
loss2 = criterion2(y_pred2, y2)
loss = loss1 + loss2*0.1
optimizer.zero_grad()
loss.backward()
optimizer.step()

将第二个损失乘以0.1会真正影响梯度吗?我的目标是减少第二次损失的重要性,但除了打印此调整以外,其他措施似乎无济于事。在更新过程中,实际上使第二次损失变得不那么重要了吗?

0 个答案:

没有答案