我有一些代码在组合两个损失函数。
criterion = torch.nn.BCELoss()
criterion2 = torch.nn.MSELoss()
...
loss1 = criterion(y_pred1, y1)
loss2 = criterion2(y_pred2, y2)
loss = loss1 + loss2*0.1
optimizer.zero_grad()
loss.backward()
optimizer.step()
将第二个损失乘以0.1会真正影响梯度吗?我的目标是减少第二次损失的重要性,但除了打印此调整以外,其他措施似乎无济于事。在更新过程中,实际上使第二次损失变得不那么重要了吗?