答案 0 :(得分:1)
神经网络优化器功能(例如梯度下降)及其变体(http://ruder.io/optimizing-gradient-descent/)试图在每个时间步更新模型的权重,以使其尽可能接近最小的损失。有时它会朝错误的方向迈进,有时会朝正确的方向迈进,但步幅太大,以至于恰好越过最小值。
复杂的优化器功能(例如Adam)试图通过使所采取的步骤更加一致并且随着时间的推移逐渐变小来最小化此问题。
因此,您在上面看到的内容是完全正常的-即,mAP会上下跳跃,但随着时间的推移它会增加。