我从头开始训练一个模型,以检测具有界标的眼睛区域, 我使用的代码来自github项目:
https://github.com/yinguobing/cnn-facial-landmark
我有一个训练有素的模型,该模型可以给出眼睛区域的界标,但是问题是当人脸定向时,跟踪丢失了,之后我看到,问题出在注解上。所以我决定 训练了一个新模型,该模型具有正确注释的超过249 000张图像。
经过60000步后,我停止训练以查看图形损失,并看到训练期间变量损失有所增加:
并且冻结模型后的视频结果非常糟糕,我想如何改善训练(降低损失函数的值)? 如何使结果更准确?