我开发了一个小模型来识别行人是否在照片上。
它在我的测试仪上达到了99%的准确度,并且在我的计算机上工作得很好。
但是,当我将其部署到服务器上时,结果会发生变化,准确性会下降。 举例来说,对于同一张图片,S形将为: 在我的电脑上:0.9 在我的服务器上:0.01
我已经检查过归一化,数据准备,所有操作都严格相同。
唯一的区别是我的计算机运行在GPU上,服务器运行在CPU上。 我知道这种情况总是有一点点差异(因为GPU是不确定的),但是我从来没有这样的情况。
我认为这可能是我使用的BatchNormalization
层。
但是为什么会产生这个呢?
(这是我第一次在服务器上部署具有BatchNorm的模型,因此,我只能看到此信息。)