AlexNet在网络图像上运行良好,但在移动图像上运行不正常

时间:2017-01-18 13:45:29

标签: android deep-learning

我使用alexNet训练了一个深度学习模型来对汽车模型进行分类。数据来自网络,包括谷歌图片,闪烁,等等。

该模型在从网络收集的单独测试集上进行测试(许多来自闪烁),并且工作正常。但是,我已经构建了一个简单的Android应用程序,它采用“横向模式”照片并将其发送到服务器以识别汽车。移动图像的性能非常差。我使用在imageNet上训练的alexNet模型测试了图像,模型没有正确回答这些图像。

我想知道,如果在申请移动图片时有任何想法我错过了。

感谢。

1 个答案:

答案 0 :(得分:0)

您可能希望将使用移动设备拍摄的照片添加到训练数据中。如果无法做到这一点,您可以预先处理图像,使其更像是用于训练的图像(例如,标准化)。

编辑:

平均图像减法不是标准化。归一化是减去平均图像然后除以标准偏差。两者均来自训练集。

你应该分析这两个图像。也许有分辨率/闪电变化等。如果没有两个图像的样本,很难分辨出究竟是什么区别。然而,深度学习因数据采集的变化而变得糟糕。

第二次编辑:

移动影像可能失败的另一点是分辨率。 CNN可以处理任何分辨率,如果您将4000x2000图像传入图像网络,它可能会找到与224x224图像不同的内容。出于这个原因,您可能想要发布Web图像和移动图像,我们在stackoverflow上可能会告诉您不同之处。