Google vision api vs构建自己的

时间:2017-12-12 20:23:15

标签: machine-learning tensorflow neural-network deep-learning image-recognition

我的图像识别用具非常具有挑战性。我想检测混合回收的成分,例如压碎的罐头,纸张,瓶子,并检测任何异常情况,如玻璃,袋子,鞋子等。

使用google vision api尝试图像的结果主要是"垃圾","回收" "塑料"可能是因为api还没有接受像这样的混合和破碎材料的培训?

对于类似这样的事情,我是否需要寻找张力流并从我自己的图像构建神经网络?我想我不需要使用谷歌这个因为张量流是开源的吗?

感谢。

1 个答案:

答案 0 :(得分:2)

所以一般来说,当你将机器学习应用到一个新的,真实世界的用例时,最好把手放在有代表性的数据集上,在你的情况下,这将是这些垃圾材料的图像。

然后你可以选择一个合适的检测模型(VGG,Inception,ResNet),修改最终的分类图层,根据需要输出尽可能多的类别标签(可能是正常的'或'异常&# 39;在你的情况下,所以有两个类。)

然后你加载这个网络的预训练权重,因为学习的功能概括(google'转移学习'),随机初始化你修改的分类图层,然后训练最后一层,也许训练最后两层,或最后三层(取决于什么效果最好,你有多少数据,概括)等。

简而言之: 1.选择一个预训练的模型。 2.根据您的问题修改它。 3.在您自己的数据集上调整权重。