Azure / Microsoft认知服务自定义愿景-什么是对象检测模型输出张量规范?

时间:2019-02-28 06:28:01

标签: azure tensorflow object-detection azure-cognitive-services microsoft-custom-vision

我正在尝试改编位于以下位置的示例图像分类Android项目

https://github.com/Azure-Samples/cognitive-services-android-customvision-sample

对于导出的自定义视觉对象检测模型,但尚不清楚输出张量的结构是什么-因为它包含边界框等。

我还尝试了将其转换为tensorflow lite,并将模型放入“寿司检测器” iOS项目中,网址为

https://medium.com/@junjiwatanabe/how-to-build-real-time-object-recognition-ios-app-ca85c193865a

但是再次不清楚输出结构是什么,也不清楚它是否符合tf API:

https://www.tensorflow.org/lite/demo_ios

导出tf捆绑包时有一些python示例,但我不确定如何转换为Java / swift / Objective C-例如,见

https://stackoverflow.com/a/54886689/1021819

感谢所有帮助。

2 个答案:

答案 0 :(得分:0)

如果解压缩导出的模型zip文件,则可以在其中找到一个python文件夹。它包含python示例代码,显示应如何解析模型输出。

enter image description here

答案 1 :(得分:0)

有点晚,但是。这是Custom Vision的对象检测.tflite模型的输出。它具有单个输出张量。

enter image description here