我是CNTK和所有机器学习框架的新手。我尝试使用带有CNTK的Faster RCNN进行图像识别过程。我修改了“ DetectionDemo.py”以引用我自己的数据集(正,负,testImages,最后是预测图像)。
数据集是底图区域(您可以想象像google map这样的东西)。有些区域被认为是A类(标记为A),有些区域被认为是B类(标记为B),某些区域被认为是C类(标记为C),等等。所以我想通过使用来预测区域及其类别将另外一组底图作为预测图像放入CNTK中。
无论我的预测图像尺寸有多大,我总是使用相同的缩放级别,相同的分辨率(dpi,每格米)。
在我的第一张预测图像(大约3200 x 3200像素)上,系统产生了很少的预测边界框,例如平均约为我的预测图像尺寸的一半。因此,当我使用较大的图像尺寸时,我期望具有相同的预测边界框尺寸。但是,当我使用较大的图像尺寸(约9000 x 9000像素)进行预测时,系统平均在我的预测图像尺寸的一半左右也生成了很少的预测边界框。而且这一直在继续。当我放置尺寸大一倍(大约18000 x 18000像素)的预测图像并再次运行预测时,系统生成的预测边界框也很少,平均而言,其尺寸也仅为预测图像尺寸的一半。在所有这些期间,训练数据相同,没有变化。它仍然使用相同的模型和设置。
在CNTK中这是正常现象吗?如何具有稳定的预测边界框结果大小?为什么预测边界框结果的大小不尝试遵循标记的训练数据边界的平均大小?
期待一些建议...