这可能是一个基本的概念性问题,但是在阅读不同的CNN(例如VGG,Alexnet,GoogleNet等)后,似乎已经对模型进行了针对特定图像尺寸的输入训练(例如256x256),我可以t在推断过程中为模型提供不同的图像大小(1,920 x 1,080),而无需调整大小或裁剪。这是真的吗?
我知道YOLO可以处理不同分辨率的图像,Yolo是否在将图像提供给卷积层之前对其进行了大小调整?
我的要求是对可能不具有相同图像尺寸的一系列图像进行对象识别,显而易见的方法是调整图像的大小,但这可能会导致图像信息丢失。
如果是这样,我是否需要针对我拥有的每种图像尺寸训练模型,然后每次针对该特定图像重新加载模型?
答案 0 :(得分:1)
还有更多概念上的问题,VGG,AlexNet,GoogleNet是图像分类模型,而YOLO是对象检测模型。只有网络完全卷积,它才能接受大小可变的图像。
因此,您唯一的选择是将图像调整为通用大小,这在实践中效果很好,因此您应该这样做并评估不同的图像大小,以查看准确性如何变化。只有在进行了这样的实验之后,您才能确定调整大小是否合适。