我对我的模型进行了图像尺寸:720 * 700 pxs的训练,并修改了以下两个文件。 一世。对象检测/核心/ preprocessor.py:
def resize_image(image,
masks=None,
new_height=4160,
new_width=3120,
method=tf.image.ResizeMethod.BILINEAR,
align_corners=False):
ii。对象检测/训练/faster_rcnn_inception_v2_pets.config
model {
faster_rcnn {
num_classes: 10
image_resizer {
keep_aspect_ratio_resizer {
min_dimension: 3120
max_dimension: 4160
}
}
两个代码段的功能是什么?如果预先训练的图像尺寸为600 * 600,这些代码是否会将我的图像尺寸调整为3120 * 4160?其次,当我使用经过训练的模型对图像尺寸进行检测和分类:3120 * 4160时,图像是随机裁剪的,并且在物体检测中我没有得到完整的图像。
任何帮助将不胜感激。