我正在将来自BlazeFace的张量传递到我的自定义模型中,以进行分类任务,该张量包含裁剪的面。 问题是尺寸与我的自定义模型的输入不匹配,该自定义模型是使用转移学习和MobileNetV2进行训练的。我意识到,当裁切后的面孔小于自定义模型的形状时,我正在尝试调整其大小。我怎样做才能使裁剪的脸部适合模型?
Model input shape : [1,224,224,3]
Cropped face : [1,117,68,3]
const crop = tf.image.cropAndResize(
tensorReshaped,
boxes,
[0],
[height, width]
);
// Resize cropped faces to [1,224,224,3]
console.log(crop.shape);
const prediction = model.predict(crop.reshape([1, 224, 224, 3]));
if (!prediction || prediction.length === 0) {
console.log("No prediction available");
return;
}
// Make predictions.
const preds = prediction.dataSync();
console.log(preds);
答案 0 :(得分:0)
我需要调整裁切后的图像的大小,而不调整其形状
const alignCorners = false;
// Resize the cropped images to be [1,224,224,3]
const imageResize = tf.image.resizeBilinear(
crop,
[224, 224],
alignCorners
);