我目前正在使用Keras实施的模型(例如U-Net或SegNet)来分割高分辨率图像。 下面是性能评估的代码:
score = model.evaluate(test_data, test_label, verbose=1)
训练有素的模型在我的测试数据集上得分很高(损失: 0.4232 ,访问权限: 0.9789 )
然后我通过以下代码显示了分割后的测试图像:
k = 7
output = model.predict_classes(test_data[k: k+ 1])
visualize(np.squeeze(output, axis=0))
我不理解为什么实际输出与预期输出(即地面真实)完全不同,尽管准确性很高。在这里,我有2种对象,红色表示对象1,绿色表示对象2。
任何帮助或建议将不胜感激!