在python中显示原始图像像素而不是蒙版

时间:2018-07-14 06:56:14

标签: python python-3.x numpy matplotlib python-imaging-library

我有一个深度学习模型,该模型会向我返回一个数组,该数组按如下方式绘制

res = deeplab_model.predict(np.expand_dims(resized2,0))
labels = np.argmax(res.squeeze(),-1) #remove single dimension values, gives the indices of maximum values in the array  
plt.imshow(labels[:-pad_x])

(上面的最后一行只是在绘制之前清除了一些不清楚的线)

看起来像这样
masked output

原始图片是这样

original image

当我做

print(labels[labels>0])
print(labels.shape)
print(len(labels))

我明白了

[12 12 12 ... 12 12 12]
(512, 512)
512

我想在出现遮罩的原始图像中显示彩色像素,然后将其他所有颜色都变成黑色(或者我会选择模糊或其他颜色),该怎么办?

2 个答案:

答案 0 :(得分:0)

目前还不清楚在这里标签数组的工作方式。假设它在猫和狗所在的位置都包含大于零的值,则可以使用类似的内容来创建蒙版图像,

mask = lables > 0
newimage = np.zeros(image.shape)
newimage[mask] = image[mask]

我在原始图像的基础上创建了零图像,并设置了标签大于零的原始像素。

答案 1 :(得分:0)

我能够扭转这种局面,实现我想要得到的东西

mask = labels[:-pad_x] == 0 resizedOrig = cv2.resize(frame, (512,384)) resizedOrig[mask] = 0