我有以下情况,我有一个N * N的二进制图像,我想找到簇的数目并在它们周围绘制bbox。
一些要求: -至少有1个群集,可能会有很多群集。 -唯一的“可控制”参数是 k ,即属于同一簇的像素之间的最大距离。
这里有一些代码可以显示我在说什么:
注意:,我不想对此部分进行改进,仅举例来说。
import numpy as np
from PIL import Image
from IPython.display import display
def display_array(image):
image_display_ready = (image * 255).astype(np.uint8)
img = Image.fromarray(image_display_ready)
display(img)
def generate_image():
image = np.zeros([256,256])
for _ in range(200):
while True:
i, j = np.random.randint(25, 100, size=2)
if image[i, j] == 0:
break
image[i, j] = 1
for _ in range(200):
while True:
i, j = np.random.randint(150, 225, size=2)
if image[i, j] == 0:
break
image[i, j] = 1
for _ in range(100):
while True:
i, j = (np.random.randint(150, 225), np.random.randint(25, 50))
if image[i, j] == 0:
break
image[i, j] = 1
for _ in range(100):
while True:
i, j = (np.random.randint(150, 225), np.random.randint(75, 100))
if image[i, j] == 0:
break
image[i, j] = 1
for _ in range(100):
while True:
i, j = (np.random.randint(25, 50), np.random.randint(150, 225))
if image[i, j] == 0:
break
image[i, j] = 1
for _ in range(100):
while True:
i, j = (np.random.randint(75, 100), np.random.randint(150, 225))
if image[i, j] == 0:
break
image[i, j] = 1
return image
image = generate_image()
display_array(image)
下面是我目前有的解决方案,我想知道它是否可以改进。在我看来,这不是一种有效的解决方案。
注意:lookup_range
是前面介绍的k
参数
def compute_bbox_coordinates(mask_img, lookup_range, verbose=0):
bbox_list = list()
visited_pixels = list()
bbox_found = 0
for i in range(mask_img.shape[0]):
for j in range(mask_img.shape[1]):
if mask_img[i, j] == 1 and (i, j) not in visited_pixels:
bbox_found += 1
pixels_to_visit = list()
bbox = {
'i_min': i,
'j_min': j,
'i_max': i,
'j_max': j
}
pxl_i = i
pxl_j = j
while True:
visited_pixels.append((pxl_i, pxl_j))
bbox['i_min'] = min(bbox['i_min'], pxl_i)
bbox['j_min'] = min(bbox['j_min'], pxl_j)
bbox['i_max'] = max(bbox['i_max'], pxl_i)
bbox['j_max'] = max(bbox['j_max'], pxl_j)
i_min = max(0, pxl_i - lookup_range)
j_min = max(0, pxl_j - lookup_range)
i_max = min(mask_img.shape[0], pxl_i + lookup_range + 1)
j_max = min(mask_img.shape[1], pxl_j + lookup_range + 1)
for i_k in range(i_min, i_max):
for j_k in range(j_min, j_max):
if mask_img[i_k, j_k] == 1 and (i_k, j_k) not in visited_pixels and (
i_k, j_k) not in pixels_to_visit:
pixels_to_visit.append((i_k, j_k))
visited_pixels.append((i_k, j_k))
if not pixels_to_visit:
break
else:
pixel = pixels_to_visit.pop()
pxl_i = pixel[0]
pxl_j = pixel[1]
bbox_list.append(bbox)
if verbose:
print("BBOX Found: %d" % bbox_found)
return bbox_list
bbox_coords = compute_bbox_coordinates(image, lookup_range=15, verbose=0)
print(bbox_coords)
Number of clusters: 6
[
{'i_min': 25, 'j_min': 25, 'i_max': 99, 'j_max': 99},
{'i_min': 25, 'j_min': 150, 'i_max': 49, 'j_max': 224},
{'i_min': 75, 'j_min': 151, 'i_max': 99, 'j_max': 224},
{'i_min': 150, 'j_min': 75, 'i_max': 224, 'j_max': 99},
{'i_min': 150, 'j_min': 150, 'i_max': 224, 'j_max': 224},
{'i_min': 151, 'j_min': 25, 'i_max': 224, 'j_max': 49}
]
def compute_bbox_overlay(target_image, bbox_list):
mask_img_bbox = np.copy(target_image)
for bbox in bbox_list:
mask_img_bbox[bbox['i_min'], bbox['j_min']:bbox['j_max']+1] = 1
mask_img_bbox[bbox['i_max'], bbox['j_min']:bbox['j_max']+1] = 1
mask_img_bbox[bbox['i_min']:bbox['i_max']+1, bbox['j_min']] = 1
mask_img_bbox[bbox['i_min']:bbox['i_max']+1, bbox['j_max']] = 1
return mask_img_bbox
display_array(compute_bbox_overlay(image, bbox_coords))
我认为compute_bbox_overlay
足够好,不需要进一步优化。但是,我真的很感兴趣,如果您有什么想法可以使compute_bbox_coordinates
更快,并且真的想专注于改进此功能,当图像中有大量簇时,这会非常慢。
如果您需要任何更高的精度,我将很高兴编辑我的帖子。我看到这篇文章更像是一场讨论,而不是真正期待一个 turn-key 解决方案;)
根据k的值,我具有以下性能(对于第2步和第3步,大多数时间在第2步中执行)。
k == 1
:47毫秒=> 好又快的#是 k == 25
:1.4秒=> 从那时起,它已经太多了 k == 100
:8.8秒=> 绝对禁止,完全无法使用 k == 200
:20.7秒=> 等待量子计算可能会更快... 如您所见,还有改进的空间;)
答案 0 :(得分:1)
如果您使用的是OpenCV之类的计算机视觉库,则可以使用distance transform来执行此操作。 OpenCV distanceTransform为源图像的每个像素计算到最接近的零像素的距离。因此,对于示例图像,您可以简单地反转源图像,进行距离变换,对其进行阈值处理,然后找到轮廓,然后计算其边界框。
import cv2
import numpy as np
from matplotlib import pyplot as plt
im = cv2.imread('gzRYR.png')
gray = cv2.cvtColor(im, cv2.COLOR_BGR2GRAY)
# distance-transform
dist = cv2.distanceTransform(~gray, cv2.DIST_L1, 3)
# max distance
k = 10
bw = np.uint8(dist < k)
# remove extra padding created by distance-transform
kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (k, k))
bw2 = cv2.morphologyEx(bw, cv2.MORPH_ERODE, kernel)
# clusters
_, contours, _ = cv2.findContours(bw2, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
# draw clusters and bounding-boxes
i = 0
print(len(contours))
for cnt in contours:
x, y, w, h = cv2.boundingRect(cnt)
cv2.rectangle(im, (x, y), (x+w, y+h), (0, 255, 0), 2)
cv2.drawContours(im, contours, i, (255, 0, 0), 2)
i += 1
plt.subplot(121); plt.imshow(im)
plt.subplot(122); plt.imshow(bw2)
答案 1 :(得分:1)
dhanushka's answer做正确的事情。该答案使用具有L1范数的距离变换(这导致菱形单位圆)。 L1范本的计算成本相对较低,但仍然可以计算出整个图像的距离,这不是必需的。
有一种方法可以加快速度:使用具有方形结构元素的形态学膨胀。结构元素的大小以距离变换将点合并为组的方式(实际上,距离变换的阈值是扩张)的相同方式,指示应将哪些点视为在同一群集中。但是,使用正方形结构元素将使此操作非常非常便宜:可以使用两次遍历图像来计算,每次遍历中每个输出像素的比较少于3次。距离变换的最便宜实现是在图像中进行两次遍历,每遍遍历每个输出像素进行4次乘法和加法运算。