如果方块在图像中有连接区域,我该如何检测它们。
我测试了上面提到的方法 OpenCV C++/Obj-C: Advanced square detection
效果不佳。
有什么好主意吗?
import cv2
import numpy as np
def angle_cos(p0, p1, p2):
d1, d2 = (p0-p1).astype('float'), (p2-p1).astype('float')
return abs( np.dot(d1, d2) / np.sqrt( np.dot(d1, d1)*np.dot(d2, d2) ) )
def find_squares(img):
squares = []
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# cv2.imshow("gray", gray)
gaussian = cv2.GaussianBlur(gray, (5, 5), 0)
temp,bin = cv2.threshold(gaussian, 80, 255, cv2.THRESH_BINARY)
# cv2.imshow("bin", bin)
contours, hierarchy = cv2.findContours(bin, cv2.RETR_CCOMP, cv2.CHAIN_APPROX_SIMPLE)
cv2.drawContours( gray, contours, -1, (0, 255, 0), 3 )
#cv2.imshow('contours', gray)
for cnt in contours:
cnt_len = cv2.arcLength(cnt, True)
cnt = cv2.approxPolyDP(cnt, 0.02*cnt_len, True)
if len(cnt) == 4 and cv2.contourArea(cnt) > 1000 and cv2.isContourConvex(cnt):
cnt = cnt.reshape(-1, 2)
max_cos = np.max([angle_cos( cnt[i], cnt[(i+1) % 4], cnt[(i+2) % 4] ) for i in xrange(4)])
if max_cos < 0.1:
squares.append(cnt)
return squares
if __name__ == '__main__':
img = cv2.imread('123.bmp')
#cv2.imshow("origin", img)
squares = find_squares(img)
print "Find %d squres" % len(squares)
cv2.drawContours( img, squares, -1, (0, 255, 0), 3 )
cv2.imshow('squares', img)
cv2.waitKey()
我在opencv示例中使用了一些方法,但结果并不好。
答案 0 :(得分:12)
基于距离变换应用分水岭变换将分离对象:
处理边框处的对象总是有问题的,并且经常被丢弃,因此左上角的粉红色矩形没有分开根本不是问题。
给定二进制图像,我们可以应用距离变换(DT)并从中获取分水岭的标记。理想情况下,会有一个用于查找区域最小值/最大值的就绪函数,但由于它不存在,我们可以对如何阈值DT进行合理的猜测。根据我们可以使用Watershed进行分段的标记,问题就解决了。现在您可以担心区分矩形组件和非矩形组件。
import sys
import cv2
import numpy
import random
from scipy.ndimage import label
def segment_on_dt(img):
dt = cv2.distanceTransform(img, 2, 3) # L2 norm, 3x3 mask
dt = ((dt - dt.min()) / (dt.max() - dt.min()) * 255).astype(numpy.uint8)
dt = cv2.threshold(dt, 100, 255, cv2.THRESH_BINARY)[1]
lbl, ncc = label(dt)
lbl[img == 0] = lbl.max() + 1
lbl = lbl.astype(numpy.int32)
cv2.watershed(cv2.cvtColor(img, cv2.COLOR_GRAY2BGR), lbl)
lbl[lbl == -1] = 0
return lbl
img = cv2.cvtColor(cv2.imread(sys.argv[1]), cv2.COLOR_BGR2GRAY)
img = cv2.threshold(img, 0, 255, cv2.THRESH_OTSU)[1]
img = 255 - img # White: objects; Black: background
ws_result = segment_on_dt(img)
# Colorize
height, width = ws_result.shape
ws_color = numpy.zeros((height, width, 3), dtype=numpy.uint8)
lbl, ncc = label(ws_result)
for l in xrange(1, ncc + 1):
a, b = numpy.nonzero(lbl == l)
if img[a[0], b[0]] == 0: # Do not color background.
continue
rgb = [random.randint(0, 255) for _ in xrange(3)]
ws_color[lbl == l] = tuple(rgb)
cv2.imwrite(sys.argv[2], ws_color)
从上图中,您可以考虑在每个组件中拟合椭圆来确定矩形。然后,您可以使用某些测量来定义组件是否为矩形。这种方法更有可能适用于完全可见的矩形,并且可能会对部分可见的矩形产生不良结果。下图显示了这种方法的结果,如果拟合椭圆中的矩形在组件面积的10%范围内,则该组件为矩形。
# Fit ellipse to determine the rectangles.
wsbin = numpy.zeros((height, width), dtype=numpy.uint8)
wsbin[cv2.cvtColor(ws_color, cv2.COLOR_BGR2GRAY) != 0] = 255
ws_bincolor = cv2.cvtColor(255 - wsbin, cv2.COLOR_GRAY2BGR)
lbl, ncc = label(wsbin)
for l in xrange(1, ncc + 1):
yx = numpy.dstack(numpy.nonzero(lbl == l)).astype(numpy.int64)
xy = numpy.roll(numpy.swapaxes(yx, 0, 1), 1, 2)
if len(xy) < 100: # Too small.
continue
ellipse = cv2.fitEllipse(xy)
center, axes, angle = ellipse
rect_area = axes[0] * axes[1]
if 0.9 < rect_area / float(len(xy)) < 1.1:
rect = numpy.round(numpy.float64(
cv2.cv.BoxPoints(ellipse))).astype(numpy.int64)
color = [random.randint(60, 255) for _ in xrange(3)]
cv2.drawContours(ws_bincolor, [rect], 0, color, 2)
cv2.imwrite(sys.argv[3], ws_bincolor)
答案 1 :(得分:2)
解决方案1:
扩大图像以删除连接的组件。 查找检测到的组件的轮廓。通过引入一些度量(例如比率周长/面积)消除不是矩形的轮廓。
此解决方案不会检测连接到边框的矩形。
解决方案2:
扩展以删除连接的组件。 查找轮廓。 减少其点的近似轮廓(矩形轮廓应为4点)。 检查轮廓线之间的角度是否为90度。 消除没有90度的轮廓。
这应解决连接到边框的矩形问题。
答案 2 :(得分:1)
你有三个问题:
似乎所有的rects都是相同的大小(?),并且没有大的重叠,但是预处理已将它们连接起来。
对于这种情况,我会尝试的方法是:
您可以使用步骤3.来测试blob是否为有效矩形,区域,尺寸比或边缘距离。
这是一个非常好的方法,因为我们假设每个blob都是一个矩形,所以minAreaRect
将找到最小包围矩形的参数。此外,如果绝对必要,我们可以使用像humoments
之类的东西来测试每个blob。
以下是我的建议,边界碰撞匹配显示为红色。
代码:
import numpy as np
import cv2
from cv2 import cv
import scipy
from scipy import ndimage
im_col = cv2.imread('jdjAf.jpg')
im = cv2.imread('jdjAf.jpg',cv2.CV_LOAD_IMAGE_GRAYSCALE)
im = np.where(im>100,0,255).astype(np.uint8)
im = cv2.erode(im, None,iterations=8)
im_label, num = ndimage.label(im)
for label in xrange(1, num+1):
points = np.array(np.where(im_label==label)[::-1]).T.reshape(-1,1,2).copy()
rect = cv2.minAreaRect(points)
lines = np.array(cv2.cv.BoxPoints(rect)).astype(np.int)
if any([np.any(lines[:,0]<=0), np.any(lines[:,0]>=im.shape[1]-1), np.any(lines[:,1]<=0), np.any(lines[:,1]>=im.shape[0]-1)]):
cv2.drawContours(im_col,[lines],0,(0,0,255),1)
else:
cv2.drawContours(im_col,[lines],0,(255,0,0),1)
cv2.imshow('im',im_col)
cv2.imwrite('rects.png',im_col)
cv2.waitKey()
我认为@mmgp演示的Watershed
和distanceTransform
方法在分割图像方面明显优越,但这种简单的方法可以根据您的需要有效。