我一直在从事一个涉及用于徽标检测的图像处理的项目。具体来说,目标是为实时FedEx卡车/徽标检测器开发一个自动化系统,该系统可从IP摄像机流中读取帧并发送检测通知。这是运行中的系统的示例,其中已识别的徽标被绿色矩形包围。
对项目的一些限制:
当前实施/算法
我有两个线程:
cv2.VideoCapture()
从IP摄像机捕获帧并调整帧大小以进行进一步处理。由于cv2.VideoCapture()
被阻止,因此决定通过减少I / O延迟来在单独的线程中处理抓帧以提高FPS。通过专门用于捕获帧的独立线程,这将允许主处理线程始终具有可用于执行检测的帧。总体伪算法
For each frame:
Find bounding box for purple color of logo
Find bounding box for red/orange color of logo
If both bounding boxes are valid/adjacent and contours pass checks:
Combine bounding boxes
Draw combined bounding boxes on original frame
Play sound notification for detected logo
用于徽标检测的颜色阈值
对于颜色阈值,我为紫色和红色定义了HSV(低,高)阈值以检测徽标。
colors = {
'purple': ([120,45,45], [150,255,255]),
'red': ([0,130,0], [15,255,255])
}
要找到每种颜色的边界框坐标,请遵循以下算法:
执行遮罩后,我获得了徽标的这些孤立的紫色(左)和红色(右)部分。
假阳性检查
现在有了两个蒙版,我将执行检查以确保找到的边界框实际上形成徽标。为此,我使用cv2.matchShapes()
比较两个轮廓并返回一个显示相似度的度量。结果越低,匹配度越高。另外,我使用cv2.pointPolygonTest()
来查找图像中的点与轮廓之间的最短距离,以进行其他验证。我的误报过程涉及:
如果边界框通过了邻接和相似性度量标准测试,则边界框将被合并并触发FedEx通知。
结果
由于存在许多误报和检测失败的情况,因此该检查算法并不是真正可靠的算法。例如,这些误报被触发。
虽然这种颜色阈值和轮廓检测方法在徽标清晰的基本情况下有效,但在某些领域却严重缺乏:
谁能帮助我改善算法或提出替代检测策略?由于颜色阈值高度依赖于精确校准,还有其他方法可以执行此检测吗?如果可能的话,我不想使用颜色阈值和多层滤镜,因为它不是很可靠。任何见解或建议,将不胜感激!
答案 0 :(得分:10)
您可能想看一下功能匹配。目标是在两个图像(模板图像和嘈杂的图像)中找到特征并将其匹配。这样一来,您就可以在嘈杂的图像(相机图像)中找到模板(徽标)。
从本质上讲,一种功能是人们会在图像中发现的有趣事物,例如角落或开放空间。我建议使用尺度不变特征变换(SIFT)作为特征检测算法。我建议使用SIFT的原因是,它对于图像的平移,缩放和旋转是不变的,对于照明变化部分不变,并且对于局部几何失真也很稳定。这符合您的规范。
我使用OpenCV docs文档中修改的有关SIFT特征检测的代码生成了上述图片:
import numpy as np
import cv2
from matplotlib import pyplot as plt
img = cv2.imread('main.jpg',0) # target Image
# Create the sift object
sift = cv2.xfeatures2d.SIFT_create(700)
# Find keypoints and descriptors directly
kp, des = sift.detectAndCompute(img, None)
# Add the keypoints to the final image
img2 = cv2.drawKeypoints(img, kp, None, (255, 0, 0), 4)
# Show the image
plt.imshow(img2)
plt.show()
这样做时,您会注意到很多功能确实落在了FedEx徽标上(上图)。
我接下来要做的是尝试将视频供稿中的功能与FedEx徽标中的功能进行匹配。我使用FLANN功能匹配器完成了此操作。您可能采用了许多方法(包括蛮力),但是由于您正在处理视频提要,因此这可能是您的最佳选择。以下代码的灵感来自OpenCV docs的功能匹配:
import numpy as np
import cv2
from matplotlib import pyplot as plt
logo = cv2.imread('logo.jpg', 0) # query Image
img = cv2.imread('main2.jpg',0) # target Image
# Create the sift object
sift = cv2.xfeatures2d.SIFT_create(700)
# Find keypoints and descriptors directly
kp1, des1 = sift.detectAndCompute(img, None)
kp2, des2 = sift.detectAndCompute(logo,None)
# FLANN parameters
FLANN_INDEX_KDTREE = 1
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks=50) # or pass empty dictionary
flann = cv2.FlannBasedMatcher(index_params,search_params)
matches = flann.knnMatch(des1,des2,k=2)
# Need to draw only good matches, so create a mask
matchesMask = [[0,0] for i in range(len(matches))]
# ratio test as per Lowe's paper
for i,(m,n) in enumerate(matches):
if m.distance < 0.7*n.distance:
matchesMask[i]=[1,0]
# Draw lines
draw_params = dict(matchColor = (0,255,0),
singlePointColor = (255,0,0),
matchesMask = matchesMask,
flags = 0)
# Display the matches
img3 = cv2.drawMatchesKnn(img,kp1,logo,kp2,matches,None,**draw_params)
plt.imshow(img3, )
plt.show()
使用此功能,我可以匹配以下功能,如下所示。您会发现有异常值。但是大多数功能都可以匹配:
最后的步骤将是简单地在此图像周围绘制一个边界框。我将把您链接到另一个stack overflow question,它与orb探测器的功能相似。这是使用OpenCV docs获取边界框的另一种方法。
我希望这会有所帮助!
答案 1 :(得分:2)
您可以帮助检测器对图像进行预处理,因此不需要太多的训练图像。
首先,我们减少桶形失真。
import cv2
img = cv2.imread('fedex.jpg')
margin = 150
# add border as the undistorted image is going to be larger
img = cv2.copyMakeBorder(
img,
margin,
margin,
margin,
margin,
cv2.BORDER_CONSTANT,
0)
import numpy as np
width = img.shape[1]
height = img.shape[0]
distCoeff = np.zeros((4,1), np.float64)
k1 = -4.5e-5;
k2 = 0.0;
p1 = 0.0;
p2 = 0.0;
distCoeff[0,0] = k1;
distCoeff[1,0] = k2;
distCoeff[2,0] = p1;
distCoeff[3,0] = p2;
cam = np.eye(3, dtype=np.float32)
cam[0,2] = width/2.0 # define center x
cam[1,2] = height/2.0 # define center y
cam[0,0] = 12. # define focal length x
cam[1,1] = 12. # define focal length y
dst = cv2.undistort(img, cam, distCoeff)
然后,我们以某种方式转换图像,就像照相机正对着FedEx卡车一样。那就是卡车停在路边的任何地方,FedEx徽标将具有几乎相同的尺寸和方向。
# use four points for homography estimation, coordinated taken from undistorted image
# 1. top-left corner of F
# 2. bottom-left corner of F
# 3. top-right of E
# 4. bottom-right of E
pts_src = np.array([[1083, 235], [1069, 343], [1238, 301],[1201, 454]])
pts_dst = np.array([[1069, 235],[1069, 320],[1201, 235],[1201, 320]])
h, status = cv2.findHomography(pts_src, pts_dst)
im_out = cv2.warpPerspective(dst, h, (dst.shape[1], dst.shape[0]))