图像处理:实时FedEx徽标检测器的算法改进

时间:2019-04-02 02:26:51

标签: python algorithm opencv image-processing computer-vision

我一直在从事一个涉及用于徽标检测的图像处理的项目。具体来说,目标是为实时FedEx卡车/徽标检测器开发一个自动化系统,该系统可从IP摄像机流中读取帧并发送检测通知。这是运行中的系统的示例,其中已识别的徽标被绿色矩形包围。

Fedex logo

对项目的一些限制:

  • 使用原始OpenCV(不使用深度学习,人工智能或训练有素的神经网络)
  • 图像背景可能很吵
  • 图像的亮度变化很大(早晨,下午,晚上)
  • FedEx卡车/徽标可以具有任何比例旋转或方向,因为它可以停在人行道上的任何地方
  • 根据一天中的不同时间,徽标可能会变得模糊或阴影深浅
  • 同一框架中可能还有许多其他具有相似尺寸或颜色的车辆
  • 实时检测(来自IP摄像机的〜25 FPS)

当前实施/算法

我有两个线程:

  • 线程#1-使用cv2.VideoCapture()从IP摄像机捕获帧并调整帧大小以进行进一步处理。由于cv2.VideoCapture()被阻止,因此决定通过减少I / O延迟来在单独的线程中处理抓帧以提高FPS。通过专门用于捕获帧的独立线程,这将允许主处理线程始终具有可用于执行检测的帧。
  • 线程#2-使用颜色阈值和轮廓检测来检测FedEx徽标的主要处理/检测线程。

总体伪算法

For each frame:
    Find bounding box for purple color of logo
    Find bounding box for red/orange color of logo
    If both bounding boxes are valid/adjacent and contours pass checks:
        Combine bounding boxes
        Draw combined bounding boxes on original frame
        Play sound notification for detected logo

用于徽标检测的颜色阈值

对于颜色阈值,我为紫色和红色定义了HSV(低,高)阈值以检测徽标。

colors = {
    'purple': ([120,45,45], [150,255,255]),
    'red': ([0,130,0], [15,255,255]) 
}

要找到每种颜色的边界框坐标,请遵循以下算法:

  • 模糊框架
  • 用内核侵蚀并扩大帧以消除背景噪声
  • 将帧从BGR转换为HSV颜色格式
  • 使用具有设置的颜色阈值的HSV上下边界在帧上执行蒙版
  • 在蒙版中找到最大轮廓并获取边界坐标

执行遮罩后,我获得了徽标的这些孤立的紫色(​​左)和红色(右)部分。

假阳性检查

现在有了两个蒙版,我将执行检查以确保找到的边界框实际上形成徽标。为此,我使用cv2.matchShapes()比较两个轮廓并返回一个显示相似度的度量。结果越低,匹配度越高。另外,我使用cv2.pointPolygonTest()来查找图像中的点与轮廓之间的最短距离,以进行其他验证。我的误报过程涉及:

  • 检查边界框是否有效
  • 基于两个边界框的相对接近度确保它们相邻

如果边界框通过了邻接和相似性度量标准测试,则边界框将被合并并触发FedEx通知。

结果

enter image description here enter image description here

由于存在许多误报和检测失败的情况,因此该检查算法并不是真正可靠的算法。例如,这些误报被触发。

enter image description here enter image description here

虽然这种颜色阈值和轮廓检测方法在徽标清晰的基本情况下有效,但在某些领域却严重缺乏:

  • 必须在每个帧上计算边界框会带来延迟问题
  • 偶尔会检测到徽标不存在的错误
  • 亮度和时间对检测精度有很大影响
  • 当徽标倾斜时,可以进行颜色阈值检测,但是由于检查算法而无法检测到徽标。

谁能帮助我改善算法或提出替代检测策略?由于颜色阈值高度依赖于精确校准,还有其他方法可以执行此检测吗?如果可能的话,我不想使用颜色阈值和多层滤镜,因为它不是很可靠。任何见解或建议,将不胜感激!

2 个答案:

答案 0 :(得分:10)

您可能想看一下功能匹配。目标是在两个图像(模板图像和嘈杂的图像)中找到特征并将其匹配。这样一来,您就可以在嘈杂的图像(相机图像)中找到模板(徽标)。

从本质上讲,一种功能是人们会在图像中发现的有趣事物,例如角落或开放空间。我建议使用尺度不变特征变换(SIFT)作为特征检测算法。我建议使用SIFT的原因是,它对于图像的平移,缩放和旋转是不变的,对于照明变化部分不变,并且对于局部几何失真也很稳定。这符合您的规范。

Example of feature detection

我使用OpenCV docs文档中修改的有关SIFT特征检测的代码生成了上述图片:

import numpy as np
import cv2
from matplotlib import pyplot as plt

img = cv2.imread('main.jpg',0)  # target Image

# Create the sift object
sift = cv2.xfeatures2d.SIFT_create(700)

# Find keypoints and descriptors directly
kp, des = sift.detectAndCompute(img, None)

# Add the keypoints to the final image
img2 = cv2.drawKeypoints(img, kp, None, (255, 0, 0), 4)

# Show the image
plt.imshow(img2)
plt.show()

这样做时,您会注意到很多功能确实落在了FedEx徽标上(上图)。

我接下来要做的是尝试将视频供稿中的功能与FedEx徽标中的功能进行匹配。我使用FLANN功能匹配器完成了此操作。您可能采用了许多方法(包括蛮力),但是由于您正在处理视频提要,因此这可能是您的最佳选择。以下代码的灵感来自OpenCV docs的功能匹配:

import numpy as np
import cv2
from matplotlib import pyplot as plt

logo = cv2.imread('logo.jpg', 0) # query Image
img = cv2.imread('main2.jpg',0)  # target Image


# Create the sift object
sift = cv2.xfeatures2d.SIFT_create(700)

# Find keypoints and descriptors directly
kp1, des1 = sift.detectAndCompute(img, None)
kp2, des2 = sift.detectAndCompute(logo,None)

# FLANN parameters
FLANN_INDEX_KDTREE = 1
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks=50)   # or pass empty dictionary
flann = cv2.FlannBasedMatcher(index_params,search_params)
matches = flann.knnMatch(des1,des2,k=2)

# Need to draw only good matches, so create a mask
matchesMask = [[0,0] for i in range(len(matches))]

# ratio test as per Lowe's paper
for i,(m,n) in enumerate(matches):
    if m.distance < 0.7*n.distance:
        matchesMask[i]=[1,0]

# Draw lines
draw_params = dict(matchColor = (0,255,0),
                   singlePointColor = (255,0,0),
                   matchesMask = matchesMask,
                   flags = 0)


# Display the matches
img3 = cv2.drawMatchesKnn(img,kp1,logo,kp2,matches,None,**draw_params)
plt.imshow(img3, )
plt.show()

使用此功能,我可以匹配以下功能,如下所示。您会发现有异常值。但是大多数功能都可以匹配:

Logo Matching

最后的步骤将是简单地在此图像周围绘制一个边界框。我将把您链接到另一个stack overflow question,它与orb探测器的功能相似。这是使用OpenCV docs获取边界框的另一种方法。

我希望这会有所帮助!

答案 1 :(得分:2)

您可以帮助检测器对图像进行预处理,因此不需要太多的训练图像。

enter image description here

首先,我们减少桶形失真。

import cv2
img = cv2.imread('fedex.jpg')
margin = 150
# add border as the undistorted image is going to be larger
img = cv2.copyMakeBorder(
                 img, 
                 margin, 
                 margin, 
                 margin, 
                 margin, 
                 cv2.BORDER_CONSTANT, 
                 0)
import numpy as np

width  = img.shape[1]
height = img.shape[0]
distCoeff = np.zeros((4,1), np.float64)

k1 = -4.5e-5;
k2 = 0.0;
p1 = 0.0;
p2 = 0.0;

distCoeff[0,0] = k1;
distCoeff[1,0] = k2;
distCoeff[2,0] = p1;
distCoeff[3,0] = p2;

cam = np.eye(3, dtype=np.float32)

cam[0,2] = width/2.0  # define center x
cam[1,2] = height/2.0 # define center y
cam[0,0] = 12.        # define focal length x
cam[1,1] = 12.        # define focal length y

dst = cv2.undistort(img, cam, distCoeff)

enter image description here

然后,我们以某种方式转换图像,就像照相机正对着FedEx卡车一样。那就是卡车停在路边的任何地方,FedEx徽标将具有几乎相同的尺寸和方向。

# use four points for homography estimation, coordinated taken from undistorted image
# 1. top-left corner of F
# 2. bottom-left corner of F
# 3. top-right of E
# 4. bottom-right of E
pts_src = np.array([[1083, 235], [1069, 343], [1238, 301],[1201, 454]])
pts_dst = np.array([[1069, 235],[1069, 320],[1201, 235],[1201, 320]])
h, status = cv2.findHomography(pts_src, pts_dst)
im_out = cv2.warpPerspective(dst, h, (dst.shape[1], dst.shape[0]))