我正在执行一项从account number
中提取cheque images
的任务。我目前的方法可以分为2个步骤
Tesseract OCR
之类的OCR库执行OCR 第二步很简单,假设我们已经正确定位了帐号数字
我尝试使用OpenCV
等高线方法和MSER
(最大稳定的末梢区域)来定位帐号数字,但是没有得到有用的结果。很难归纳模式,因为
我们如何解决这个问题。我是否需要寻找一些基于deep learning
的方法。
答案 0 :(得分:1)
假设帐号具有唯一的紫色文本颜色,我们可以使用颜色阈值。这个想法是将图像转换为HSV颜色空间,然后定义较低/较高的颜色范围,并使用cv2.inRange()
进行颜色阈值处理。从这里,我们按轮廓区域过滤以消除小噪声。最后,由于我们希望文本为黑色,背景为白色,因此我们将图像反转。最后一步是在将图像投入Pytesseract之前对图像进行高斯模糊处理。结果如下:
Pytesseract的结果
30002010108841
代码
import numpy as np
import pytesseract
import cv2
pytesseract.pytesseract.tesseract_cmd = r"C:\Program Files\Tesseract-OCR\tesseract.exe"
image = cv2.imread('1.png')
hsv = cv2.cvtColor(image, cv2.COLOR_BGR2HSV)
lower = np.array([103,79,60])
upper = np.array([129,255,255])
mask = cv2.inRange(hsv, lower, upper)
cnts = cv2.findContours(mask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
cnts = cnts[0] if len(cnts) == 2 else cnts[1]
for c in cnts:
area = cv2.contourArea(c)
if area < 10:
cv2.drawContours(mask, [c], -1, (0,0,0), -1)
mask = 255 - mask
mask = cv2.GaussianBlur(mask, (3,3), 0)
data = pytesseract.image_to_string(mask, lang='eng',config='--psm 6')
print(data)
cv2.imshow('mask', mask)
cv2.waitKey()
答案 1 :(得分:0)
谢谢大家的建议,我最终训练了深度学习对象检测方法来定位帐号,与基于 OpenCV 的方法相比,它给出了非常好的结果