我正在开发一个简单的脚本,用于提取包含手写文本的图像的每一行的特征。
在对图像进行阈值处理后,我将Numpy矩阵添加到一个完整的白色行和完整的黑色行(前两行)。 我想成对地计算白色行和图像矩阵的每一行的余弦相似度,我想对黑色行做同样的事情。我想使用余弦相似度(黑色行和白色行)作为输入功能,以便训练带有scikit学习的Knn。
代码:
img = cv2.imread('test.jpg', 0)
ret2,t = cv2.threshold(img,0,255,cv2.THRESH_BINARY+cv2.THRESH_OTSU)
white=np.full((t.shape[1]), 255, dtype=np.uint8)
black=np.full((t.shape[1]), 1, dtype=np.uint8)
tn=np.vstack((white,np.vstack((black,t))))
tn[tn==0]=1 #Set all 0 values to 1
cdist=distance.cdist(tn, tn, 'cosine')
问题是cdist全是0.我没有得到预期的值。我错过了什么?
将图像与文本分割成线条时是否还需要考虑其他技术?
谢谢。