通过Homebrew
,我在Mac上安装了Tesseract OCR引擎。所有目录(jpeg
,leptonica
,libpng
,libtiff
,openssl
,tesseract
)现已安装在/usr/local/Cellar
< / p>
在将图像放入Cellar
目录之前,当我在命令行中尝试以下操作时,显然它会失败:
$ tesseract image.png outcome
因此,由于没有这样的图像,我收到以下错误消息:
Error in fopenReadStream: file not found
Error in findFileFormat: image file not found
Error during processing.
生成这些消息的程序 / 脚本在哪里?我只能在已安装的Tesseract目录中找到include
个文件...如果找不到图像,那么包含这些错误消息字符串的文件在哪里等??
此外,执行图片 预处理的脚本 / 计划在哪里(例如分割,二值化,去除噪声等...)
上下文/背景
我们计划根据我们的需求改进(而非定制)Tesseract(例如识别产品的序列号和车牌号)但显然首先我们需要知道什么样的过滤和阈值默认情况下,Tesseract会执行。
我理解Tesseract在进行实际OCR之前在内部(使用Leptonica库)执行各种图像处理操作。例如,我了解Tesseract内部进行二值化和分段和噪声消除,以及使用默认分段方法。这是正确的吗? 哪些脚本包含这些方法,以便在执行实际OCR之前,我可以看到这些内部图像处理操作的执行顺序是什么?
github下载有很多目录和代码,所以我真的很感谢有人指出我们正确的方向 - 我们应该看看Tesseract在进行实际OCR之前所做的标准参数和图像处理操作。我们只能找到.h
个头文件...
谢谢,