我正在使用Swift 3,Xcode 8.2
我正在构建一个应用程序,用户可以在其中拍摄文档,我使用Tesseract对文本执行一些OCR。使用默认摄像机视图时,Tesseract能够识别相当多的文本。然后,我决定使用AVFoundation编写自己的摄像机视图,以便在视图上添加一些边框,以帮助引导用户拍摄正确的照片并自定义其他按钮。
现在,从那以后,Tesseract刚刚回归胡言乱语而没有认识到过去的文字。
实际代码非常基本:
val grr = new Test
我还尝试将裁剪后的图片转换为func doProcessing() {
// create a tesseract constant and initialize it to the english language
if let tesseract = G8Tesseract(language: "eng") {
tesseract.delegate = self
// this takes the image and segments it into chunks so that I can recognize each corner of the document.
let croppedTopLeft : UIImage = topLeftCrop(screenshot: stillPicture.image!)
tesseract.image = croppedTopLeft
tesseract.recognize()
}
}
但这没有做任何事情。我的自定义相机视图现在导致问题的任何原因以及我如何提高照片质量的建议?
修改
好吧,我发现它可能与在新相机视图上拍摄的照片的大小或宽高比有关。新照片的尺寸为1080 x 1920(我使用的是iPhone 7),使用普通相机视图拍摄的照片宽高比为4032 x 3024,使用横向视图,3024 x 4032使用纵向视图。 Tesseract识别的最佳纵横比是多少?