iOS Vision可在二值化图像上检测光线

时间:2017-06-28 00:13:27

标签: image-processing computer-vision core-image ios11 coreml

我遇到了一些问题。如何在二值化图像上定义光点。我现在正在使用ios11和Vision。

我使用二值化过滤器CIColorControls(也尝试将其与CIColorInvert结合使用) 对于光线检测,我使用VNImageRequestHandlerVNDetectRectanglesRequest。 在VNDetectRectanglesRequest我检查VNDetectedObjectObservation 但无法实现100%帧检测(有时app无法识别帧上的光点)。我做错了什么?感谢任何帮助

这是我的代码

 lazy var rectanglesRequest: VNDetectRectanglesRequest = {
        return VNDetectRectanglesRequest(completionHandler: self.handleRectangles)
    }()

 func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) {
            connection.videoOrientation = AVCaptureVideoOrientation.portrait
            guard let uiImage = imageFromSampleBuffer(sampleBuffer: sampleBuffer) else { return }

            let correctedImage = uiImage
                .applyingFilter("CIColorControls", withInputParameters: [
                    kCIInputSaturationKey: 0,
                    kCIInputContrastKey: 4.5,
                    kCIInputBrightnessKey: -1.54
                    ])
                //.applyingFilter("CIColorInvert", withInputParameters: nil)
              self.searchLightSpot(ciImage: correctedImage)

            DispatchQueue.main.async { [unowned self] in //unowned
                self.frameImageView.image = UIImage(ciImage: correctedImage)
            }
        }

 func searchLightSpot(ciImage: CIImage) {
        var requestOptions: [VNImageOption: Any] = [:]
        let handler = VNImageRequestHandler(ciImage: ciImage, options: requestOptions)
        DispatchQueue.global(qos: .userInteractive).async {
            do {
                try handler.perform([self.rectanglesRequest])
            } catch {
                print(error)
            }
        }
    }

func handleRectangles(request: VNRequest, error: Error?) {
        guard let observations = request.results as? [VNDetectedObjectObservation]
            else {
                print("unexpected result type from VNDetectedObjectObservation")
                return
        }
        guard let detectedObject = observations.first else {
                print("not detected object")
            return
        }

        print("detected object: ", detectedObject)
    }

enter image description here

1 个答案:

答案 0 :(得分:0)

在进行了额外的研究之后,我了解到Apple似乎使用框架进行了额外的优化

例如,如果我们在第1帧中获得亮光,则接下来的5帧将是相同的 它会向我们显示相同的帧,所以相反5帧 - 我们只有1帧 这意味着我们无法在100%确定的情况下以秒为中继静态帧数

所以我无法检测信号持续时间等等....

可能的解决方案之一可能是:

<强> 1。我们可以启动我们的计时器,它将从相机获取当前帧(例如每100ms)

<强> 2。然后我们将检查框架是否有白点。基于直方图的这些结果  enter image description here

y - 颜色(如果帧上存在白色,则显示0/1)

x - 时间轴(ms)

第3。所以这个图的输出可能是

[01111100001111…]

<强> 4。然后我们可以分析和检测信号

您可以使用EasyImagy 并编写自己的扩展名以二值化和检测白点

  extension Image  where Pixel == RGBA {

        fileprivate func getPixelCount() -> Int {
            return Int(10 * width / 100)
        }

        func binarize() -> (isWhite: Bool, binarizedImage: Image<RGBA>) {

            var kWidth = 0
            var img = self
            let pixelCount = getPixelCount()
            for x in 0..<width{
                var kHeight = 0
                for y in 0..<height {

                    if let _pixel = pixel(x, y) {
                        if _pixel.gray < 245 {
                            img[x, y] = .black
                            kHeight = 0
                        } else {
                            img[x, y] = .white
                            kHeight += 1
                        }

                        if kHeight > pixelCount {
                            kWidth += 1
                            break
                        }
                    }
                }
                print("Hwhite: \(kHeight) Wwhite: \(kWidth)")
                if kHeight >= pixelCount && kWidth >= pixelCount  {
                    return (true, img)
                }
            }
            return (false, img)
        }
    }