我遵循了本教程:https://www.pyimagesearch.com/2017/09/11/object-detection-with-deep-learning-and-opencv/ 我更改了此部分,将图像提要转换为灰度,然后再将其插入到神经网络中
frame = vs.read()
frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
frame = imutils.resize(frame, width=400)
(h, w) = frame.shape[:2]
blob = cv2.dnn.blobFromImage(cv2.resize(frame, (300, 300)),
0.007843, (300, 300), 127.5)
net.setInput(blob)
detections = net.forward()
但是会发生此错误:
OpenCV(3.4.1) Error: Assertion failed (ngroups > 0 && inpCn % ngroups == 0 && outCn % ngroups == 0) in cv::dnn::ConvolutionLayerImpl::getMemoryShapes, file D:\Build\OpenCV\opencv-3.4.1\modules\dnn\src\layers\convolution_layer.cpp, line 234
Traceback (most recent call last):
File "C:/Users/Toshiba/PycharmProjects/real-time-object-detection/study7ver2.py", line 75, in <module>
detections = net.forward()
cv2.error: OpenCV(3.4.1) D:\Build\OpenCV\opencv-3.4.1\modules\dnn\src\layers\convolution_layer.cpp:234: error: (-215) ngroups > 0 && inpCn % ngroups == 0 && outCn % ngroups == 0 in function cv::dnn::ConvolutionLayerImpl::getMemoryShapes
第75行是:detections = net.forward()
为什么要将其转换为灰度?因为我需要在将图像馈送到神经网络之前进行直方图均衡,以便夜间的图像馈送更加清晰。
答案 0 :(得分:4)
这些模型中的绝大多数都需要彩色图像,即 3通道图像;通过转换为灰度,您最终得到一个单通道图像,并且代码崩溃。
让我们快速确认一下;链接的博客文章中的脚本以
运行python deep_learning_object_detection.py \
--prototxt MobileNetSSD_deploy.prototxt.txt \
--model MobileNetSSD_deploy.caffemodel --image images/example_01.jpg
在MobileNetSSD_deploy.prototxt.txt
的MobileNet-SSD Github repo文件中(即此处使用的实现),我们看到输入层被定义为
name: "MobileNet-SSD"
input: "data"
input_shape {
dim: 1
dim: 3
dim: 300
dim: 300
}
此处的第二个dim
自变量恰好是图像(3)中预期的通道数。而且它只会拒绝处理单通道图像,例如灰度图像。
在类似情况下的 hack ,只是为了让您保持游戏状态(尽管我已经看到它通常用于医学和卫星成像,而且图像通常也不是彩色的),只是为了复制将您的单通道复制为3个相同的通道,并将它们组合成一个“ 3通道”图像...