我在RaspberryPi 2上做了一个计算机视觉项目。 计算机视觉是通过众所周知的OpenCV库和Python绑定完成的。 我想展示一下Raspberry Pi在iOS应用程序中的实时流程。
Raspberry Pi正在制作的图像是OpenCV Mats,它在Python中不亚于Numpy Arrays。 另一端的iPhone应用程序没有OpenCV细化功能,只能在我的逻辑中使用图像。
现在,虽然我正在设计这个东西,但我无法找到最好的方法。
我会用这种方式分开问题:
您对此有何看法?
提前致谢。
答案 0 :(得分:0)
我用这种方式解决了问题:
cv2.imencode(extension, mat)
函数对图像Mat进行编码,该函数返回带编码图像的字节数组。具体做法是:
用于转换的功能是
def mat_to_byte_array(mat, ext):
success, img = cv2.imencode(ext, mat)
bytedata = img.tostring() # numpy function used for casting to bytearray
return success, bytedata
在iOS上,我使用SwiftSocket库来实现TCP客户端。
现在这一切都很顺利。
非常感谢。