我正在尝试重新创建this project。我所拥有的是一台服务器(我的计算机)和一个客户端(我的树莓派)。我与原始项目的不同之处在于,我尝试使用一个简单的网络摄像头而不是一个树莓派摄像头来将图像从我的rpi流传输到服务器。我知道我必须:
示例将不胜感激。
self_driver.py
import SocketServer
import threading
import numpy as np
import cv2
import sys
ultrasonic_data = None
#BaseRequestHandler is used to process incoming requests
class UltrasonicHandler(SocketServer.BaseRequestHandler):
data = " "
def handle(self):
while self.data:
self.data = self.request.recv(1024)
ultrasonic_data = float(self.data.split('.')[0])
print(ultrasonic_data)
#VideoStreamHandler uses streams which are file-like objects for communication
class VideoStreamHandler(SocketServer.StreamRequestHandler):
def handle(self):
stream_bytes = b''
try:
stream_bytes += self.rfile.read(1024)
image = np.frombuffer(stream_bytes, dtype="B")
print(image.shape)
cv2.imshow('F', image)
cv2.waitKey(0)
finally:
cv2.destroyAllWindows()
sys.exit()
class Self_Driver_Server:
def __init__(self, host, portUS, portCam):
self.host = host
self.portUS = portUS
self.portCam = portCam
def startUltrasonicServer(self):
# Create the Ultrasonic server, binding to localhost on port 50001
server = SocketServer.TCPServer((self.host, self.portUS), UltrasonicHandler)
server.serve_forever()
def startVideoServer(self):
# Create the video server, binding to localhost on port 50002
server = SocketServer.TCPServer((self.host, self.portCam), VideoStreamHandler)
server.serve_forever()
def start(self):
ultrasonic_thread = threading.Thread(target=self.startUltrasonicServer)
ultrasonic_thread.daemon = True
ultrasonic_thread.start()
self.startVideoServer()
if __name__ == "__main__":
#From SocketServer documentation
HOST, PORTUS, PORTCAM = '192.168.0.18', 50001, 50002
sdc = Self_Driver_Server(HOST, PORTUS, PORTCAM)
sdc.start()
video_client.py
import socket
import time
import cv2
client_sock = socket.socket()
client_sock.connect(('192.168.0.18', 50002))
#We are going to 'write' to a file in 'binary' mode
conn = client_sock.makefile('wb')
try:
cap = cv2.VideoCapture(0)
cap.set(cv2.cv.CV_CAP_PROP_FRAME_WIDTH,320)
cap.set(cv2.cv.CV_CAP_PROP_FRAME_HEIGHT,240)
start = time.time()
while(cap.isOpened()):
conn.flush()
ret, frame = cap.read()
byteImage = frame.tobytes()
conn.write(byteImage)
finally:
finish = time.time()
cap.release()
client_sock.close()
conn.close()
答案 0 :(得分:2)
您不能只将每个接收到的1-1024字节的缓冲区显示为图像。您必须将它们串联起来,并且仅在缓冲区完成后才显示图像。
如果您带外知道图像将是固定的字节数,则可以执行以下操作:
IMAGE_SIZE = 320*240*3
def handle(self):
stream_bytes = b''
try:
stream_bytes += self.rfile.read(1024)
while len(stream_bytes) >= IMAGE_SIZE:
image = np.frombuffer(stream_bytes[:IMAGE_SIZE], dtype="B")
stream_bytes = stream_bytes[IMAGE_SIZE:]
print(image.shape)
cv2.imshow('F', image)
cv2.waitKey(0)
finally:
cv2.destroyAllWindows()
sys.exit()
如果您不知道,则必须添加某种成帧协议,例如在每帧之前将帧大小作为uint32发送,以便服务器可以知道每帧要接收多少字节。
接下来,如果您只是发送原始字节,而没有任何dtype或形状或顺序信息,则需要将dtype和形状信息嵌入到服务器中。如果您知道应该以某种特定形状按C顺序排列字节,则可以手动执行以下操作:
image = np.frombuffer(stream_bytes, dtype="B").reshape(320, 240, 3)
…但是,如果没有,您也必须将该信息作为成帧协议的一部分发送。
或者,您可以发送pickle.dumps
的缓冲区,并在另一端发送pickle.loads
,或者将np.save
发送到BytesIO
,然后np.load
。无论哪种方式,它都包含dtype,形状,顺序和步幅信息以及原始字节,因此您不必担心。
下一个问题是,一旦显示一张图像,您将立即退出。那真的是你想要的吗?如果没有...就不要那样做。
但这只会引发另一个问题。您是否真的要使用该cv.waitKey
阻止整个服务器?您的客户正在捕获图像并尽快发送它们;当然,您要么希望服务器在它们到达时立即显示它们,要么更改设计,以便客户端仅按需发送帧。否则,您将得到一堆几乎相同的帧,然后是几秒钟长的间隙,而客户端被阻塞,等待您耗尽缓冲区,然后重复。