我目前正在构建一台使用Arduino Mega2560作为其主控制器的机器。 Arduino连接到串行,获取命令,执行它并每隔1ms吐出一堆测量数据。我有一个运行Python的Raspberry Pi,为用户提供了一个很好的GUI来发送命令,并以可读的形式呈现数据。
我面临的问题:Arduino能够每毫秒吐出15个字节的数据(因此只有15kbyte / s),但我运行的代码每10毫秒只能处理大约15个字节,所以1.5千字节/秒。
当我运行cat /dev/ttyACM0 > somefile
时,我很清楚地看到所有数据点。
我有以下精简的Python代码
# Reset Arduino by starting serial
microprocBusy = True
serialPort = serial.Serial("/dev/ttyACM0", baudrate=460800, timeout=0)
time.sleep(0.22);
serialPort.setDTR(False);
time.sleep(0.22);
serialPort.setDTR(True);
time.sleep(0.10);
logfile = open(logfilenamePrefix + "_" + datetime.datetime.now().isoformat() + '.txt', 'a')
# Bootloader has some timeout, we need to wait for that
serialPort.flushInput()
while(serialPort.inWaiting() == 0):
time.sleep(0.05)
# Wait for welcome message
time.sleep(0.1)
logfile.write(serialPort.readline().decode('ascii'))
logfile.flush()
# Send command
serialPort.write((command + '\n').encode('ascii'))
# Now, receive data
while(True):
incomingData = serialPort.readline().decode('ascii')
logfile.write(incomingData)
logfile.flush()
if(incomingData[:5] == "FATAL" or incomingData[:6] == "HALTED" or incomingData[:5] == "RESET"):
break;
elif(incomingData[:6] == "RESULT"):
resultData = incomingData;
logfile.flush()
当我运行它时,第一个~350个数据点进入,然后我看到一些受损的数据并错过了大约2000个数据点,之后我看到另外350个数据点。在此过程中CPU使用率为100%
出了什么问题? PySerial的优化程度是否很差,或者我错过了我的代码中是否存在错误?我可以从Python运行cat /dev/ttyACM0 > somefile
然后读取该文件,但这不是一个很好的解决方案,是吗?
非常感谢:)
答案 0 :(得分:3)
我已经从PySerial切换到PyTTY,这解决了我的问题。只需将其插入此代码(通过一些小的更改,例如将serialPort.inWaiting() == 0
替换为serialPort.peek() == b''
),我的代码就可以处理数据流,而不会超过50%的CPU使用率,这意味着它处于至少快10倍。我仍在使用PySerial来设置DTR线。
所以,我猜这个问题的答案是,确实PySerial确实没有得到很好的优化。
答案 1 :(得分:1)
我意识到这是一个旧帖子,但是在写这篇文章时已经被观看了3000次,我讨厌有人在这次遭遇中被关闭pySerial。
我认为作者问题最可能的罪魁祸首是读取之间正在进行的解析:
incomingData = serialPort.readline().decode('ascii')
readline()
方法告诉pyserial解析到下一行。您还在接收周期的中间执行decode()
。所有这些都发生在你的流中间。
更好的方法可能如下所示:
waiting = port.in_waiting # find num of bytes currently waiting in hardware
buffer += [chr(c) for c in port.read(waiting)] # read them, convert to ascii
# ...keep accumulating the buffer for as long as is reasonable...
processSerialData(buffer) # whatever processing needs to happen, split your
# lines, log, or whatever else *after* you get
# your data
答案 2 :(得分:0)
here可以找到很好的解决方案。
作者指出:
下面的代码给我790 kB / sec,同时将代码替换为 pyserial的readline方法仅给我170kB / sec。
此解决方案还避免了100%的CPU使用率。
class ReadLine:
def __init__(self, s):
self.buf = bytearray()
self.s = s
def readline(self):
i = self.buf.find(b"\n")
if i >= 0:
r = self.buf[:i+1]
self.buf = self.buf[i+1:]
return r
while True:
i = max(1, min(2048, self.s.in_waiting))
data = self.s.read(i)
i = data.find(b"\n")
if i >= 0:
r = self.buf + data[:i+1]
self.buf[0:] = data[i+1:]
return r
else:
self.buf.extend(data)
ser = serial.Serial('COM7', 9600)
rl = ReadLine(ser)
while True:
print(rl.readline())