我有一个在Windows 7计算机上运行的Python程序以及运行Linux的Raspberry Pi。在Windows机器上,程序的主循环平均需要大约4毫秒才能运行。在Raspberry Pi上,运行平均需要大约100毫秒。
我将时差追踪到一行代码:
print(newData.decode('utf-8'))
如果我取出那行代码(仅用于调试目的),该程序在Raspberry Pi上运行速度一样快。
我无法弄清楚这一行代码如何在Raspberry Pi上花费的时间比在Windows机器上花费的时间长得多。有什么想法吗?
编辑添加:
感谢各种评论。只是为了澄清,程序中不需要上面列出的代码行,所以我可以删除它而没有任何不良影响。但即使我意识到Raspberry Pi比我的桌面计算机慢,一行简单的代码通常不需要100毫秒才能在任何计算机上执行。
Raspberry Pi可能很慢,但它仍然以700 MHz运行,这意味着在这段时间内有70,000,000个时钟周期。由于两台机器上的代码几乎完全相同,我无法弄清楚可能发生的0.1秒差异。