我在Windows XP上使用PerfMon来检查我编写的应用程序的网络负载。
在下面的示例中,您会看到五列:
日期时间,带宽,[x]每秒发送的字节数,[x]每秒字节数 收到,[x]每秒总字节数
[x] ==我检查负载的网络接口
这是数据。
02/18/2014 15:30:50.894,"1000000000","922.92007218169454","826.92838536756381","1749.8484575492582"
02/18/2014 15:30:51.894,"1000000000","994.06970480770792","774.05427718427154","1768.1239819919795"
02/18/2014 15:30:52.894,"1000000000","1446.0226222234514","1319.0206353476713","2765.0432575711229"
02/18/2014 15:30:53.894,"1000000000","2652.0592714274339","1207.0269760983833","3859.0862475258173"
Date
,Time
和bandwidth (10^9 bit = 1Gbit (lan connection))
显然是正确的。
其他3栏很难解释!它表示单位为bytes per second
,但如果这些是真正的字节,系统如何在小数点后分别解析14位数?
什么是0.0000000000000001 byte
?
实际上,这些数值在到达点之前是合理的。
答案 0 :(得分:0)
计时器的分辨率高于显示的分辨率。您可以在100003微秒内发送923076字节,因此跟踪显示100毫秒并忽略时间列中的微秒,但计算923076/100003作为每秒字节数列。注意我编了数字,没有多大意义找到一对给你的922.9200 ... 完全。