我正在测试两个H1和H2主机之间的连接。在某些时候,我专门切断了主机之间的连接并分析了丢失的数据包数量。就我而言,连接需要20秒钟才能测试。问题是,当我查看丢失的数据包时,连接断开的时间(在一秒钟之内)都没有关系。也就是说,如果连接在17.2秒或17.8秒后断开。从iperf角度来看,数据包在17.0秒内丢失。标志-i更改了输出间隔,但是结果是相同的。例如,-i标志更改了输出间隔,但结果是相同的:
如果在启动后19.2秒断开连接:
Interval Transfer Bandwidth Jitter Lost/Total
18.80-19.00 sec 142 KBytes 5.82 Mbits/sec 0.005 ms 0/ 99 (0%)
但是如果是19.8:
Interval Transfer Bandwidth Jitter Lost/Total
18.80-19.00 sec 142 KBytes 5.82 Mbits/sec 0.005 ms 0/ 99 (0%)
事实证明,启动后在19.2和19.8中丢失连接的结果是相同的,这意味着数据包在第二个间隔中丢失了。有什么办法可以提高准确性?