我通过改变数据包大小“ping”berkeley.edu收到了以下数据: 对于100字节: 传输24个数据包,接收24个数据包,0.0%丢包 往返min / avg / max / stddev = 91.974 / 94.269 / 97.487 / 1.353 ms 对于200字节: 传输26个数据包,接收26个数据包,0.0%丢包 往返最小值/平均值/最大值/标准值= 92.730 / 97.980 / 119.909 / 6.525毫秒 对于300字节: 传输26个数据包,接收26个数据包,0.0%丢包 往返min / avg / max / stddev = 92.136 / 97.066 / 126.481 / 6.382 ms
虽然我知道传输延迟的公式是由L / R给出的,其中L是以比特为单位的总数据,R是带宽,但我想知道是否可以通过使用上面给出的平均时间来估计传输延迟还有不同的数据大小?