我一直在努力解决以下数值问题........在理解这个概念时,我们非常感谢任何帮助。
“给定请求平均吞吐量的QoS网络的给定源请求 2 Mbits / sec,突发容量为2 Mbits。来源 然后以50兆比特/秒的速度传输数据,持续时间为1毫秒。之后 源将吞吐量降低到1.8 Mbits / sec。 绘制为此流保留的缓冲区中的数据大小作为函数的函数 时间与上述吞吐量并排。多少 数据丢失会有这种来源体验吗?这个来源的突发容量是多少? 应该使用以确保吞吐量功能显示没有数据丢失 以上?“
感谢您
答案 0 :(得分:0)
假设
在T = 1 mS时,已经过了10 ^ -3秒,因此从缓冲区中清除了2 * 10 ^ 3个字节。但是,在那段时间内,客户端在1 mS持续时间内吐出(50 * 10 ^ 6)字节/秒,或总共50 * 10 ^ 3字节。
由于可用内存只有2 * 10 ^ 3字节,前2 * 10 ^ 3字节将“正常”读取,其余(48 * 10 ^ 3字节)将丢失,或导致致命的缓冲区溢出。
在某处,如果要避免数据丢失,则需要至少另外48 * 10 ^ 3字节的内存。关于这个数据突发,问题陈述的其余部分是没有意义的,因为问题似乎是询问支持给定突发所需的缓冲,这是给定图上的峰值数据速率。
我不确定你所寻求的答案是什么,但我希望这种网络机制的描述是有帮助的。