我们实际上有一个共存的10Gb / s服务器和1Gb / s服务器(临时迁移解决方案)[UDP流量]。我们希望塑造来自10Gb / s服务器的流量,以避免1G服务器无法处理的大爆发。
似乎“tc”无法用tbf完成工作(或者我们可能以错误的方式使用它)。例如,在我们的10G服务器上,我们尝试了以下方法:
sudo tc qdisc add dev eth5 root tbf rate 950mbit latency 1s burst 50mbit peakrate 1000mbit mtu 1500
这里我们通常将峰值设置为1mb(通常不会产生突发> 1mb / s)。 不幸的是,这不起作用,实际上在使用这个tc配置后,我们将主带宽降低到最大2Mb / s ..
我们对这种奇怪行为的唯一线索是tc手册中的句子:
“为了达到完美,第二个桶可能只包含一个数据包,这导致前面提到的1mbit / s限制。
这个限制是由于内核只能节流至少1'jiffy',这取决于HZ为1 / HZ。为了完美整形,每个jiffy只能发送一个数据包 - 对于HZ = 100,这意味着每个平均1000个字节的100个数据包,大致相当于1mbit / s。 “
因此,我们确信我们无法达到峰值> 1Mbit / s?
也许,还有另一种完全不同的方式来实现我们的目标,如果有人有建议可以帮助我实现目标.. =)?
亲切的问候
答案 0 :(得分:0)
为什么你会有1秒延迟?对于1 Gbit链路来说,似乎太高了