以下是针对10个请求的apache bench运行,包含50个并发线程。
我需要帮助理解结果,结果中是否有任何突出的结果可能指向阻塞并限制每秒更多的请求?
我正在查看连接时间部分,并看到'等待'和'处理'。它显示等待的平均时间是208,连接的平均时间是0,处理是208 ..但是总数是208.有人可以向我解释,因为它对我没有多大意义。
答案 0 :(得分:9)
连接时间是与服务器建立连接所花费的时间。您可能在同一服务器或LAN内运行它,因此您的连接时间为0。 处理时间是服务器处理和发送完整响应所花费的总时间。 等待时间是发送请求和接收第一个响应字节之间的时间。
同样,由于您在同一台服务器上运行,并且文件较小,因此处理时间==等待时间。
对于真正的基准测试,请尝试从目标市场附近的多个点开始,以了解延迟。现在你所拥有的所有信息都是等待时间。
答案 1 :(得分:0)
这个问题已经过时了,但我遇到了同样的问题,所以我不妨提供答案。
您可能会从代理端禁用TCP nagle或服务器端的ACK延迟中受益。它们可以很糟糕地进行交互并导致不必要的延迟。像我一样,这可能就是为什么你的最短时间恰好是200毫秒。
我无法确认,但我的理解是问题是跨平台的,因为它是TCP规范的一部分。它可能只是为了快速连接发送和接收的少量数据,尽管我也看到了大型传输问题的报告。也许知道TCP更好的人可以投入。
参考: http://en.wikipedia.org/wiki/TCP_delayed_acknowledgment#Problems http://blogs.technet.com/b/nettracer/archive/2013/01/05/tcp-delayed-ack-combined-with-nagle-algorithm-can-badly-impact-communication-performance.aspx