我想计算REST端点在一秒钟内(使用Jmeter)可以处理的最大连接数/用户数/请求数。
我的第一个想法是使用可变数量的线程(用户),并随着时间的推移逐渐增加该数量,直到结果错误或等待时间过长。
Maximum-Capaticy = ( numberOf(First-Sampler-that-failed) - 1)
但是问题是,如果我使用2个线程/用户,我可以访问服务器(默认)247 但是如果我一次使用80T,第二个线程/采样器已经失败了,因此这种方法行不通。
计算最大容量的正确方法是什么?是否有公式或其他内容?我找不到有关此主题的任何信息。
更新:我应该放慢一点吗?
例如:为{p>运行N
个线程
(maximumResponseTime [ms] * (10000 [ms] + N * 1000))
并在每次迭代中增加N += 10
?优点应该是线程的增量变慢,并且如果它们失败,应该有大约10的误差范围?