首先,为我糟糕的英语道歉。
我只想澄清一些事情。
如果有多个网站的用户(让我们说1000)并尝试同时访问我的API端点(假设每个人都在访问注册端点)(或者如果不完全相同的时间,纳秒的时间间隔)。会发生什么?每个人都会得到相同的响应时间吗?或者第一个访问它的人会比第二个人更快吗?
根据我的知识(是的,我是愚蠢的),我认为API将在队列中处理它,所以如果您是第1000个用户,您将在更长的时间内收到响应。如果这是真的。有没有办法减少延迟?
非常感谢您抽出时间解释:)
答案 0 :(得分:0)
你对队列是正确的。如果有1000个用户同时访问您的API,其中一些用户很可能会等待。
您可以微调您接受的同时请求的数量。我假设你正在使用nginx或apache。例如,您必须尽可能多地增加nginx中的worker和worker进程,但要确保您的服务器可以处理它们。
如果您想使用更多服务器,您可以使用负载均衡器,该负载均衡器将提供当前可用或随机提供的服务器请求。