这里有点复杂。我在最近几个月完成了一个更大的基于Web的项目,因为我试图保持低预算(并自己学习一些东西),我没有触及我以前从未接触过的问题:与NGINX进行负载均衡,以及未来的可扩展性。
设置如下: 1个Web服务器 1数据库服务器 1文件服务器(也用于存储备份)
使用PHP 5.4< over fastCGI
现在,所有这些服务器应该是“可扩展的” - 从某种意义上说,如果可用磁盘空间不足,我可以添加新的文件服务器,或者如果我需要处理比预期更多的请求,则可以添加新的Web服务器。
另一件事是:我想在一个域上做所有事情,以便在前端真正注意到对差异后端服务器的访问(一些后端服务器基本上通过子域调用 - 例如:文件服务器,通过'http ://file.myserver.com / ...'只在文件服务器之间进行负载平衡)
我知道这是一个很大的问题 - 基本上,我只是在寻找一些建议/并且有点伸出援手,我在整个事情上有点迷失。我可以阅读部分回答上述问题的片段,但真的“做”完全是另一回事。所以我已经知道,这不是一个明确的,明确的答案,但也许是一些经验。
最终目标是在未来可以轻松扩展,并且已经及时计划(甚至可以像负载均衡器服务器那样购买)。
答案 0 :(得分:0)
您可以使用其中一个Web服务器进行负载压缩。但是在单独的机器上设置balacing会更可靠。如果您的Web服务器响应速度不是很快并且您收到的请求很多,那么负载均衡器会将请求设置在队列中。对于大队列,您需要足够的RAM。
您通常不需要扩展负载均衡器。
或者,您可以为域创建两个或更多A(地址)记录,每个记录指向不同的Web服务器地址。它会给你一个'DNS load-balancing'没有平衡服务器。考虑这个选项。