大量的并发读取php文件

时间:2011-09-20 10:12:46

标签: php performance concurrency

我有一个动态读取各种来源信息的php文件,比如

search.php?q=keyword&category=cat-number

想象一下,我们有10,000个并发访问者。将流量分成不同的文件(尽可能)是否更好?

1,000 on cat1.php?q=keyword
1,000 on cat2.php?q=keyword
1,000 on cat3.php?q=keyword
....

我的意思是为每个类别创建一个搜索php文件,以便将搜索分成几个php文件。

在增加对单个php文件的并发访问次数时,理论上和实际上是否存在性能缺陷?

3 个答案:

答案 0 :(得分:1)

不,这样分割流量是没有用的。

答案 1 :(得分:1)

没有。事实上,您的服务器应该更容易一遍又一遍地使用同一个文件。使用APC时,只需要缓存该文件,OS文件系统也会缓存文件。即使磁盘也能够更容易地访问文件,因为它的磁头始终处于相同的位置。理论上,当然,在实践中,我认为你不会注意到。

答案 2 :(得分:1)

你要做的事情是负载平衡,但是没有意义。除了增加开销之外,拥有不同的文件不会做任何事此外,如果您的数据源是远程位置(另一个网站)或数据库,那么执行搜索时不会是PHP的瓶颈。