我在使用Digital Ocean的虚拟Linux机器上运行Nginx和PHP。我使用一个非常简单的文件夹和文件系统作为数据库,如下所示:
--Users
--User1
--file1.json
--file2.json
--User2
--file1.json
--file2.json
Nginx可以轻松阻止Users
目录进行公共访问,每个用户拥有大约60个json
个文件。登录时,我会对每个人执行file_get_contents()
并将所有数据发送到浏览器。当我需要保存文件时,我只对该文件使用file_put_contents()
。
在用户注销时,我想将所有用户文件合并到1 json
文件中,因此在下次登录时,我可以通过在一个文件上执行file_get_contents()
来加快用户速度。这很容易用PHP做,但它似乎不是正确的方法。感觉PHP应该将其传递给计算机上的某种服务,而不是使用php
进行处理。我的3个问题是:
file_get_contents()
文件只是为了更新一小部分数据。)116kb
文件?每次更新都不到1kb的数据。