试图减少PHP中的文件下载时间

时间:2016-06-17 13:38:06

标签: php ssl download ftp

目前我有一个后端应用程序,每个请求下载一个文件。该文件未在Web浏览器中下载到最终用户,我正在尝试从FTP服务器下载时找到提高性能的方法。

我使用ftp_ssl_connect连接到相关的FTP服务器,当我收到要下载的文件时,我会使用模式ftp_fget的{​​{1}}。

对于8 MB或更小的文件(它们是zip存档,b.t.w),性能很好,但我现在有30 MB到300 MB的文件。我理解“获取文件需要时间”,文件越大,所需时间越长......等等。

为了提高性能(或者我可能正在努力减少对系统的压力)我想或许以块的方式对大型文件进行FTP下载。到目前为止,我还没有在PHP FTP功能示例中看到太多。我读到了非阻塞的FTP文件获取器函数,但我并没有真正尝试解决“强迫用户等待文件完成”的问题 - 因此我很好,服务器做了它需要做的事情得到那个文件。

我是否应该考虑使用此SO示例中给出的Curl? Using CURL/PHP to download from FTP in chunks to save memory - Stack Overflow

或者,任何人都可以推荐来自https://packagist.org的现有软件包吗?

谢谢, 亚当

0 个答案:

没有答案