目前我有一个后端应用程序,每个请求下载一个文件。该文件未在Web浏览器中下载到最终用户,我正在尝试从FTP服务器下载时找到提高性能的方法。
我使用ftp_ssl_connect
连接到相关的FTP服务器,当我收到要下载的文件时,我会使用模式ftp_fget
的{{1}}。
对于8 MB或更小的文件(它们是zip存档,b.t.w),性能很好,但我现在有30 MB到300 MB的文件。我理解“获取文件需要时间”,文件越大,所需时间越长......等等。
为了提高性能(或者我可能正在努力减少对系统的压力)我想或许以块的方式对大型文件进行FTP下载。到目前为止,我还没有在PHP FTP功能示例中看到太多。我读到了非阻塞的FTP文件获取器函数,但我并没有真正尝试解决“强迫用户等待文件完成”的问题 - 因此我很好,服务器做了它需要做的事情得到那个文件。
我是否应该考虑使用此SO示例中给出的Curl? Using CURL/PHP to download from FTP in chunks to save memory - Stack Overflow
或者,任何人都可以推荐来自https://packagist.org的现有软件包吗?
谢谢, 亚当