我的网站上有一个很大的问题。 请帮我解决。
我有一个网站,用户可以从不同的其他网站下载文件(例如,像upload.net这样的one-click-hoster)。我们就像代理一样。用户生成链接并直接下载文件。我们的脚本在服务器上没有下载。有点像高级链接生成器但不同。而非非法。
如果用户下载的文件大于1GB,则下载量达到1GB时将被取消。
在日志文件中我发现重复错误 "上游超时(110:连接超时),同时阅读响应"
我试图将设置设置得更高,但这并没有帮助。
我试过以下:
1. nginx.conf:
fastcgi_send_timeout 300s;
fastcgi_read_timeout 300s;
2. nginx host file:
fastcgi_read_timeout 300;
fastcgi_buffers 8 128k;
fstcgi_buffer_size 256k;
3. PHP.ini:
max_execution_time = 60 (but my php script will set it automaticly to 0)
max_input_time = 60
memory_limit = 128M
4. PHP-FPM >> www.conf
pm.max_children = 25
pm.start_servers = 2
pm.min_spare_servers = 2
pm.max_spare_servers = 12
request_terminate_timeout = 300s
但没有任何帮助。我该怎么做才能解决这个问题?
Server/Nginx Infos:
Memory: 32079MB
CPU: model name: Intel(R) Xeon(R) CPU E3-1230 v3 @ 3.30GHz (8 Cores)
PHP: PHP 5.5.15-1~dotdeb.1 (cli) (built: Jul 24 2014 16:44:04)
NGINX: nginx/1.2.1
nginx.conf:
worker_processes 8;
worker_connections 2048;
但是我觉得时间设置很重要。因为下载完全停止在每次1.604.408 KB。如果我以20kb / s下载,则下载需要更多时间,但将在1.604.408 KB上取消。
谢谢你的帮助。 如果您需要更多信息,请问我。
答案 0 :(得分:0)
我有类似的问题,下载将停在1024MB且有错误
readv() failed (104: Connection reset by peer) while reading upstream
将此添加到nginx.conf文件帮助:
fastcgi_max_temp_file_size 1024m;