我的继续传奇:
我在 CentOS 7.4 系统上运行 Artifactory Pro 5.8.4 ,该系统使用Artifactory的内置 Nginx 服务作为反向代理。大多数情况下,在下载大型对象期间,连接失败。此外,在失败的连接中传输的最后几千字节数据似乎是垃圾;因此,该文件在恢复时在某个中间的某个部分无效。 Nginx记录失败时提供以下错误消息:
2018/01/22 23:26:32 [错误] 884#0:* 48048865 readv()失败(104:通过对等方重置连接)在读取上游时,客户端:12.2.178.130,服务器:〜(?。 +)artifactory.common.mycoolco.com,请求: “GET /控制器/释放/ 20171218-2119-2aa9f0e8c32bf3f08dd96a97127204d1f400f895fa2e67100a3830861c0becb0bfae28244c058510c8312e98378c0b77251b4bb7926ceae2d465ce2d533b88dc HTTP / 1.1”,上游: “http://127.0.0.1:8081/artifactory/controller/release/20171218-2119-2aa9f0e8c32bf3f08dd96a97127204d1f400f895fa2e67100a3830861c0becb0bfae28244c058510c8312e98378c0b77251b4bb7926ceae2d465ce2d533b88dc”,主机:“artifactory.common.mycoolco.com “
Artifactory日志通常但不总是会出现类似这样的错误:
2018-01-22 23:14:20,106 [http-nio-8081-exec-87] [WARN](o.a.r.ArtifactoryResponseBase:137) - 客户关闭请求499:java.net.SocketTimeoutException
任何进一步的诊断建议都将受到赞赏。
这不会影响任何明显的变化: 作为一个后续,我将通过编辑nginx.conf文件(/ etc / opt / rh / rh-nginx18 / nginx / nginx)在我的维护窗口中更改一些测试设置(SUN,MAR.18TH)。 .conf)包含设置“worker_processes 2”(当前为1),增加1024到2048之间的工作连接,并将keepalive_timeout从65更改为130.
我们在AWS中托管了一个Artifactory实例,没有其他代理也没有负载均衡器;只是一个实例和一个指向私有IP地址的路由53条目。我们看到基线10%的CPU使用率,每15分钟就有100%的峰值......显然来自java进程。 java -version:openjdk版本“1.8.0_161”OpenJDK运行时环境(版本1.8.0_161-b14)OpenJDK 64位服务器VM(版本25.161-b14,混合模式)。现在在artifactory.version:5.8.4
> --2018-03-08 22:09:42-- https://artifactory.common.mycoolco.com/controller/pre-release/20180308-2216-023a0b8309af8889
Resolving artifactory.common.mycoolco.com (artifactory.common.mycoolco.com)... 55.111.66.99
Connecting to artifactory.common.mycoolco.com (artifactory.common.mycoolco.com)|55.111.66.99|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1241911191 (1.2G) [application/octet-stream]
Saving to: ‘20180308-2216-023a0b8309af8889’
20180308-2216-c3499ea023a0b8309 86%[=============================================> ] 1.00G 568KB/s in 1m 31s
2018-03-08 22:30:14 (857 KB/s) - Connection closed at byte 1079774172. Retrying.
--2018-03-08 22:30:15-- (try: 2) https://artifactory.common.mycoolco.com/controller-os/pre-release/20180308-2216-023a0b8309af8889
Connecting to artifactory.common.mycoolco.com (artifactory.common.mycoolco.com)|55.111.66.99|:443... connected.
HTTP request sent, awaiting response... 206 Partial Content
Length: 1241911191 (1.2G), 162137019 (155M) remaining [application/octet-stream]
Saving to: ‘20180308-2216-023a0b8309af8889’
20180308-2216-c3499ea023a0b8309 100%[++++++++++++++++++++++++++++++++++++++++++++++=======>] 1.16G 1.08MB/s in 0m 22s
2018-03-08 22:32:38 (1.09 MB/s) - ‘20180308-2216-023a0b8309af8889’ saved [1241911191/1241911191]
答案 0 :(得分:1)
问题可能归因于proxy_max_temp_file_size。默认值为1GB。检查proxy_max_temp_file_size 0
是否有帮助。
答案 1 :(得分:0)
通过错误消息,问题似乎是远程存储库上的“套接字超时(MS)”参数(正如您在评论中提到的那样)。 要解决此问题,请转到Artifactory UI - >远程存储库 - >编辑出现问题的存储库 - >转到高级选项卡 - >编辑'套接字超时(MS)'参数并扩展它。
如果这不是远程存储库而是远程实例上的本地存储库,则可能是Artifactory前面的代理问题。