缓存远程访问的网站

时间:2015-06-15 19:04:02

标签: php caching curl centos

我有一个经常检索远程网站的应用程序(通过cURL),我想知道有哪些关于缓存这些HTTP请求的选项。例如:

application -->curl-->www.example.com

问题是cURL可能在一小时内被调用数百次,并且每次都需要发出数百个HTTP请求,这些请求基本相同。那么,我能做些什么来加快速度呢?我正在试验Traffic server,但对结果并不十分满意。我想DNS缓存是必须的,但我还能在这做什么呢?应用程序运行的系统是CentOS。

1 个答案:

答案 0 :(得分:0)

我不知道为什么Traffic Server没有提供令人满意的结果,但一般来说,使用缓存的正向代理设置是这样做的方法。您当然要确保来自www.example.com的响应可通过高速缓存代理服务器上的配置或直接在源(example.com)上进行高速缓存。这可能是代理缓存世界中最大的混乱,对可缓存或不可缓存的期望不符合要求。