使用curl获取页面内容时出现问题

时间:2011-06-10 10:41:31

标签: curl

我对目前的情况感到有些困惑。 我需要检查合作伙伴网站中链接的存在,为此我正尝试使用以下命令获取页面内容:

"curl -A 'Mozilla\/5.0 (X11; U; Linux i686; hu; rv:1.9.2.12) Gecko\/20101026 Firefox\/3.6.12' -L --retry 2 -s -m 30 --connect-timeout 10 -b \/tmp\/cookie_file.txt -c \/tmp\/cookie_file.txt 'www.partnersite.com\/

事情是它工作很奇怪:有一次它返回页面的内容,然后另一次它得到空白的内容。 所以我检查了服务器的响应,发现有一次响应是:HTTP / 1.0 200 OK然后它获取空页面,然后另一次响应是“HTTP / 1.1 302对象移动”然后它获取内容。 怎么可能?你有什么想法吗? 提前谢谢。

1 个答案:

答案 0 :(得分:0)

亲爱的,而不是使用cURL使用'simple_html_dom'类,这个类很容易实现,你也可以找到文档。我用了很久很简单。与simple_html_dom相关的任何其他问题都与我联系。