运行用Scrapy Python编写的脚本时出现代理错误408

时间:2016-10-26 15:24:02

标签: python proxy web-scraping scrapy web-crawler

我正在使用代理(来自proxymesh)来运行用scrapy python编写的蜘蛛,当我不使用代理时脚本正常运行,但是当我使用它时,我有以下错误消息:< / p>

无法使用代理打开CONNECT隧道fr.proxymesh.com:31280 [{'status':408,'reason':'request timeout'}]

有关如何弄清楚的任何线索?

提前致谢。

1 个答案:

答案 0 :(得分:1)

谢谢..我在这里弄明白..问题是某些代理位置无法使用https ..所以我只是更改了它,现在它正在工作。