所以我一直在玩这个约一个小时。我以为我在机械化方面做了很多练习,但我猜不是。我一直在尝试加载一个网页,我想在复制所有浏览器标题后,我会很好,但我已经复制了它(用户代理,还有大约5个其他人)。看看我到目前为止所设置的内容:
Br = mechanize.Browser()
Br.addHeaders = [("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:25.0) Gecko/20100101 Firefox/25.0"),("Accept","text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8"),("Accept-Language","en-US,en;q=0.5"),("Accept-Encoding","gzip, deflate"),("Connection","keep-alive"),("Host","fiverr"),("Cache-Control","max-age=0")]
Br.set_handle_robots(False)
Br.set_handle_equiv(False)
但是,当我提出请求时,我只是得到httperror_seek_wrapper:HTTP错误403:禁止
我认为答案与cookie有关,但是当我删除Firefox中的所有cookie,然后加载页面时,它仍然可以正常加载。因此,不需要初始cookie。我相信mechanize默认接受cookie,所以我没有编写任何涉及cookie的内容。
有没有人有任何想法我接下来应该尝试什么?