搜寻被robots.txt

时间:2018-06-28 09:54:17

标签: web-crawler nutch robots.txt

可以抓取Wikipedia或复数视域之类的网站吗?如果是,那怎么办?我一直在尝试爬网类似的网站,但似乎其robots.txt文件中的爬网已被阻止。我该如何解决这个问题?

0 个答案:

没有答案