标签: robots.txt
我希望就如何解决公司遇到的问题获得一些建议。我们已经收到了成千上万次如下所示的搜索请求失败:
Binson网站上的Google搜索请求失败。 403禁止 查询:“清洁身体产品” 重试次数:3/3 由GSearch.pm生成
Binson网站上的Google搜索请求失败。 403禁止 查询:“清洁身体产品”
重试次数:3/3
由GSearch.pm生成
我以为是一个用来爬网的盒子,并创建了robots.txt文件,禁止所有漫游器。
User-agent: * Disallow: /
这并没有改变任何事情,并且想知道我是否还有其他办法可以解决此问题。
非常感谢您的提前帮助!