我有以下robots.txt超过一年,看似没有问题:
User-Agent: *
User-Agent: iisbot
Disallow: /
Sitemap: http://iprobesolutions.com/sitemap.xml
收到以下错误
为什么googlebot阻止了我的所有网址,如果我选择的唯一不允许用于iisbot?
答案 0 :(得分:3)
将连续User-Agent
行添加到一起。因此Disallow
将适用于User-Agent: *
以及User-Agent: iisbot
。
Sitemap: http://iprobesolutions.com/sitemap.xml
User-Agent: iisbot
Disallow: /
您实际上不需要User-Agent: *
。
答案 1 :(得分:1)
您的robots.txt无效(根据original robots.txt specification)。
User-agent
行和至少一条Disallow
行。规范没有定义应该如何处理无效记录。因此,用户代理可能会将您的robots.txt解释为拥有一条记录(忽略空行),或者他们可能会将第一条记录解释为允许所有内容(至少这可能是假设)。
如果您想允许所有机器人(#34; iisbot"除外)抓取所有内容,您应该使用:
User-Agent: *
Disallow:
User-Agent: iisbot
Disallow: /
或者,您可以省略第一条记录,因为无论如何都允许一切都是默认值。但我更愿意在这里明确。