如何使用robots.txt停止机器人爬行分页?

时间:2012-07-13 19:35:20

标签: seo pagination robots.txt

我的网站上有各种各样的分页,我想停止谷歌和其他搜索引擎抓取我的分页索引。

已抓取网页的示例:

http://www.mydomain.com/explore/recently-updated/index/12

如何使用robots.txt拒绝机器人抓取包含/ index /?

的任何网页

2 个答案:

答案 0 :(得分:3)

Disallow: /*?page=
Disallow: /*&page=

答案 1 :(得分:1)

我相信如果您使用以下内容在根网站目录中创建robots.txt文件:

User-agent: *
Disallow: /explore/recently-updated/index/

尝试一下,然后使用某人(可能是谷歌的)机器人检查器来确保它被停止。