Robots.txt用法

时间:2011-01-13 08:43:41

标签: robots.txt

Google刚刚在我使用的链接跟踪器上发现了数千个重复内容错误。

我想让它成为Google&任何其他搜索引擎都不会访问链接跟踪器上的我的页面。

我希望这些网页禁止使用这些机器人,我的网页是:

http://www.site.com/page1.html
http://www.site.com/page2.html

我如何编写robots.txt以使所有机器人在我的页面中都不会访问这些链接?

2 个答案:

答案 0 :(得分:3)

创建包含以下文字的robots.txt

User-Agent: *
Disallow: /page1.html
Disallow: /page2.html

然后必须将文件放在http://www.site.com/robots.txt

有关详细信息,请参阅Wikipedia

此外,Google还有一个robots.txt tester,可通过其网站站长工具获取,它可让您验证其格式是否正确。

答案 1 :(得分:0)

robots.txt必须放在您网站的根目录中,广告中包含:

User-agent: *
Disallow: page1.html
Disallow: page2.html

“User-agent:*”表示每个SE都不会关闭disallow dirs / pages上的链接

编辑:您还应该将此元标记放在page1和page2

<meta name="robots" content="NOINDEX, NOFOLLOW"/>