由robots.txt修复的重复内容?

时间:2012-03-24 00:43:14

标签: html seo

我有以下相同内容的网址:

http://www.mysite.com/forum/viewthread.php?thread_id=39&pid=1349
http://www.mysite.com/forum/viewthread.php?forum_id=2&thread_id=39

目前这是SEO明智的问题。

我可以通过简单地将其添加到我的robots.txt来解决我的搜索引擎优化问题:
禁止:/forum/viewthread.php?forum_id = *&

或者这不会解决任何问题?

1 个答案:

答案 0 :(得分:1)

要回答“是”问题,您可以使用robots.txt来阻止该网址。

参考:http://support.google.com/webmasters/bin/answer.py?hl=en&answer=156449

但根据马特的说法,更准确的方法是:

如果内容真正重复,并且基本上有多种方式登陆该页面,我建议使用canaonical网址。他们基本上告诉蜘蛛这个页面=多个页面的共同网址。

参考:http://www.mattcutts.com/blog/seo-advice-url-canonicalization/