避免在Google中重复搜索页面

时间:2012-05-02 14:04:43

标签: seo robots.txt sitemap

我有一个网站搜索它有4个下拉菜单。这些下拉中的每一个都会重定向回相关页面,但使用url参数告诉它如何对结果进行排序。第一个下拉有13个选项,另外三个有4个选项。当然谷歌会看到重复的内容,并为它吃掉我的搜索引擎优化。

由于包含13个选项的下拉列表是一个类别排序器,所以我已经能够将重复的内容降低一点,因此我使用它来更改每个页面上的标题以帮助停止整个重复的内容,但另一个3是纯粹的分拣机,不能真正用来改变页面的标题(也不应该)。

所以我想出了一个解决方案:

  • 禁止robots.txt
  • 中的页面(/搜索)
  • 将13页(从类别分类器)添加到sitemap.xml,因为它们具有单独的标题,应该可以很好地工作。

问题是我应该在分拣机链接中添加一个nofollow来阻止谷歌使用它们,还是站点地图只是索引该网址而不是跟随其中的其他链接?

或者有更好的方法吗?

另外作为旁注:

如果我在sitemaps.xml中有一个URL,如:

/用户/视图?ID = 1

但我有一个robots.txt行,如:

禁止:/ user / view

Google仍然可以为站点地图网址编制索引,阻止访问此类动态网页是一种不错的做法吗?

谢谢,

2 个答案:

答案 0 :(得分:1)

答案 1 :(得分:0)

处理此问题的更好方法是使用canonical URLs。这将告诉Google哪个页面是“主”页面并将其包含在其索引中,并且与其重复的其他页面应被视为同一页面(并且不包括在搜索结果中)。这可以防止您不得不阻止页面,或者更糟糕的是,在内部页面上使用nofollow。事实上,在博客文章中我链接到他们提供的示例几乎与您的用例相同。