从谷歌搜索中删除整个页面

时间:2013-08-08 13:59:37

标签: google-search google-webmaster-tools

所以这就是问题所在,我已经创建了一个测试网站来创建新功能,但它被谷歌索引,这导致主站点出现相同数据的问题。

我使用了网站管理员工具,并在我写www.mytestsite.com/index.php的地方添加了新的网址删除请求,是否会从谷歌搜索中删除所有这些网址,还是有其他方法可以快速删除它?

感谢您的帮助

5 个答案:

答案 0 :(得分:4)

从“Google”搜索结果中完全删除整个页面的唯一方法:

  1. Webmaster Tools home page上,点击您想要的网站。
  2. 在信息中心,点击左侧菜单中的 Google索引
  3. 点击删除网址
  4. 点击新移除请求
  5. 键入要从搜索结果中删除的网页的网址(不是Google搜索结果网址或缓存网页网址),然后点击继续。如何找到正确的URL。 URL区分大小写 - 使用与站点使用的字符和大小写完全相同的字符和大小写。
  6. 点击,删除此页面。
  7. 点击提交请求。

  8. 虽然使用robots.txt来控制对服务器上的文件和目录的访问是有帮助的,但是不会将您编入索引。 Robots.txt 可以忽略。 Google不会抓取或索引robots.txt阻止的网页内容,但如果网址显示在网络上的其他网页上,他们仍会将您的网址编入索引。

    要完全阻止网页内容列在Google网络索引中(即使其他网站链接到该网页),请使用 noindex meta tag x-robots-tag < / strong>即可。只要Googlebot抓取该页面,它就会看到noindex元标记并阻止该页面显示在Web索引中。如果您希望限制非HTML文件(如图形或其他类型的文档)的索引,则x-robots-tag HTTP标头特别有用。

答案 1 :(得分:1)

使用无索引元标记:

https://support.google.com/webmasters/answer/93710?hl=en

服了410。

https://productforums.google.com/d/msg/webmasters/i70G2ZAhLmQ/neKEH4spacUJ

单独留下机器人txt让Google重新抓取。当URL从索引中移除时,请将机器人txt文件重新放回原位以阻止Google抓取。

此外,您还没有评论这是如何实际导致父网站出现问题。其他海报建议301重定向,如果父网站丢失流量,这似乎是合理的。

答案 2 :(得分:1)

这可能不是一个好的答案,只是有创意,所以请不要狠狠地砸我。您是否想过在爬行的页面上放置高度无价值,低图像高重复文本?谷歌会在接下来的几次抓住你的时候像石头一样让你失望。反SEO基本上,我有一个类似的问题,爬上我的管理测试网站,因为我的同事用机器人允许支持错误的构建。在我提出一堆广告词和Lorem Ipsum之前,我们花了很长时间才把它们拿下来。只是一个想法。

答案 3 :(得分:0)

服务器端HTTP 301重定向(永久移动)肝脏?以下是Google的链接:301 redirect

答案 4 :(得分:0)

你也可以通过机器人txt文件隐藏..而且你不需要删除它。机器人txt文件被添加到博客博客的根目录或任何站点中,以便搜索引擎知道博客爬行的哪个部分或哪个部分没有。搜索页面没有用,大多数情况下不允许通过谷歌浏览器进行抓取,归档可以是disallow,这样他们就不应该在搜索引擎中抓取。