所以这就是问题所在,我已经创建了一个测试网站来创建新功能,但它被谷歌索引,这导致主站点出现相同数据的问题。
我使用了网站管理员工具,并在我写www.mytestsite.com/index.php
的地方添加了新的网址删除请求,是否会从谷歌搜索中删除所有这些网址,还是有其他方法可以快速删除它?
感谢您的帮助
答案 0 :(得分:4)
从“Google”搜索结果中完全删除整个页面的唯一方法:
虽然使用robots.txt来控制对服务器上的文件和目录的访问是有帮助的,但是不会将您编入索引。 Robots.txt 可以忽略。 Google不会抓取或索引robots.txt阻止的网页内容,但如果网址显示在网络上的其他网页上,他们仍会将您的网址编入索引。
要完全阻止网页内容列在Google网络索引中(即使其他网站链接到该网页),请使用 noindex meta tag 或 x-robots-tag < / strong>即可。只要Googlebot抓取该页面,它就会看到noindex元标记并阻止该页面显示在Web索引中。如果您希望限制非HTML文件(如图形或其他类型的文档)的索引,则x-robots-tag HTTP标头特别有用。
答案 1 :(得分:1)
使用无索引元标记:
https://support.google.com/webmasters/answer/93710?hl=en
服了410。
https://productforums.google.com/d/msg/webmasters/i70G2ZAhLmQ/neKEH4spacUJ
单独留下机器人txt让Google重新抓取。当URL从索引中移除时,请将机器人txt文件重新放回原位以阻止Google抓取。
此外,您还没有评论这是如何实际导致父网站出现问题。其他海报建议301重定向,如果父网站丢失流量,这似乎是合理的。
答案 2 :(得分:1)
这可能不是一个好的答案,只是有创意,所以请不要狠狠地砸我。您是否想过在爬行的页面上放置高度无价值,低图像高重复文本?谷歌会在接下来的几次抓住你的时候像石头一样让你失望。反SEO基本上,我有一个类似的问题,爬上我的管理测试网站,因为我的同事用机器人允许支持错误的构建。在我提出一堆广告词和Lorem Ipsum之前,我们花了很长时间才把它们拿下来。只是一个想法。
答案 3 :(得分:0)
服务器端HTTP 301重定向(永久移动)肝脏?以下是Google的链接:301 redirect
答案 4 :(得分:0)
你也可以通过机器人txt文件隐藏..而且你不需要删除它。机器人txt文件被添加到博客博客的根目录或任何站点中,以便搜索引擎知道博客爬行的哪个部分或哪个部分没有。搜索页面没有用,大多数情况下不允许通过谷歌浏览器进行抓取,归档可以是disallow,这样他们就不应该在搜索引擎中抓取。