我的网站上有一些404
个错误页面。什么是阻止谷歌索引它们的最好方法?
选项1
header("HTTP/1.0 410 Gone");
如果内容没有消失怎么办?例如:the article does not exist.
或wrong parameter has been caught
选项2
<meta name="robots" content="noindex" />
它只影响一个页面还是整个域?
选项3
使用404会产生一些其他问题,我想避免。
的robot.txt
此选项不起作用,因为错误将取决于数据库而不是静态的。
答案 0 :(得分:1)
如果删除内容,最佳做法是对您网站上的类似内容进行301重定向。
要停止Google为您网站的某些区域编制索引,请使用robots.txt
更新:如果您发送200 OK
并添加漫游器元标记(问题中的选项2) - 这应该可以满足您的需求。
答案 1 :(得分:0)
防止谷歌机器人索引的一种方法是使用机器人文件:
User-agent: googlebot
Disallow: /mypage.html
Disallow: /mp3/
这样您就可以手动禁用单个页面或整个目录。