有没有办法让网页成为任何搜索引擎无法搜索的简历?
目的是仅与拥有该链接的人共享该页面。
答案 0 :(得分:5)
还有更多要点,我更愿意全部应用它们:
正如 Daniel 在他的回答中所说:
1)在您的网站位置http://example.com/robots.txt
User-agent: *
Disallow: /
这意味着:对于所有机器人/抓取工具,不允许索引任何URI 这个位置。
2)如果 robots.txt意外跳过或损坏,您可以在所有页面上的HTML源代码中执行以下操作:< / p>
这意味着:如果访问此页面,请不要将此页面编入索引,即使不抓取其链接 - 换句话说 - 停止并离开此处。 3)如果您的网站不专用于公开,请在.htaccess中创建密码(例如,如果使用Apache)。因此,当用户尝试进入该网站时,他需要用户名和密码。 4)如果您的网站已经以某种方式已编入索引,并且您希望将其停用以供公众搜索,则可以从Google移除网址&# 39;使用Google网站站长工具索引:<!DOCTYPE html>
<html>
...
<head>
<meta name="robots" content="noindex, nofollow" />
</head>
...
</html>
答案 1 :(得分:2)
在您网站的根目录中创建一个名为robots.txt的文件,其中包含以下内容:
User-agent: *
Disallow: /
这将阻止所有主要搜索引擎对网站编制索引。