如何阻止我的网站从所有网站

时间:2011-03-29 15:33:16

标签: search-engine

我有一个网站,没有网址或任何搜索引擎,任何人都无法访问它。

没有搜索引擎应该知道我的网站,只有拥有该链接的人才能访问它。有人可以提出最好的想法,因为我要分享我的办公室数据。

3 个答案:

答案 0 :(得分:3)

您可以阻止大多数搜索引擎使用robots.txt文件为您的网站编制索引。更多详情:http://www.robotstxt.org/

然而,这不是很安全。有些机器人会忽略robots.txt。限制访问的最佳方法是要求用户在进入站点之前登录,或者使用防火墙仅允许该用户的IP地址。

答案 1 :(得分:1)

您需要将robots.txt文件添加到您网站的根文件夹中,表明搜索引擎蜘蛛不应该将游览网站编入索引。

http://www.robotstxt.org/robotstxt.html

但它留给搜索引擎来读取文件。最受欢迎的搜索引擎确实尊重此文件。另一种方法是在您的网站中没有index.htm或default.htm即使它存在,也要删除任何指向内部页面的链接。通过这种方式,蜘蛛永远不会知道您网站的网站结构。

答案 2 :(得分:1)

哇。 OK:

1)robots.txt http://www.robotstxt.org/robotstxt.html

2)认证。如果你正在使用apache,密码保护网站

3)确保没有人从任何地方链接到它。

4)考虑一个不同的选择,比如dropbox。 http://www.dropbox.com/