我有一个网站,没有网址或任何搜索引擎,任何人都无法访问它。
没有搜索引擎应该知道我的网站,只有拥有该链接的人才能访问它。有人可以提出最好的想法,因为我要分享我的办公室数据。
答案 0 :(得分:3)
您可以阻止大多数搜索引擎使用robots.txt文件为您的网站编制索引。更多详情:http://www.robotstxt.org/
然而,这不是很安全。有些机器人会忽略robots.txt。限制访问的最佳方法是要求用户在进入站点之前登录,或者使用防火墙仅允许该用户的IP地址。
答案 1 :(得分:1)
您需要将robots.txt文件添加到您网站的根文件夹中,表明搜索引擎蜘蛛不应该将游览网站编入索引。
http://www.robotstxt.org/robotstxt.html
但它留给搜索引擎来读取文件。最受欢迎的搜索引擎确实尊重此文件。另一种方法是在您的网站中没有index.htm或default.htm即使它存在,也要删除任何指向内部页面的链接。通过这种方式,蜘蛛永远不会知道您网站的网站结构。
答案 2 :(得分:1)
哇。 OK:
1)robots.txt http://www.robotstxt.org/robotstxt.html
2)认证。如果你正在使用apache,密码保护网站
3)确保没有人从任何地方链接到它。
4)考虑一个不同的选择,比如dropbox。 http://www.dropbox.com/