阻止人们下载我的网站

时间:2016-06-05 11:57:27

标签: html css architecture system protection

我正在构建我的第一个网站之一,我想知道是否有可能避免使用像HTTrack这样的程序来下载我的网站。如果有任何其他(相当简单)的方法可以保护我的网站,我真的很感激帮助。

感谢。

4 个答案:

答案 0 :(得分:0)

尝试下载HTTrack并查看它发送到您服务器的标头。如果它们与常规浏览器不同,您可以使用它来检测该特定工具。

阻止人们下载您网站的最常用方法是不要将其放在互联网上。

答案 1 :(得分:0)

当您考虑people downloading my website时,他们只会收到您网站的HTML / CSS / javascript /图片!如果您有任何服务器端代码(例如:PHP),他们将无法获得它!因为客户端得到的是运行服务器端代码后的输出!

没有100%机制来锁定您网站的内容。您可以通过缩小和混淆来保护您的JavaScript代码到一定程度。但是有一些工具可以让人们美化它并让它变得可读!

有些人在发现其他人正在复制他们的设计时过去常常合法。但我认为大多数企业都不太担心。而不是担心those guys copied my design!,他们专注于改善他们的网站,并使他们的服务更好。这样他们的潜在客户就会留在他们的网站而不是去复制猫网站!

所以我的意见是,你应该不再担心它了。相反,更多地关注创建您的网站并使其真棒!如果您的网站是产品或服务,请尝试为您的客户提供出色的客户支持。这样他们将永远留在您的客户!

祝福。

答案 2 :(得分:0)

最好防止httrack,然后该软件和应用程序可以使用此代码复制您的网站设计 在.htaccess上

Options All -Indexes
RewriteBase /
RewriteCond %{HTTP_USER_AGENT} ADSARobot|ah-ha|almaden|aktuelles|Anarchie|amzn_assoc|ASPSeek|ASSORT|ATHENS|Atomz|attach|attache|autoemailspider|BackWeb|Bandit|BatchFTP|bdfetch|big.brother|BlackWidow|bmclient|Boston\ Project|BravoBrian\ SpiderEngine\ MarcoPolo|Bot\ mailto:craftbot@yahoo.com|Buddy|Bullseye|bumblebee|capture|CherryPicker|ChinaClaw|CICC|clipping|Collector|Copier|Crescent|Crescent\ Internet\ ToolPak|Custo|cyberalert|DA$|Deweb|diagem|Digger|Digimarc|DIIbot|DISCo|DISCo\ Pump|DISCoFinder|Download\ Demon|Download\ Wonder|Downloader|Drip|DSurf15a|DTS.Agent|EasyDL|eCatch|ecollector|efp@gmx\.net|Email\ Extractor|EirGrabber|email|EmailCollector|EmailSiphon|EmailWolf|Express\ WebPictures|ExtractorPro|EyeNetIE|FavOrg|fastlwspider|Favorites\ Sweeper|Fetch|FEZhead|FileHound|FlashGet\ WebWasher|FlickBot|fluffy|FrontPage|GalaxyBot|Generic|Getleft|GetRight|GetSmart|GetWeb!|GetWebPage|gigabaz|Girafabot|Go\!Zilla|Go!Zilla|Go-Ahead-Got-It|GornKer|gotit|Grabber|GrabNet|Grafula|Green\ Research|grub-client|Harvest|hhjhj@yahoo|hloader|HMView|HomePageSearch|http\ generic|HTTrack|httpdown|httrack|ia_archiver|IBM_Planetwide|Image\ Stripper|Image\ Sucker|imagefetch|IncyWincy|Indy*Library|Indy\ Library|informant|Ingelin|InterGET|Internet\ Ninja|InternetLinkagent|Internet\ Ninja|InternetSeer\.com|Iria|Irvine|JBH*agent|JetCar|JOC|JOC\ Web\ Spider|JustView|KWebGet|Lachesis|larbin|LeechFTP|LexiBot|lftp|libwww|likse|Link|Link*Sleuth|LINKS\ ARoMATIZED|LinkWalker|LWP|lwp-trivial|Mag-Net|Magnet|Mac\ Finder|Mag-Net|Mass\ Downloader|MCspider|Memo|Microsoft.URL|MIDown\ tool|Mirror|Missigua\ Locator|Mister\ PiX|MMMtoCrawl\/UrlDispatcherLLL|^Mozilla$|Mozilla.*Indy|Mozilla.*NEWT|Mozilla*MSIECrawler|MS\ FrontPage*|MSFrontPage|MSIECrawler|MSProxy|multithreaddb|nationaldirectory|Navroad|NearSite|NetAnts|NetCarta|NetMechanic|netprospector|NetResearchServer|NetSpider|Net\ Vampire|NetZIP|NetZip\ Downloader|NetZippy|NEWT|NICErsPRO|Ninja|NPBot|Octopus|Offline\ Explorer|Offline\ Navigator|OpaL|Openfind|OpenTextSiteCrawler|OrangeBot|PageGrabber|Papa\ Foto|PackRat|pavuk|pcBrowser|PersonaPilot|Ping|PingALink|Pockey|Proxy|psbot|PSurf|puf|Pump|PushSite|QRVA|RealDownload|Reaper|Recorder|ReGet|replacer|RepoMonkey|Robozilla|Rover|RPT-HTTPClient|Rsync|Scooter|SearchExpress|searchhippo|searchterms\.it|Second\ Street\ Research|Seeker|Shai|Siphon|sitecheck|sitecheck.internetseer.com|SiteSnagger|SlySearch|SmartDownload|snagger|Snake|SpaceBison|Spegla|SpiderBot|sproose|SqWorm|Stripper|Sucker|SuperBot|SuperHTTP|Surfbot|SurfWalker|Szukacz|tAkeOut|tarspider|Teleport\ Pro|Templeton|TrueRobot|TV33_Mercator|UIowaCrawler|UtilMind|URLSpiderPro|URL_Spider_Pro|Vacuum|vagabondo|vayala|visibilitygap|VoidEYE|vspider|Web\ Downloader|w3mir|Web\ Data\ Extractor|Web\ Image\ Collector|Web\ Sucker|Wweb|WebAuto|WebBandit|web\.by\.mail|Webclipping|webcollage|webcollector|WebCopier|webcraft@bea|webdevil|webdownloader|Webdup|WebEMailExtrac|WebFetch|WebGo\ IS|WebHook|Webinator|WebLeacher|WEBMASTERS|WebMiner|WebMirror|webmole|WebReaper|WebSauger|Website|Website\ eXtractor|Website\ Quester|WebSnake|Webster|WebStripper|websucker|webvac|webwalk|webweasel|WebWhacker|WebZIP|Wget|Whacker|whizbang|WhosTalking|Widow|WISEbot|WWWOFFLE|x-Tractor|^Xaldon\ WebSpider|WUMPUS|Xenu|XGET|Zeus.*Webster|Zeus [NC]
RewriteRule ^.* - [F,L]

答案 3 :(得分:0)

您可以通过以下方式告诉网络爬虫您喜欢或不喜欢哪个访问您的网站:

robots.txt

如果您还没有 robots.txt:

create a robots.txt and save this file on your webroot.

您可以添加 p.e.以下几行到您的 robots.txt

# Sample for you tell dont crawl anything from my website:
User-agent: *
Disallow: /

您可以配置robots.txt,p.e.对于不同的用户代理(爬虫)、文件夹、文件类型和其他一些。请通过您选择的搜索引擎检查这个 robots.txt 指南。或检查以下一项:

https://audisto.com/guides/robots.txt/

备注:

您可以禁止所有用户代理并允许所有知名浏览器和搜索引擎。或者不要全部禁止,只禁止您知道的用户代理,它们对您的网站做您不喜欢的事情。