如何防止漏洞扫描

时间:2013-03-19 01:25:37

标签: asp.net security web-crawler error-reporting

我有一个网站,报告我的电子邮件中每个非预期的服务器端错误。

很多时候(每1-2周一次)有人推出了自动化工具,用大量不同的网址轰炸网站:

  • 有时候他们(黑客?)认为我的网站内有phpmyadmin托管,他们试图访问易受攻击的(我相信)php-pages ...
  • 有时候他们会尝试访问真正缺席但属于热门CMS的页面
  • 上次他们试图注入错误的ViewState ......

显然不是搜索引擎蜘蛛,因为产生错误的请求的100%是对无效页面的请求。

现在他们没有做太多的伤害,唯一的一个是我需要删除大量的服务器错误电子邮件(200-300)......但在某些时候他们可能会找到一些东西。

我真的厌倦了这一点,并寻找阻止这种“蜘蛛”的解决方案。

有什么可以使用的吗?任何工具,dll等......或者我应该自己实现一些东西?

在第二种情况下:您能否推荐实施方法?我应该限制每秒IP的请求数量(假设每秒不超过5个请求,每分钟不超过20个)?

P.S。现在我的网站是使用ASP.NET 4.0编写的。

3 个答案:

答案 0 :(得分:2)

你无法做任何事情(可靠的)来阻止 vulernability扫描 ,唯一要做的就是确保你处于任何漏洞之上并阻止< strong> vulernability exploit

如果您的网站仅由少数人使用,并且在不变的位置,您可以使用IP限制

答案 1 :(得分:2)

如果您只是更新服务器和软件,这样的机器人不太可能在您的系统中发现任何漏洞。他们通常只是寻找低悬的水果,即没有更新以修复已知漏洞的系统。

您可以制作机器人陷阱以最大限度地减少此类流量。只要有人试图访问您知道的那些不存在的页面之一,您就可以暂停使用相同的浏览器字符串停止来自该IP地址的所有请求。

答案 2 :(得分:2)

有几件事你可以考虑......

您可以使用其中一个可用的Web应用程序防火墙。它通常有一套规则和分析引擎,用于确定可疑活动并做出相应反应。例如,在您的情况下,它可以自动阻止扫描您网站的尝试,因为它将其识别为攻击模式。

更简单(但不是100%解决方案)的方法是检查referer url(wiki中的referer url描述),如果请求源自你的某个页面而你拒绝它(你可能应该为此创建httpmodule)。 / p>

因为您希望确保您的网站解决了OWASP TOP 10列表中的所有已知安全问题(OWASP TOP 10)。你可以在这里找到如何为asp.net做的非常全面的描述(owasp top 10 for .net book in pdf),我还建议你阅读上述书籍作者的博客:http://www.troyhunt.com/