我们的网站被黑客入侵,并添加了指向随机内容的链接。我们完全删除了被黑客入侵的网站,并在其中放置了一个新网站。包括图像和内容在内的所有新内容,都未使用旧网站的其他部分。
我们现在遇到的问题是,黑客已向搜索bot提交了100,000个链接,并且bot试图每隔1秒连续访问服务器一次,试图对不存在和不存在的链接建立索引旧网站和新网站。
我们已尝试使用该网站的htaccess文件来解决此问题,该文件具有多种情况,并重写了一些规则来告诉漫游器内容已消失。
示例
RewriteCond %{REQUEST_URI} .*/product/.*
RewriteRule ^ - [R=410,L]
麻烦的是某些请求正在处理并产生301和404错误。
这导致漫游器再次重新测试该请求,并报告我们的网站有100,000个错误链接。
我正在寻找一种解决方案,该解决方案针对所有请求(不包括我们实际属于站点的所有源请求)向bot返回410代码。
该网站只有大约10页,但是它是一个Joomla CMS,因此大量资源会在后台加载以交付该页面。
我的想法是访问站点中的每个页面,并使用浏览器进行检查以收集页面提出的所有资源请求的列表。
问题是我该如何制定htaccess的条件和规则,以便传递包括路由/在内的所有页面请求,但不提供漫游器请求的黑客链接?
我们也正在努力向机器人发送电子邮件,以表明黑客正在煽动他们的请求。