我在我的htaccess中设置'拒绝'以阻止某些垃圾邮件机器人解析我的网站。在使用下面的代码时,我注意到在我的日志文件中我收到了很多“客户端被服务器配置拒绝”,并且当机器人开始扫描时,它会使日志文件变得混乱。有什么想法吗?
谢谢, 史蒂夫
<Files *>
order allow,deny
allow from all
deny from 123.45.67.8
</Files>
我最终选择了以下内容:
RewriteCond %{REMOTE_ADDR} 123.4.3.4.5
RewriteRule (.*) - [F,L]
答案 0 :(得分:2)
在这里查看条件记录 - 我认为这将提供您需要的一切:
http://httpd.apache.org/docs/2.2/logs.html
另外 - 如果您可以确定各种机器人总是来自特定的IP地址,您可以在hosts.allow / deny文件中阻止它们通过VIA IP地址或自动使用诸如blockhosts或者mod_evasive之类的东西,这样就可以了永远不会看到记录它们的请求。
-Sean
<强>更新强> 你手动识别IP地址然后将它们添加到你的htaccess吗?这听起来很痛苦。如果你真的想这样做,我会建议你用防丢规则阻止防火墙的IP地址,或者如上所述在主机允许/拒绝。
SPURIOUS BROKEN RECORD UPDATE: 看看blockhosts,它可以根据他们的“行为”来阻止ip地址。将消除你每天手动修剪它们的需要。
答案 1 :(得分:0)
您可以将日志文件发送到程序(也称为脚本)。
也许实现一个脚本而不仅仅是给出一个定期的摘要?)。其余的日志文件?