我们网站的欺诈检测和僵尸程序拦截器

时间:2017-12-28 06:46:19

标签: java google-app-engine

对于我们的网站,我们需要检查进来的流量是否是真实的,而不是来自BOT或任何其他欺诈。我们应采取的最佳方法是什么?

截至目前,我们正在做两件事:

  1. 解析用户代理并查找它是否是机器人。
  2. 检查来自ips的匹配,如果来自某些IP的点击达到特定时间的特定限制,我们就会阻止它。
  3. 我们还能做什么其他事情,是否有任何可用的服务,我们可以在点击我们的网站时调用,以检查请求是否是欺诈?

1 个答案:

答案 0 :(得分:1)

您可以在网站的根目录中创建 Robots.txt 文件。它是一个文件,用于配置哪些Bots可以访问哪些页面以及哪些机器人不允许抓取。因此,在您的情况下,您可以轻松配置阻止所有抓取工具,甚至包括Google搜索引擎 使用此配置

User-agent: *
Disallow: / 

guide可能会有所帮助。