对于我们的网站,我们需要检查进来的流量是否是真实的,而不是来自BOT或任何其他欺诈。我们应采取的最佳方法是什么?
截至目前,我们正在做两件事:
我们还能做什么其他事情,是否有任何可用的服务,我们可以在点击我们的网站时调用,以检查请求是否是欺诈?
答案 0 :(得分:1)
您可以在网站的根目录中创建 Robots.txt 文件。它是一个文件,用于配置哪些Bots可以访问哪些页面以及哪些机器人不允许抓取。因此,在您的情况下,您可以轻松配置阻止所有抓取工具,甚至包括Google搜索引擎 使用此配置
User-agent: *
Disallow: /
此guide可能会有所帮助。