我对此有一些想法,但我可以看到两者都有问题。我不需要100%准确的数据。一个80%的解决方案允许我对我正在路由用户的最受欢迎的域进行概括,这很好。
选项1 - 使用PHP。通过文件track.php
路由链接,以确保引荐页面来自我的域,然后再跟踪点击。然后,该页面将用户路由到最终的预期URL。显然机器人可以欺骗这个。做多少?我也可以检查用户代理。再说一遍,我知道很多机器人都会欺骗这个。
选项2 - 使用JavaScript。在单击函数上执行JavaScript,将单击写入数据库,然后将用户定向到最终URL。
这两种方法都觉得它们可能会导致我的外发链接出现问题。跟踪这些外发点击的最有效方法是什么?
答案 0 :(得分:1)
跟踪外发链接的最有效方法(Facebook,Twitter和几乎所有搜索引擎都使用它)是“track.php
”类型文件。
检测机器人可能被视为一个单独的问题,这些问题很好地涵盖了这些方法:http://duckduckgo.com/?q=how+to+detect+http+bots+site%3Astackoverflow.com但是在User-Agent中对“bot”进行简单的字符串搜索可能会让您接近80%*(并且根据您正在处理的机器人的类型,观察/robots.txt
的命中率,将获得95%*)。
*:基于零具体数据的半教育猜测
答案 1 :(得分:1)
好吧,谷歌分析和Piwik使用Javascript。
由于机器人无法使用JS,因此您只会拥有人类。另一方面,人类也可以禁用JS(但真诚地,这种情况很少发生)
Facebook,Deviantart,WLM等使用服务器端脚本进行跟踪。我不知道他们如何过滤机器人但是一个带有一个或两个过滤器的漂亮robots.txt,这应该足以让我获得80%。