我担心我的网站因为某些虚假流量显示在分析社交/ Facebook中,但详细而言,机器人在我的网站上随机选择假的错误网址,如example.com/page?=__HzoblPdx
,但实际网址为example.com/page/HzoblPdx/title-title
。我想屏蔽此链接page?=__HzoblPdx.
有人帮我解决这个问题吗?
答案 0 :(得分:3)
您可以在.htaccess
文件中使用以下内容轻松完成此操作:
RewriteEngine on
Options +FollowSymlinks
RewriteCond %{HTTP_REFERER} domain\.com/page\?=__HzoblPdx [NC,OR]
RewriteCond %{HTTP_REFERER} www\.domain\.com/page\?=__HzoblPdx [NC]
RewriteRule .* - [F]
这将阻止访问尝试通过该域访问的任何机器人。确保在>>测试之前清除缓存。
答案 1 :(得分:1)
检查apache访问日志并检查尝试访问不存在页面的访问者的用户代理字符串。您可以使用robots.txt完全阻止某些用户代理。
您可以从google获取有关robots.txt的大量信息。这是一个关于它的网站,你可以阅读。 http://www.robotstxt.org/
答案 2 :(得分:0)
使用mod_rewrite在.htaccess
文件顶部附近尝试以下操作:
RewriteEngine On
RewriteCond %{QUERY_STRING} ^=_
RewriteRule ^ - [F]
这会阻止(403 Forbidden)包含以=_
开头的查询字符串的任何请求的URL。
虽然这个URL参数映射到真实URL的事实看起来可能是错误的配置错误,机器人能够找到它?