Google已经抓住了一些其他网站上现有的网页,因此我实施了301重定向。我已经通过手动输入一些用户实际重定向到新网站的URL进行了验证。
但是,GoogleBot仍在尝试反复访问旧网址。重定向规则已经存在超过一年了。似乎301重定向对Google没有影响。与雅虎蜘蛛一样。
这是我的VirtualHost条目。重写规则将与三种模式匹配的所有请求重定向到新网站。
<VirtualHost *:80>
<Directory /home/web0000/www>
Options FollowSymLinks Indexes ExecCGI
Order allow,deny
Allow from all
AllowOverride All
</Directory>
CustomLog "|/opt/httpd/bin/rotatelogs -l /home/web0000/log/access_log.%Y-%m-%d-%H_%M_%S 86400" combined
ErrorLog "|/opt/httpd/bin/rotatelogs -l /home/web0000/log/error_log.%Y-%m-%d-%H_%M_%S 86400"
DocumentRoot /home/web0000/www
ServerAdmin admin@mydomain.de
ServerName www.myolddomain.de
RewriteEngine On
RewriteCond %{REQUEST_URI} ^/de/.* [OR]
RewriteCond %{REQUEST_URI} ^/en/.* [OR]
RewriteCond %{REQUEST_URI} ^/es/.*
RewriteRule ^(.*) http://www.mynewdomain$1 [R=301,L]
</VirtualHost>
以下是日志文件条目示例:
www.myolddomain.de 66.249.66.217 - - [17/Jun/2011:15:21:55 +0200]
"GET /de/kontakt.html HTTP/1.1" 301 294 "-"
"Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
请告知如何进行重定向,以便Google最终了解更改。
答案 0 :(得分:0)
确保你实际上给spyder一个页面的301标题(进行一些测试)。
最重要的是从这些网址中清除你的serp。您还应该能够在Google Web Master Tool中删除此类网址。