SEO改变从Wordpress网站中更改robots.txt文件

时间:2010-03-16 15:48:59

标签: wordpress plugins seo robots.txt

我最近使用wordpress插件编辑了我网站上的robots.txt文件。但是,由于我这样做,谷歌似乎已从他们的搜索页面删除了我的网站。如果我能得到关于为什么会这样,以及可能的解决方案的专家意见,我将不胜感激。我最初是通过限制谷歌访问的页面来增加搜索排名。

这是我在wordpress中的robots.txt文件:

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: /category/*/*
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Allow: /wp-content/uploads

Sitemap: http://www.instant-wine-cellar.co.uk/wp-content/themes/Wineconcepts/Sitemap.xml

3 个答案:

答案 0 :(得分:5)

对于WordPress来说,这是一个很好的robots.txt指令。如果您希望将上传内容编入索引,请添加Allow: /wp-content/uploads,但这没有意义,因为所有图片,pdf等都包含在您的帖子和页面中,并在那里编入索引。

User-agent: *
Allow: /
Disallow: /*?s=
Disallow: /wp-admin/*
Disallow: /wp-content/*
Disallow: /wp-includes/*
Disallow: /wp-content/cache
Disallow: /wp-content/themes/*
Disallow: /trackback
Disallow: /comments
Disallow: /category/
Disallow: */trackback
Disallow: */comments

但最重要的信息是在你的页面来源:

<meta name='robots' content='noindex,nofollow' />

这意味着您在仪表板/设置/隐私中设置了隐私,即使在访问robots.txt之前也阻止了所有搜索机器人。

获得一个好的robots.txt文件并更改Wordpress隐私设置后,Google网站管理员工具会提高您的抓取速度,让Google更快地访问该网站。

答案 1 :(得分:2)

注意:“您已阻止所有机器人,因为您错过了关键允许:/用户代理后:*”不正确。默认情况下,robots.txt将允许所有抓取,您通常不需要指定任何“允许”指令。

然而,“noindex”漫游器元标记将是不对网站内容编制索引的原因。

此外,robots.txt目前阻止所有抓取,以便搜索引擎无法判断该网站是否可以再次编入索引。如果您希望再次为站点编制索引,则需要从robots.txt文件中删除“disallow:/”。您可以在Google的网站管理员工具中验证这一点,方法是查找最新的robots.txt文件,或使用“获取Googlebot”功能来测试网站上网页的抓取情况。

答案 2 :(得分:1)

我建议你使用谷歌网站主工具robots.txt检查器并输入正在消失的网址,并确保谷歌仍然会去那里。

通过这种方式,您可以验证它是否是您的robots.txt或其他内容