Wordpress虚拟robots.txt重写手动创建的robots.txt

时间:2014-05-09 01:24:46

标签: wordpress seo robots.txt

我正在使用WP 3.9安装on godaddy WP托管主机计划运行冲动新闻主题。我没有让Discourage搜索引擎检查索引此站点。

我只在SEO插件上安装了Yoast SEO插件。 robots.txt文件可在编辑文件下的YOAST SEO插件上编辑。如果您访问网站http://260.303.myftpupload.com/robots.txt,则可以看到robots.txt生成为:

User-agent: *
Disallow: /

在YOAST插件中,它将robots.txt显示为:

User-agent: *
Crawl-delay: 1
Disallow: /wp-content/plugins/
Disallow: /wp-includes/
Disallow: /wp-admin/
Disallow: /wp-admin

我可以通过FTP查看该文件,并且可以验证服务器上是否存在robots.txt文件并匹配Yoast插件中显示的内容。

似乎WP虚拟文件覆盖了手动创建的robots.txt文件。我删除了该文件并通过Yoast生成了它。我已删除该文件并通过FTP直接上传。无论哪种方式http://260.303.myftpupload.com/robots.txt都只显示:

User-agent: *
Disallow: /

请帮忙!

1 个答案:

答案 0 :(得分:0)

我们将WordPress托管主机从临时URL移动到实时网址后,robots.txt正确反映出来。我认为godaddy在他们的服务器上有一个重要的robots.txt函数,用于使用临时网址的所有托管计划。