转移到HTTPS后,Google Search Console说我的robots.txt阻止了站点地图中的所有网址

时间:2017-03-30 07:17:42

标签: .htaccess ssl sitemap google-webmaster-tools google-search-console

昨天我在我的一个域名,更新的链接和站点地图等上安装了SSL证书。

今天我去了谷歌搜索控制台重新提交站点地图,我惊恐地发现站点地图中的URL中的 5,257 被{{1 }}。

我已将新的robots.txt媒体资源添加到Google Search Console,因此我在提交站点地图时遇到同样的错误,因为我访问了旧的https媒体资源。

这是我的http,可在https://adrdangerousgoods.com/robots.txt处找到:

robots.txt

我的域名为https://adrdangerousgoods.com,站点地图是站点地图,位于https://adrdangerousgoods.com/sitemap.xml。我使用Google Search Console中的工具对User-agent: * Sitemap: https://adrdangerousgoods.com/sitemap.xml Sitemap: http://adrfarligtgods.se/sitemap-swe.xml Allow: * 进行了测试,但它并未阻止任何内容(显然,因为它已配置为允许完全访问)。

我使用robots.txt.htaccess301 redirects的所有请求执行http://adrdangerousgoods.com

有什么想法在这里发生了什么?不确定我是否应该尝试等待,看看Google是否需要在某处刷新某些内容,或者我的sitemap / robots.txt /其他内容确实有问题。

1 个答案:

答案 0 :(得分:0)

请更换以下代码并尝试:
用户代理:*
允许:/


网站地图:https://adrdangerousgoods.com/sitemap.xml
网站地图:http://adrfarligtgods.se/sitemap-swe.xml

让我知道它是否有效。