Lighthouse-robots.txt错误语法无法理解

时间:2018-10-31 19:08:45

标签: html html5 web testing frontend

当我用Lighthouse测试my website时,它发现我用robots.txt发现了50个错误,但我不知道是什么问题以及如何解决。它显示了我的index.html文件的内容,每一行都有错误。 出什么问题了?以及解决方法?

1 个答案:

答案 0 :(得分:2)

嗯,最近有一个类似的问题。我要做的就是手动生成robots.txt。只需在Google上搜索-generate robots.txt。然后将其上传到您的应用。生成sitemap.xml也很好。

如果您太懒了,您可以复制并粘贴以下代码:

User-agent: *
Allow: /
Disallow: /example  // example is directory u want to exclude, 
                    // if u dont want to exclude anything, just remove this line

Sitemap: https://example.com/sitemap.xml