robots.txt
是否接受正则表达式?
我有很多URL
个格式:
https://example.com/view/99/title-sample-text
ID ----------------------^
Title -----------------------------^
我用过这个:
Disallow: /view
但看起来这样做不起作用,因为google
索引了更多页面。所以我想用正则表达式做这个,像这样:
Disallow: /view/([0-9]+)/([^/]*)
但这是正确的格式还是有效robots.txt
?
答案 0 :(得分:4)
您可以使用通配符...
User-agent: *
disallow: /view/*
希望这有帮助。