我现在的.htaccess已经
了curl -s -u user:pass -X GET "http://your.confluence.com/confluence/rest/api/content?title=testpage&spaceKey=SPACEKEY&expand=body.storage"
碰巧的是,所有RewriteRule ^(.+)\.txt$ /404.php [r=301,nc]
个文件都会重定向到.txt
。
代码对我来说似乎没问题,但这也会重定向robots.txt文件的请求。
我想仅取消阻止404.php
文件并保留其他robots.txt
文件链接重定向。
答案 0 :(得分:0)
您可以使用以下选项之一从规则中排除 robots.txt 文件:
regex negitive lookahed:
RewriteRule((?!robots)。+)。txt $ /404.php [r = 301,nc]
negitive rewriteCond
RewriteCond%{REQUEST_URI}!/robots.txt $ RewriteRule ^(。+)。txt $ /404.php [r = 301,nc]
跳过/robots.txt
RewriteRule robots.txt $ - [L] RewriteRule ^(。+)。txt $ /404.php [r = 301,nc]
答案 1 :(得分:0)
使用以下规则集
RewriteEngine on
RewriteCond %{REQUEST_URI} !/robots\.txt$
RewriteRule ^(.+)\.txt$ /404.php [R=301,L]