我有一些用户要求在搜索引擎中使一些页面无法发现。虽然使用robots.txt
是一个想法,但我想将这些页面重定向到一个页面,解释在这种情况下使用NGINX发生的事情。
从本质上讲,这就是我想要的:
http://example.com/some/url.pdf --> http://example.com/redirected_due_to_privacy http://example.com/another_url --> http://example.com/redirected_due_to_privacy http://example.com/and/another --> http://example.com/redirected_due_to_privacy
我希望所有其他网址都指向自己(保持不变)。 这样做的最佳方式是什么?
答案 0 :(得分:0)
我认为您可以为每个页面创建不同的URL,并在nginx.conf的location模块中添加重写规则。
如:
重写“^ / redirected_due_to_privacy $”/ some / url.pdf break;
重写“^ / redirected_due_to_privacy1 $”/ another_url;
重写“^ / redirected_due_to_privacy2 $”/和/ other