我在Heroku上运行我们的生产和测试站点。我有一个robots.txt和sitemap,我只想在生产中运行(这样google就不会开始抓取我们的测试网站,并在真实网站上对重复内容进行处罚)。
最简单的解决方案就是在测试网站上添加if语句到urls.py,使其不包含/robots.txt和/sitemap.xml。但是,我无法弄清楚如何做到这一点。
我可以在我的测试网站上包含一个不同的robots.txt文件,该文件不允许抓取任何似乎是正常解决方案的网页。但是,当我们添加更多类型的站点地图等时,在urls.py中添加一个if / else语句会更容易。
任何人都有这个问题的优雅解决方案吗?
答案 0 :(得分:0)
我会这样做:
from django.conf import settings
urlpatterns = patterns('',
...
)
if settings.DEBUG:
urlpatterns += patterns('',
...
)