Django robot.txt错误

时间:2013-06-15 18:43:01

标签: django

我正在尝试使用robot.txt禁用所有进入我的开发服务器的网页抓取工具以进行测试

当我在浏览器中输入127.0.0.1:8000/robot.txt时。为什么robot.txt不会出现在我的浏览器中?

Page not found (404)
127.0.0.1:8000/robot.txt

urls.py:

  from django.http import HttpResponse

  (r'^robots\.txt$', lambda r: HttpResponse("User-agent: *\nDisallow: /", mimetype="text/plain")),

2 个答案:

答案 0 :(得分:1)

您正在尝试访问robot.txt而不是robots.txt

您应该访问http://localhost/127.0.0.1:8000/robots.txt

答案 1 :(得分:0)

它应该在urls.py中,而不是在views.py中。

像这样:

from django.http import HttpResponse

urlpatterns = patterns('',
    ...
    (r'^robots\.txt$', lambda r: HttpResponse("User-agent: *\nDisallow: /", mimetype="text/plain"))
)