robots.txt如何禁止jpg.php

时间:2015-04-22 09:25:15

标签: apache robots.txt

你好看到朋友网站被黑了后我试图禁止任何双扩展文件。即myimage.jpg.php,但允许常规.jpg正常工作。

Disallow: *.* //disallow all extensions

Allow: *.jpg //now allow .jpg images
Disallow: *.jpg*?* //but not query strings

Disallow: *.php$ //now make sure .php files cant be touched
Disallow: *.*.php$ //double check jpg.php does not work <<--- this or above should work but it does not?

由于

2 个答案:

答案 0 :(得分:0)

你想要的不是robots.txt(计算机/蜘蛛完全可以阅读和遵循),而是.htaccess中的一项法律。如果您运行Apache服务器,那么您可以使用htaccess文件来控制您希望查看者/用户访问的内容。

差异是robots.txt是其他人可以选择的,而.htaccess则不是。<Files ~ ".*\.[a-z0-9]{1,6}\.[a-z0-9]{1,6}$"> Order deny,allow Deny from all </Files>

在.htaccess中试试这个:

dva na ôsmu

这会阻止访问任何具有双重扩展名的文件,但如果您不熟悉它,那么我建议您从这个优秀的网站上阅读htaccess:http://www.askapache.com/htaccess/htaccess.html

答案 1 :(得分:0)

首先,Robots.txt不会让黑客出局。机器人不会被迫阅读它。它只能被漂亮的机器人使用。

如果你想保留好的机器人,除了* .jpg,你可以使用它:

Disallow: *.*
Allow: *.jpg$

注意最后的$字符。

使用htaccess设置可访问文件的规则以及方式。