网站robots.txt文件的安全设置
大家都知道robots.txt文件,能限制搜索引擎可以抓取哪些内容,不准抓取哪些内容。比如我们网站的后台就不希望被搜索抓取,那么robots文件需要这样写:
User-agent: *
Disallow: /dede/
但是,如果有人要破解网站的话,通过robots文件很容易就知道了后台地址,清楚了网站的结构。这对网站安全造成了威胁,我们并不希望这样!下面有两种方法解决这个问题
一、使用通符(*)
User-agent: *
Disallow: /d*/
这种的写法是禁止所有的搜索引擎抓取根目录下d开头的目录。那么,当你的后台是dede5的时候,还有谁会猜得到呢?
二、只写前几个字母
User-agent: *
Disallow: /de/
这样写是禁止所有的搜索引擎抓取根目录下de开头的目录。如果你的其他栏目有de开头的,你就要在robots.txt文件里面多写一个字母。
声明:
1.本站主要是为了记录工作、学习中遇到的问题,可能由于本人技术有限,内容难免有纰漏,一切内容仅供参考。
2.本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!
3.本站所有原创作品,包括文字、资料、图片、网页格式,转载时请标注作者与来源。
1.本站主要是为了记录工作、学习中遇到的问题,可能由于本人技术有限,内容难免有纰漏,一切内容仅供参考。
2.本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!
3.本站所有原创作品,包括文字、资料、图片、网页格式,转载时请标注作者与来源。
THE END