留言与评论(共有 0 条评论) |
发布时间:2020-04-15 16:50:52
robots.txt文件本身没有什么漏洞,她是告诉搜索引擎蜘蛛哪些文件可以爬行,哪些不可以爬行。而我们一般在写robots.txt文件的时候,都会把程序目录写进行,为了屏蔽搜索引擎蜘蛛爬行。但是这样的话容易暴露自己的敏感目录名。解决方案:写robots.txt规则的时候,将敏感目录模糊化,用一些规则去写。比如:Disallow: /dede/可以写成Disallow: /d*/等。
留言与评论(共有 0 条评论) |
全站搜索