所有栏目 | 云社区 美国云服务器[国内云主机商]
你的位置:首页 > 云社区 » 正文

怎么查找网站程序中的漏洞?

发布时间:2020-04-15 16:50:52

资讯分类:漏洞  查找  程序  网站  爬行  文件  目录
怎么查找网站程序中的漏洞?

robots.txt文件本身没有什么漏洞,她是告诉搜索引擎蜘蛛哪些文件可以爬行,哪些不可以爬行。而我们一般在写robots.txt文件的时候,都会把程序目录写进行,为了屏蔽搜索引擎蜘蛛爬行。但是这样的话容易暴露自己的敏感目录名。解决方案:写robots.txt规则的时候,将敏感目录模糊化,用一些规则去写。比如:Disallow: /dede/可以写成Disallow: /d*/等。

留言与评论(共有 0 条评论)
   
验证码:
Top