当前位置: 网站首页 > 技术学习 > 文章

程序中的robots.txt在什么情况下可以修改

时间:2016-05-09    点击: 次    来源:网络    作者:佚名 - 小 + 大

robots.txt是什么:

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。

当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。

另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

什么情况下可以修改:

当你在程序中新增加文件夹的时候,而且该文件夹不想被搜索引擎抓取时,就可以修改了,使用记事本打开,然后在最下面添加Disallow: /文件夹名称/即可。

一般情况下我们个人网站考虑不让搜索引擎抓取是出于保护隐私、增加安全性、做搜索引擎优化而进行的,按照这样的思路,哪些文件夹设置为拒绝抓取就一目了然了

微信扫码,打赏一下

支付宝扫码,打赏一下

您的赞赏,就是我的动力!

上一篇:系统所需要的运行环境有哪些购买什么样的空间

下一篇:3套经典的burpsuite学习教程

冀ICP备19037477号  |   QQ:304765718  |  地址:北京市房山区琉璃河广场  |  电话:喜欢此域名可致电13522849222  |