芜湖列举网 > 商务服务 > 网站/软件服务 > robots.txt的使用误区与技巧
芜湖
[切换城市]

robots.txt的使用误区与技巧

更新时间:2015-07-30 17:38:37 浏览次数:125次
区域: 芜湖 > 镜湖
类别:网站制作
地址:合肥

robots.txt的使用误区与技巧

什么是robots.txt?
robots.txt是搜索引擎中访问网站的时候要查看的个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

误区一:我的网站上的所有文件都需要蜘蛛抓取,合肥网站建设http://www.05***/的小编告诉您,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。
每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt。
误区二:在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。
网站中的程序脚本、样式表等文件即使被蜘蛛收录,也不会增加网站的收录率,还只会浪费服务器资源。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。
具体哪些文件需要排除, 在robots.txt使用技巧一文中有详细介绍。
误区三:搜索蜘蛛抓取网页太浪费服务器资源合肥网站建设www.***的小编告诉您,,在robots.txt文件设置所有的搜索蜘蛛都不能抓取全部的网页。
如果这样的话,会导致整个网站不能被搜索引擎收录。
芜湖网站/软件服务相关信息
注册时间:2014年11月29日
UID:168350
---------- 认证信息 ----------

查看用户主页