robots.txt协议文件写法和作用介绍

robots.txt协议文件存在我们网站根目录中,很多cms系统默认都会有,对于我们seo来说,robots.txt文件是个很重要的东西,robots.txt设置不好,可能会导致屏蔽掉搜索引擎蜘蛛,导致网站不收录,用好了可以帮助我们屏蔽掉404页面,集中网站权重。

一:robots.txt协议文件有什么用?

搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。

其robots.txt文件内容如图所示:

二:网站为什么需要robots.txt协议

1、设置访问权限保护网站安全。

2、禁止搜索引擎爬取无效页面,集中权值到主要页面。

三:怎么用标准写法制作robots协议?

1、有几个概念需掌握。

User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。

Disallow表示禁止访问。

Allow表示运行访问。

通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。

2、文件制作可以借助工具制作,防止书写错误,比如站长工具(http://tool.chinaz.com/robots/),爱站工具都有robots文件制作功能,百度搜索一下也有很多,写好后记得去百度站长平台更新robots.txt文件并且验证文件有无出错。

四:robots.txt文件放在那里?

robots.txt文件需放在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。

五:什么时候需要使用该协议。

1:无用页面或非日常更新的页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,爬取一次收录后就没有必要再让蜘蛛爬取,屏蔽掉可以集中权重到其他栏目,这个时候就需要用Disallow命令禁止这些页面被搜索引擎抓取。

2:做了伪静态或静态网址的动态网址,多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态网址,保留静态或伪静态页面更利于seo权重集中,提升页面排名。

3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。

未经允许不得转载:老杨SEO » robots.txt协议文件写法和作用介绍

赞 (8)