站三界导航
首页 搜索优化比较详细的robots.txt协议文件写法

比较详细的robots.txt协议文件写法

  • 搜索优化
  • 来源:站三界导航
  • 130阅读
  • 2022-04-10

很多建站系统,在建成网站后,都网站根目录,默认有robots.txt协议文件。在网站优化竞争日益加剧的今天,原本设立之初无优化因素的robots.txt文件也被最大化使用,掌握其写法,有备无患。


一:robots.txt协议文件有什么用?


搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。


以某seo站点为例,其robots.txt文件如图所示:


二:网站设置robots.txt的几个原因。


1:设置访问权限保护网站安全。


2:禁止搜索引擎爬取无效页面,集中权值到主要页面。


三:怎么用标准写法书写协议?


有几个概念需掌握。


User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。


Disallow表示禁止访问。


Allow表示运行访问。


通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。


四:robots.txt文件放在那里?


此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。


五:哪些时候需要使用该协议。


1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。


2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。


3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。

本文结束
本文来自投稿,不代表站三界导航立场,如若转载,请注明出处:https://www.zhansanjie.com/article/details/69.html

版权声明:

1、本文系转载,版权归原作者所有,旨在传递信息,不代表看本站的观点和立场。

2、本站仅提供信息发布平台,不承担相关法律责任。

3、若侵犯您的版权或隐私,请联系本站管理员删除。

4、本文由会员转载自互联网,如果您是文章原创作者,请联系本站注明您的版权信息。

分享
站三界导航
本站声明:本站严格遵守国家相关法律规定,非正规网站一概不予收录。本站所有资料取之于互联网,任何公司或个人参考使用本资料请自辨真伪、后果自负,站三界导航不承担任何责任。在此特别感谢您对站三界导航的支持与厚爱。