站三界导航
首页 建站经验禁止搜索引擎收录网站内容的几种方法

禁止搜索引擎收录网站内容的几种方法

  • 建站经验
  • 来源:站三界导航
  • 78阅读
  • 2022-04-28

第一种、robots.txt方法 搜索引擎默认的遵守robots.txt协议,创建robots.txt文本文件放至网站根目录下,编辑代码如下: User-agent: * Disallow: / 通过以上代码,即可告诉搜索引擎不要抓取采取收录本网站,注意慎用如上代码:这将禁止所有搜索引擎访问网站的任何部分。 如何只禁止百度搜索引擎收录抓取网页 1、编辑robots.txt文件,设计标记为: User-agent: Baiduspider Disallow: / 以上robots文件将实现禁止所有来自百度的抓取。 这里说一下百度的user-agent,Baiduspider的user-agent是什么? 百度各个产品使用不同的user-agent: 产品名称 对应user-agent 无线搜索 Baiduspider 图片搜索 Baiduspider-image 视频搜索 Baiduspider-video 新闻搜索 Baiduspider-news 百度搜藏 Baiduspider-favo 百度联盟 Baiduspider-cpro 商务搜索 Baiduspider-ads 网页以及其他搜索 Baiduspider 你可以根据各产品不同的user-agent设置不同的抓取规则,以下robots实现禁止所有来自百度的抓取但允许图片搜索抓取/image/目录: User-agent: Baiduspider Disallow: / User-agent: Baiduspider-image Allow: /image/ 请注意:Baiduspider-cpro和Baiduspider-ads抓取的网页并不会建入索引,只是执行与客户约定的操作,所以不遵守robots协议,这个就需要和百度的人联系才能解决了。 如何只禁止Google搜索引擎收录抓取网页,方法如下: 编辑robots.txt文件,设计标记为: User-agent: googlebot Disallow: / 编辑robots.txt文件 搜索引擎默认的遵守robots.txt协议 robots.txt文件放在网站根目录下。 举例来说,当搜索引擎访问一个网站时,首先会检查该网站根目录中是否存在robots.txt这个文件,如果搜索引擎找到这个文件,它就会根据这个文件里的内容,来确定它抓取的权限的范围。 User-agent: 该项的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在”robots.txt”文件中,”User-agent:*”这样的记录只能有一条。 Disallow: 该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如”Disallow:/help”对/help.html 和/help/index.html都不允许搜索引擎访问,而”Disallow:/help/”则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在”/robots.txt”文件中,至少要有一条Disallow记录。如果”/robots.txt”是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。 下面举几个robots.txt用法的例子: User-agent: * Disallow: / 禁止所有搜索引擎访问网站的所有部分 User-agent: Baiduspider Disallow: / 禁止百度收录全站 User-agent: Googlebot Disallow: / 禁止Google收录全站 User-agent: Googlebot Disallow: User-agent: * Disallow: / 禁止除Google外的一切搜索引擎收录全站 User-agent: Baiduspider Disallow: User-agent: * Disallow: / 禁止除百度外的一切搜索引擎收录全站 User-agent: * Disallow: /css/ Disallow: /admin/ 禁止所有搜索引擎访问某个目录 (例如禁止根目录下的admin和css) 第二种、网页代码方法 在网站首页代码与之间,加入代码,此标记禁止搜索引擎抓取网站并显示网页快照。 在网站首页代码与之间,加入即可禁止百度搜索引擎抓取网站并显示网页快照。 在网站首页代码与之间,加入即可禁止谷歌搜索引擎抓取网站并显示网页快照。 另外当我们的需求很怪异的时候,比如下面这几种情况: 1. 网站已经加了robots.txt,还能在百度搜索出来? 因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过投诉平台反馈请求处理。 2. 希望网站内容被百度索引但不被保存快照,我该怎么做? Baiduspider遵守互联网meta robots协议。您可以利用网页meta的设置,使百度显示只对该网页建索引,但并不在搜索结果中显示该网页的快照。和robots的更新一样,因为搜索引擎索引数据库的更新需要时间,所以虽然您已经在网页中通过meta禁止了百度在搜索结果中显示该网页的快照,但百度搜索引擎数据库中如果已经建立了网页索引信息,可能需要二至四周才会在线上生效。 希望被百度索引,但是不保存网站快照,如下代码解决: 如果要禁止所有的搜索引擎保存你网页的快照,那么代码就是下面的: 常用的一些代码组合: :可以抓取本页,而且可以顺着本页继续索引别的链接 :不许抓取本页,但是可以顺着本页抓取索引别的链接 :可以抓取本页,但是不许顺着本页抓取索引别的链接 :不许抓取本页,也不许顺着本页抓取索引别的链接 本文结束
本文来自投稿,不代表站三界导航立场,如若转载,请注明出处:https://www.zhansanjie.com/article/details/4365.html

版权声明:

1、本文系转载,版权归原作者所有,旨在传递信息,不代表看本站的观点和立场。

2、本站仅提供信息发布平台,不承担相关法律责任。

3、若侵犯您的版权或隐私,请联系本站管理员删除。

4、本文由会员转载自互联网,如果您是文章原创作者,请联系本站注明您的版权信息。

分享
最新小程序 更多>>
最新公众号更多>>
站三界导航
本站声明:本站严格遵守国家相关法律规定,非正规网站一概不予收录。本站所有资料取之于互联网,任何公司或个人参考使用本资料请自辨真伪、后果自负,站三界导航不承担任何责任。在此特别感谢您对站三界导航的支持与厚爱。