禁止搜索引擎收录网站内容的几种方法

所属分类: 网站运营 / 建站经验 阅读数: 62
收藏 0 赞 0 分享

第一种、robots.txt方法

搜索引擎默认的遵守robots.txt协议,创建robots.txt文本文件放至网站根目录下,编辑代码如下:

User-agent: *
Disallow: /

通过以上代码,即可告诉搜索引擎不要抓取采取收录本网站,注意慎用如上代码:这将禁止所有搜索引擎访问网站的任何部分。

如何只禁止百度搜索引擎收录抓取网页

1、编辑robots.txt文件,设计标记为:

User-agent: Baiduspider
Disallow: /

以上robots文件将实现禁止所有来自百度的抓取。

这里说一下百度的user-agent,Baiduspider的user-agent是什么?
百度各个产品使用不同的user-agent:
产品名称 对应user-agent
无线搜索 Baiduspider
图片搜索 Baiduspider-image
视频搜索 Baiduspider-video
新闻搜索 Baiduspider-news
百度搜藏 Baiduspider-favo
百度联盟 Baiduspider-cpro
商务搜索 Baiduspider-ads
网页以及其他搜索 Baiduspider

你可以根据各产品不同的user-agent设置不同的抓取规则,以下robots实现禁止所有来自百度的抓取但允许图片搜索抓取/image/目录:
User-agent: Baiduspider
Disallow: /

User-agent: Baiduspider-image
Allow: /image/

请注意:Baiduspider-cpro和Baiduspider-ads抓取的网页并不会建入索引,只是执行与客户约定的操作,所以不遵守robots协议,这个就需要和百度的人联系才能解决了。

如何只禁止Google搜索引擎收录抓取网页,方法如下:

编辑robots.txt文件,设计标记为:

User-agent: googlebot
Disallow: /

编辑robots.txt文件

搜索引擎默认的遵守robots.txt协议

robots.txt文件放在网站根目录下。

举例来说,当搜索引擎访问一个网站时,首先会检查该网站根目录中是否存在robots.txt这个文件,如果搜索引擎找到这个文件,它就会根据这个文件里的内容,来确定它抓取的权限的范围。

User-agent:
该项的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在”robots.txt”文件中,”User-agent:*”这样的记录只能有一条。

Disallow:
该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如”Disallow:/help”对/help.html 和/help/index.html都不允许搜索引擎访问,而”Disallow:/help/”则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在”/robots.txt”文件中,至少要有一条Disallow记录。如果”/robots.txt”是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。


下面举几个robots.txt用法的例子:

User-agent: *
Disallow: /

禁止所有搜索引擎访问网站的所有部分

User-agent: Baiduspider
Disallow: /

禁止百度收录全站
User-agent: Googlebot
Disallow: /

禁止Google收录全站

User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
禁止除Google外的一切搜索引擎收录全站
User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /
禁止除百度外的一切搜索引擎收录全站

User-agent: *
Disallow: /css/
Disallow: /admin/
禁止所有搜索引擎访问某个目录
(例如禁止根目录下的admin和css)

第二种、网页代码方法


在网站首页代码<head>与</head>之间,加入<meta name="robots" content="noarchive">代码,此标记禁止搜索引擎抓取网站并显示网页快照。
在网站首页代码<head>与</head>之间,加入<meta name="Baiduspider" content="noarchive">即可禁止百度搜索引擎抓取网站并显示网页快照。
在网站首页代码<head>与</head>之间,加入<meta name="googlebot" content="noarchive">即可禁止谷歌搜索引擎抓取网站并显示网页快照。

另外当我们的需求很怪异的时候,比如下面这几种情况:

1. 网站已经加了robots.txt,还能在百度搜索出来?

因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过投诉平台反馈请求处理。

2. 希望网站内容被百度索引但不被保存快照,我该怎么做?

Baiduspider遵守互联网meta robots协议。您可以利用网页meta的设置,使百度显示只对该网页建索引,但并不在搜索结果中显示该网页的快照。和robots的更新一样,因为搜索引擎索引数据库的更新需要时间,所以虽然您已经在网页中通过meta禁止了百度在搜索结果中显示该网页的快照,但百度搜索引擎数据库中如果已经建立了网页索引信息,可能需要二至四周才会在线上生效。

希望被百度索引,但是不保存网站快照,如下代码解决:

<meta name="Baiduspider" content="noarchive">
如果要禁止所有的搜索引擎保存你网页的快照,那么代码就是下面的:
<meta name="robots" content="noarchive">

常用的一些代码组合:

<META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">:可以抓取本页,而且可以顺着本页继续索引别的链接
<META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">:不许抓取本页,但是可以顺着本页抓取索引别的链接
<META NAME="ROBOTS" CONTENT="INDEX,NOFOLLOW">:可以抓取本页,但是不许顺着本页抓取索引别的链接
<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">:不许抓取本页,也不许顺着本页抓取索引别的链接

更多精彩内容其他人还在看

网站设计之第一印象 注意用户体验

遨游互联网的人们浏览一个个网站,是决定暂时驻留还是转身离开,往往凭借的是第一印象,这和男女相亲极为相似。如果男女双方的第一印象就不好,那么搭档去喝咖啡的可能性就很小了
收藏 0 赞 0 分享

网站建设细节标示引导用户浏览

在网站建设中,有些细节值得去研究和探讨,比如如何合理的运用标示去引导用户浏览
收藏 0 赞 0 分享

网站建设的设计与网站SEO之皮毛相附

现在网站优化SEO被太多的人所重视和讨论,但是很多SEOER往往过度的注重对搜索引擎的迎合,而忽略了网站建设的用户体验和内容设计
收藏 0 赞 0 分享

百度搜索结果后面的有多少人喜欢是什么原因

这是百度正在测试的一个新功能。1月11日消息,百度分享今日开始测试将分享数据展示在百度搜索结果页。只要是嵌入了百度分享功能的网站信息出现在搜索结果中就会显示出其被分享的次数
收藏 0 赞 0 分享

依据百度近期的几次算法,站长不要再走伪原创之路

今日在SEO论坛,有人说伪原创行将毁灭,高质量网站的春天行将到来。然而这里的伪原创后面要加两个字,那就是工具,伪原创工具行将被淘汰
收藏 0 赞 0 分享

新站如何快速提升权重的六点秘诀分享

经常有朋友问起我网站权重为什么一直很低,到底有没有好的办法快速提升呢?那好现在一起荣森网安棋子儿小编给大家分享在网站维护中快速提升网站权重
收藏 0 赞 0 分享

十大网站被降权现象汇总及原因分析

网站被降权也是网络推广过程中较为常见的现象,降权的形式也各不相同,当然原因也是多种多样
收藏 0 赞 0 分享

Google AdSense 广告已停止在您的网站上投放

早上登陆网站,发现google广告竟然无法显示了,查看邮箱发现google邮箱中在最近一次对您的帐户进行的审核中,我们发现您目前展示 Google 广告的方式不符合我们的合作规范
收藏 0 赞 0 分享

优化DNS解析和拆分域名 让网站打开速度更快技巧

如何让网站打开速度更快:DNS与拆分域名(一).
收藏 0 赞 0 分享

让网站打开更快第三弹--开启压缩篇

对于网站,也有这样的压缩技术,可以让你的网页中的文本类文件瘦身,在用户完全不知情的情况下,通过gzip和deflate压缩程序有效减少了网页,让用户更快的打开网站。
收藏 0 赞 0 分享
查看更多