怎么利用robots文件做好网站优化让蜘蛛更好的抓取网站?

所属分类: 网站运营 / 网站优化 阅读数: 59
收藏 0 赞 0 分享

  robots文件存在于网站根目录,是用来告诉百度蜘蛛那些应该抓取,那些不应该抓取。正确使用robots文件有助于做好seo优化,robots文件的核心词汇就是allow和disallow用法。百度官网是认可这个文件的,在百度站长平台上也有robots这个栏目,点击进入,就可以看到你网站robots文件是否编写正确了。

  百度robots文件使用说明

  1、robots.txt可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。

  2、您可以通过Robots工具来创建、校验、更新您的robots.txt文件,或查看您网站robots.txt文件在百度生效的情况。

  3、Robots工具暂不支持https站点。

  4、Robots工具目前支持48k的文件内容检测,请保证您的robots.txt文件不要过大,目录最长不超过250个字符。

  

  上图我给的一个例子中,disallow语句有问题,原因是把英文的冒号写成了中文的冒号。

  当然直接输入网站根目录加上robtots.txt文件也可以

  

  User-agent:*   是用来置顶那些搜索引擎蜘蛛可以抓取的,一般默认设置

  Disallow:/category/*/page/ 分类目录下面翻页后的链接,比如,进入校赚网分类目录 "推广运营经验"目录后,在翻页一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

  Disallow:/?s=* Disallow:/*/?s=*  搜索结果页面和分类目录搜索结果页面,这里没必要再次抓取。

  Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/   这三个目录是系统目录,一般都是屏蔽蜘蛛抓取

  Disallow:/*/trackback  trackback的链接

  Disallow:/feed Disallow:/*/feed Disallow:/comments/feed  订阅链接

  Disallow:/?p=*   文章短链接,会自动301跳转到长连接

  例如,朱海涛博客之前就被收录过短连接

  Disallow:/*/comment-page-*   Disallow:/*?replytocom* 这两个我在之前文章有过说明,来自于评论链接,很容易造成重复收录。

  在robots.txt文件的最后还可以制定sitemap文件 Sitemap:http://***.com/sitemap.txt

  sitemap地址指令,主流是txt和xml格式。在这里分享一段张戈所写txt格式的simemap文件。

  将上述代码保存到txt文件,上传到根目录,并且在robots.txt文件中指定即可

  这里给大家共享下我的robots.txt文件

复制内容到剪贴板
  1.   User-agent: *   
  2.   
  3.   Disallow:/wp-admin/   
  4.   
  5.   Disallow: /*/comment-page-*  
  6.  
  7.   Disallow: /*?replytocom*  
  8.  
  9.   Disallow: /wp-content/  
  10.  
  11.   Disallow: /wp-includes/  
  12.  
  13.   Disallow: /category/*/page/   
  14.   
  15.   Disallow: /*/trackback  
  16.  
  17.   Disallow: /feed  
  18.  
  19.   Disallow: /*/feed   
  20.   
  21.   Disallow: /comments/feed   
  22.   
  23.   Disallow: /?s=*   
  24.   
  25.   Disallow: /*/?s=*\  
  26.  
  27.   Disallow: /attachment/  
  28.  
  29.   Disallow: /tag/*/page/   
  30.   
  31.   Sitemap: http://www.stcash.com/sitemap.xml  
更多精彩内容其他人还在看

网站优化必知:搜索引擎都重视原创的三大理由

作为一个优化人员应该知道原创是搜索引擎最重视的,想要做好网站,原创是必不可少的,那么,搜素引擎重视原创的理由是什么呢?
收藏 0 赞 0 分享

seo优化 获得高质量反向链接的方法

作为一名优化人员,我们都知道优化的时候是内容为王,外链为皇,说明外链对于优化来说也是非常重要的,那我们怎样才能获得高质量的反向链接呢?小编整理了几个获得高质量反向链接的方法,一起来看一下吧
收藏 0 赞 0 分享

新站必须要注意的一些关键点 才能稳定长久

在前期选取关键词时,尽量选用指数较小的关键词进行部署,由小词换大词,这样让网站有一个过渡期,就会可以很好的使网站稳定提升。下面为大家介绍新站必须要注意的一些关键点,来看看吧
收藏 0 赞 0 分享

如何做好网站运营呢?

网站不能主导市场,如果你实体店做的不咋地,网站就有可能一样带不来多少业务,尤其当市场上只需要一家的时候,有没有网站都很难改变这个趋势,那么如何做好网站运营呢?下面我们来看看吧
收藏 0 赞 0 分享

SEO常用到好用的工具有哪些?

做网站优化的一个瓶颈是SEO的自动化。到目前为止,绝大部分网站优化工作还得是人工去做。一些SEO工具可以辅助,但还没办法取代人工操作
收藏 0 赞 0 分享

大公司和小公司的产品推广方式有什么区别

在百度这样的大平台,获取流量和用户相对容易很多。我记得一个webapp的推广位,每天就能带来8K-12K的新增激活,像这样的位置至少有3-4个,虽然不同位置的量级大小不同,但每天2-3W的新增激活是很容易做到的,而且这只是我遇到的情况。
收藏 0 赞 0 分享

SEO优化的思维有哪些惯性陷井?

往往我们都会习惯性的分析网站的流量、查看网站的排名、网站的历史操作、现任的网站问题等等一系列状况,这对于大部份SEO来说这是习惯性的操作,但是这种习惯往往会潜伏着一个比较危险的信号,这个信号是隐藏,详情我们来看看吧
收藏 0 赞 0 分享

网站建设有哪些比较好的代码优化?

众所周知,现如今从搜索引擎的角度出发,我们都提倡使用div+css来布局网站,以此来更好的贴合搜索引擎的抓取习惯,但现在有一部分站长在网站建设中依然使用table来布局页面,下面小编就为大家介绍网站建设的代码优化,来看看吧
收藏 0 赞 0 分享

浅谈网站排名和文章的逻辑关系

对于搜索引擎的算,多数朋友都不会陌生,就像百度经历了链接投票算法、点击算法、到如今内容原创保护、和打击作弊等等各种算法,下面为大家浅谈网站排名和文章的逻辑关系,来看看吧
收藏 0 赞 0 分享

如何将优化做好?7天快速排名的基础SEO优化

如果网站的刚开始排名就不好那就要从自身的小细节做起了,所以大家一定要把基础优化做好,如何把一个行业地区词(郑州律师事务所)优化到前20名的,今天说的就是关于快速排名的基础优化的东西
收藏 0 赞 0 分享
查看更多