1. 论坛系统升级为Xenforo,欢迎大家测试!
    排除公告

关于什么是SEO链轮等问题

本帖由 xiaoshou5002012-04-17 发布。版面名称:SEO 专区

  1. xiaoshou500

    xiaoshou500 New Member

    注册:
    2011-08-01
    帖子:
    312
    赞:
    0
    关于什么是SEO链轮等问题,请大家自行在百度搜索“SEO链轮”,本文主要从蜘蛛的爬行原理方面阐述链轮策略的有效性和实用性。


    首先需要明确一点,只有被搜索引擎蜘蛛爬行和抓取的网页,才有展示和排名的机会。而搜索引擎不会抓取互联网上所有的网页,通常只会抓取它认为比较重要的页面,这个比率占整个互联网的40%左右,几率不到一半,也就是说在正常情况下,我们网站大部分内容是不会被蜘蛛爬行和抓取的。 如何突破这个瓶颈,让我们网站的收录量达到80%以上,甚至100%呢?这就是体现SEOer价值的地方了。


    能够实现这种效果的方法有很多种,而我掌握了一种最有效的方法,现在我就把这种方法免费分享给你,当你掌握了这种方法之后,可以很轻松的增加你网站1倍以上的收录量,收录的增加是提高你网站 排名 和 流量 的最行之有效的方法。


    要达到上述效果,我们要对搜索引擎蜘蛛的工作原理有一个清晰明确的认识和了解。


    蜘蛛是如何抓取网页的?


    互联网由众多链接构成,蜘蛛就是顺着这些链接在爬行每一个页面、抓取页面信息。当某个页面不再有新链接的时候,它就返回,在这个过程当中,他不断的向服务器提供信息,站长在进行日志分析的时候,如果发现某一个页面被蜘蛛爬行并成功抓取数据,这个页面就很有可能被索引,所以提高网页的索引数据(收录量)对于一个网站的搜索引擎优化(SEO)是非常有利的。


    然而蜘蛛为了提高其抓取效率,在抓取的过程一般会采用广度优先和深度优先策略。


    深度优先是指蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。


    其实不论采用哪种策略,只要有足够的时间,理论上蜘蛛都能够爬完整个互联网,但实际情况下,蜘蛛却不会这样做,这主要受到抓取瓶颈、存储、下载和提供搜索结果的效率方面的影响,让蜘蛛选择了只抓取重要的页面,判断页面是否重要的主要依据是“链接深度”.


    现在就以上链轮模型进行分析:


    模型一:优点是规划和操作都非常简单,缺点也很明显,由于站点过多导致链接深度非常大,很容易造成索引盲区,不利于所有站点的收录。


    模型二:通过分组,将一个大链轮拆分成20个小链轮,每个小链轮链接深度适中,只要有一个站点被索引到,就会让所处链轮组的站点被索引到,效果比较好。


    模型三:在模型二的基础上,增加了各个小链轮之间的链接,一个链轮的收录也能促进另一个链轮的收录,效果最优(如果是独立站点操作,模型三会增加搜索引擎惩罚的几率,采用门户网的博客平台操作则无需有这种顾虑,不过这不是本篇文章讨论的重点)。


    以上分析只是着眼于搜索引擎蜘蛛的爬行和抓取,决定链轮效果的因素还有很多,比如关键词选择、权重的传递、站内优化与链轮的相互配合,以及在链轮操作过程当中遇到的方方面面的问题和解决方案等等,但是万变不离其宗,只要掌握了搜索引擎的工作原理,任何人都可以根据自己网站的特点,着手设计属于自己的SEO链轮模型。
     
  2. 小丸子2

    小丸子2 New Member

    注册:
    2011-11-03
    帖子:
    40
    赞:
    0
    深度优先是指蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接,学习了。