1. 论坛系统升级为Xenforo,欢迎大家测试!
    排除公告

百度收录同一内容的高重复链接

本帖由 盖世太保2011-06-24 发布。版面名称:软文发布区

  1. 盖世太保

    盖世太保 New Member

    注册:
    2011-04-08
    帖子:
    872
    赞:
    0
    一般的网站程序而言,总是有三种生成方式:动态页面、静态页面、伪静态页面生成。然而正是由于诸多的生成方式导致了同一内容中的不同URL显示,最后导致搜索引擎再索引同一内容的时候索引到不同的URL地址连接。但是也不要庆幸自己又多了条收录,高度重复的内容搜索引擎并不喜欢,何况还是同一个站内的内容,对于这样的内容如果过多出现,不是遭到降权对内容进行剔除,那么便是封站。所以站长理应对其重视起来,避免被搜索引擎收录同一内容的高重复链接。

      什么样的链接是重复链接?

      一般而言,很多程序设计不完善,即使如Discuz也会存在一部分的高重复性的链接。诸如一些:www .xxxx/1.html是网站的一个页面,而同时又存在www .xxx/view.asp?id=1,这是典型的URL不同,但却造成内容高度重复的链接。对于这样的内容,蜘蛛爬到页面也会大感郁闷,到底哪一个链接才是要阐述内容的链接呢?吃了那么多的链接,怎么都是重复内容啊?介于此,蜘蛛再喜欢你独立的原创,时间久了也会被一次次吓跑。下面还有一个典型范例:

      




      这个是二进制刚刚发现有一个友情链接的情况。事实上,这个文章也仅仅是一篇而已,但是为什么被收录了如此之多呢?就是因为网站在优化过程中,忽略了对一些链接的屏蔽,导致了同一内容出现多条不规范的URL链接而被收录。不过虽说被收录了,但是被剔除也是早晚的事,而且我本沉默传奇私服渐的进行优化。

      如何避免内容重复的URL链接?

      发现了问题的所在,我们接下来便解决问题。对于以上问题,一般而言我们基本上用两种方法,第一种:规范URL,第二种:Robots.txt进行屏蔽。

      A:在网站建设之初就我本沉默传奇规范好网站URL的标准化,无论是对外还是对内的链接,统一选择静态,将页面所有可能产生双重或多重的动态链接全部换做静态生成。这样下来,网站基本避免了内容重复的URL链接。

      B:Robots.txt,大部分的SEOer们用此来进行内容或页面的屏蔽。如设置(Disallow: /*?*)意在告诉搜索引擎我本沉默不要访问所有带“?”的页面,不过前提是做好了全站的静态生成。
    www.lj12.com