避免重复收录集中网站权重

相同的网页被重复收录的问题一直困扰着我们,相同的页面、相同的内容,因为url不规范,带上参数却返回一样的内容,导致被重复收录,下面教你怎么解决。

   网页重复被收录会导致网页权重分散,搜索引擎无法辨别哪个才是主页面,不知道怎么将有限的权重分配到这些相同被收录的页面,要么乱分配,将全权重随机赋予一个被收录的网页,要么平均分配,将有限的权重都分配给这些被收录的相同页面,这样网站的排名能力就会下降,导致排名上不去。另外一个坏处就是:让搜索引擎收录重复的内容,就会被搜索引擎认为内容是重复的,没有太多被收录的价值,随便K掉几个都可以,还会影响判断网站内容的质量,如果一个网站存在大量重复内容,那么这个网站的内容质量肯定很差,给排名?做梦去吧!

什么原因导致重复收录

    导致网页被重复收录的原因有以下几点:

1、url没有规范化,带上任意参数的链接还是返回相同的链接,并且这些链接再网站中真实出现。

2、网站模板存在问题,翻页功能、按条件过滤,会出现不同的url相同或类似(仅位置不同)的内容。

3、网站的目录名和目录名+index.html(或php)同时出现,比如demo.xzhwan.com/seotool/与demo.xzhwan.com/seotool/index.html同时在内链出现,那么两个都可能被收录,造成重复。

4、网站更换过程序。原来的程序url带参数,但是更换程序之后原来的url(带参数)还能返回正常页面,与不带参数的url造成重复。

5、网站被黑,恶意投放重复内容。

下图展示测试站点由于更换程序之后,原来被收录的带参数url在换了程序之后还能返回正常页面,之前的程序带不一样的参数返回不一样的页面,但是更换网站程序之后,没有参数这个功能了,url带什么参数都会返回相同的页面,就会产生重复,从图中可以看出,被百度收录的页面上,除了url不同,标题描述页面等内容完全相同:

   重复收录的内容.jpg

怎么解决被重复收录集中权重

    要想解决重复收录,不仅要删除已经被收录的内容,还要解决导致重复内容收录的原因。下面先从怎么删除重复收录的内容开始说起:

删除重复的收录

1、可以在网站robots.txt文件中设置需要禁止的url,就拿上面说,在robots中设置已经被重复收录的url,告诉搜索引擎不要再抓取了。

2、在服务配置文件中修改,将上面重复收录的url设置访问返回404,这样渐渐的就会被删除。

3、在各大搜索引擎站长平台(谷歌站长平台、百度搜索资源平台),将重复的url做提交网站死链处理,这样就能快速删除重复收录内容

解决重复内容产生

1、使用canonical标签规定规范化url(页面唯一地址),canonical标签变现形式为:<link rel="canonical" href="你的规范化地址"/>,将代码插入到网站</head>前面即可。

2、规划好文件夹与文件夹+index.html(php)的关系,要么前者,要么用后者,不要同时出现在内链中。

3、对重复的链接及时做好301跳转,集中权重,搜索引擎识别到页面是301的自然不会收录,而将权重转移到301的目标页面。

4、修复网站模板的BUG,杜绝重复链接出现的可能。

     希望上面家添自己发明的方法能帮到你,(如有雷同,纯属巧合)http://xzhwan.com/a/31.html炫网SEO

作者:家添
来源:http://xzhwan.com/a/31.html

赞 ()