在搜索引擎收录中时常有一个现象,同样的内容搜索引擎收录了不止一次,其中有“静态页面,也有动态或伪静态页面。如此一来是增加了网站的收录量,但搜索引擎并不赞同如此“重复内容”的收录。最后所带来的结果,往往轻则重复快照被回收删除,重的甚至直接影响网站权重。笔者今天要说的便是,在网站优化中被搜索引擎“重复收录”是大患,若存在如此现象,应引起站长高度重视,尽量做出手段为好,否必影响网站在搜索引擎中的排名效果。上海网络公司引航科技分析认为:

一:重复收录的原因是什么
在网站优化过程中,搜索引擎是不喜欢重复收录网站内容的,关于这一点,搜索引擎早有过明确的规范,即使在谷歌“管理员工具”中亦可直接看到相关建议。但为什么还会重复收录呢?
A:搜索引擎毕竟只是人为编写的一套规则,做不到充分的识别,所以导致多URL地址的内容重复收录。
B:程序设计问题,有些程序在设计中为了“预览”方便在后台存在动态页面。但因设计不当,导致搜索引擎依旧通过目录的索引便可发现这一存在,进而对其索引收录。
C:模板问题,在模板制作中常常易忽视这一问题,最后模板完成后既存在动态页面,又存在静态页面,试问如此怎能不被搜索引擎重复收录呢?
二:重复收录的后果有哪些
网站优化避免重复页被搜索引擎收录,但若被其收录,所影响又是什么呢?一般来说,在搜索引擎收录后会将动态页面剔除,但若频繁如此反复的收录剔除、剔除收录,最终将导致蜘蛛反感,直接影响蜘蛛爬行频率。另外一点,若网站存在如此大量收录页却没有被剔除,但最终都是一个影响网站的成长隐患,在未来搜索引擎大更重快照被严重剔除,势必严重影响网站当前权重,周而复始之下,网站何时才可以发展的起来呢?故而,搜索引擎不建议网站存在相同内容的多重URL地址连接。看来即使内容收录多了,也未必是好事啊!
三:如何避免内容被重复收录
找到了问题的根源,接下来便是解决问题的时候,那么如何解决如此现象呢,其实也很容易:A:URL标准化,B:利用robots.txt进行屏蔽动态文件
A:在网站建设过程中尽量统一URL地址,勿使用动态页面进行链接,一来是搜索引擎青睐静态页面,另一方面也防止了相同内容被搜索引擎重复收录的结局。
B:利用robots.txt进行动态文件的屏蔽,如:“Disallow: /*?*”说明:如此屏蔽法适合在不存在“TAG标签”下利用,否则标签也将被屏蔽。不过屏蔽可灵活运用,在不同的程序下,不同屏蔽即可。
二进制网络携手专业网站建设公司引航科技(www.joyweb.net.cn )认为:网站建设与优化严把细节优化,内容重复收录是大患,应认真对待,否最终难以逾越排名障碍。今天写罢这篇文章后,真心希望可以帮到更多站长摆脱优化困扰。
本文由网站制作首选品牌引航博景(https://www.joyweb.cn)原创编辑,转发请注明来源及版权归属。
原文分享地址:
http://www.joyweb.net.cn/news.asp?id=1528
□ 内容质量是贸易公司网站建设取胜的关键
□ 360杀毒免费大餐品质遭质疑
□ 苹果公司仲裁赢取域名itunes.com.mx
□ 宣传展示型网站与营销型网站的区别在于面向营销
□ 三招破解网站收录反复变化的深层次难题
□ 高质量软文成就网站优化制胜之道
□ 不能照顾到客户感受就不会有网站建设签单的成功
□ 明白365开通运营,或搅局B2C市场
□ 提高浏览深度与降低跳出率是网站建设取得成功的捷径
□ 不走铁公鸡路线 网站运营舍小钱才能聚大财
|