网站的收录是不是越多越好

有很多站长朋友都有一个习惯,每天打开电脑首先就去先看看网站的收录情况。收录下降了就着急的不得了。在怀疑自己的网站是不是降权了怎么怎么着。那么网站的收录你是如何看待的那。 

但是对于我的网站来说,我倒是希望现在赶快降低我收录。因为百度蜘蛛抓取了我的动态路径页面同时也抓取了我的静态路径。

其实收录的下降首先要找到其中收录规律。

 如果有确切的目录页+内容页路径形式的收录。我们就要去看具体的是哪个部分页面收录下降了。在分析出现了什么原因。看看是不是频道(栏目页)出现了问题针对性调整。不必要全站进行变动

但是收录是不是一定是越多越好那。其实不然。一般收录多了。也许抓取的是垃圾页面。以及重复路径。

例如:我网站创业者李孟博客 “什么是创业者”一篇文章,

有静态路径形式:http://blog.0916688.com/chuangye/83.html

动态路径形式:http://blog.0916688.com/?p=83  

 那么蜘蛛抓在我没有静态化路径时候就抓取了动态路径。但是在我静态化路径之后。百度蜘蛛也抓取了静态路径。也就是说出现了两种路径访问同一个页面现象。但是百度蜘蛛搜索引擎原理是。先判断页面质量。进行抓取。如果你提供了一个路径那他就抓取了。如果还有一个路径他可能认为是新的网站也会给予收录。是不会区分的。但是百度蜘蛛在收录之后有一定的判断。以后会造成降低页面权重、现象。

  如果你的网站是存在这样路径形式。多个路径指向一个页面的、还有跳转的尽量减少一些。不然就会受到降权牵连。当然大站受众比较高。例如央视网www.cctv.comwww.cntv.cn指向同一个页面有跳转现象。但是这是大站。他因为受众多不会有多大降权现象。而我们一般网站如果出现了降权。就会牵连很大。当然如果我们出现了这样现象情况下,收录了怎么办

     解决方案:就是使用robots.txt屏蔽内容动态路径的蜘蛛抓取。当然还有一种文体目录页出现问题。我们同样也可以用这个工具进行对于 robots.txt 进行屏蔽。

收录是不是越多越好那。当然除了以上我们说的重复路径问题。还有一种现象就是隐私屏蔽。例如你网站存在了一些信息是必须提供给用户的。但是搜索引擎抓取了是不利于的内容。因为有些内容抓取了就会受到牵连。导致降权、被K……

当我我们解决方式同样是用robots.txt去屏蔽形式。

有人会说这样说法一定是对的吗?那么我今天来解析一些其中的SEO思维。搜索引擎,他是一种机器人抓取的,俗称“蜘蛛”。他的判断标准不像人的思考。是多方面考虑。而是在一定的算法原理和固定原则下进行的。例如8月份百度对于算法升级进行低质量处理。他就是给蜘蛛抓取增加了一个原则。如果有些垃圾页面。内容的价值型不大的就会不收录。10月份针对外链作弊的收录处理问题。但是蜘蛛对于多重路径他是没有办法去做到什么规定的。因为他抓去了你的动态路径。如果你出现了静态路径。更利于抓取他自然就会提供给用户好的路径。这是必然现象。所以我们能做到的就是用搜索引擎的 robots协议手动去改进形式。当然网站不是说所有内容百度搜录了都好。这就需要我们去清楚去认识。一些行业规则。以及来及内容规则、和搜索引擎算法规则。针对没有必要页面进行必要的屏蔽。

®创业者李孟博客™ | 版权所有 | 若非注明 | 均为原创™
㊣ 转载请附上文章链接并注明: 创业者李孟博客 » 网站的收录是不是越多越好
㊣ 本文永久链接: http://blog.0916688.com/seo/95.html