站长朋友们都了解,搜索引擎蜘蛛程序通过域名进入网站,从而开展对页面的抓取,蜘蛛从指定的页面出发,沿着页面中的链接,按照某种特定的策略对网站中的页面进行遍历,收录未访问的网页,然后搜索引擎再对网页内容进行判断,决定是否收录入数据库。 目前,常见的搜索引擎收录方式主要广度优先,深度优化和用户提交这几种方式,这几种方式的结合,从而让搜索引擎蜘蛛最大化的能够遍历网站的所有页面,从而加以收录,但是如果网站的结构设置的不好,那么很容易导致蜘蛛无法爬行到某些页面,自然也无法收录。事实上,网站结构在决定页面权重方面起着非常关键的作用,直接影响搜索引擎对页面的收录,一个设计合理的网站结构可以引导搜索引擎从中抓取到更多、更有价值的页面。 那么,我们如何根据页面的收录原理来进行网站的优化工作呢?事实上,蜘蛛是通过连接不断爬行,无论是采用深度优先还是广度优先,由于蜘蛛的能力有限,只能爬到一定的地方,这就要求我们尽量减少页面的目录深度及与重要页面之间的链接深度,从而有利于蜘蛛的爬行,具体分析如下: 第一:减少页面之间的链接深度 减少页面之间的链接深度包括减少普通页面与重要页面之间、重要页面与重要页面之间的链接深度,可以从以下几点入手: 1.为网站中相对重要的页面增加更多的链接入口。在相对重要的页面中存放更多链接指向其他的页面,这样不但可以减少页面之间的链接深度,还可以引导搜索引擎抓取网站中更多相对重要的页面。举个简单的例子,我们网站的首页可以在合理的范围内加上更多指向其他相对重要的页面的链接。这样有利于蜘蛛的爬行收录。 2.如果我们要突出某个重要的页面,可以在更多的页面中加上链接指向这个页面,就可以最大化的保证这个重要页面的收录和提高这个页面的权重。 3.用心制作好网站地图。网站地图起到了减少页面之间的链接深度,有利于蜘蛛查找到更多的页面。
减少页面的目录深度,实际上就是减少页面URL的目录层次,新手朋友可以从一下几个方面入手: 1.对于全静态页面的网站,在规划网站时要精简目录结构,比如http://www.xxx.com/ck/HTML/1.shtml,我们在规划目录时,可以精简为 http://www.xxx.com/ck/1.shtml等。 2.对于动态页面的网站,则可以通过 URL 重写的方式减少页面的 URL 的目录层次。在实际操作中,我们会通过URL重写的方式使得网站中的每个页面的URL深度都为1,即URL 形式为 http://域名/文件名称。 第三:一个页面的链接数量不要超过100 这是很多站长朋友所忽略的,事实上,如果一个页面中的链接数量超过100,搜索引擎就可能拒绝索引该页面,或者忽略 100 以后的那部分链接指向的目标页面。这是一个很关键的内容,很多站长朋友并没有意识到这点,所以很多时候超过100的那部分链接已经没有意义,不被搜搜引擎蜘蛛所爬行,那么这部分的链接所指向的页面就不会被收录,所以如果要想这部分链接所指向的页面被收录,我们要另外做链接导入。 小肖认为,最良好的网站结构是平铺结构,可惜这种结构不适用于大部分站,但是针对大部分站,我们还是可以好好的进行设计,遵循上面的三点原则,就可以导致蜘蛛爬行到所有的页面,从而有利于网站的收录。 |