南京排名推广(南京产品推广)
44
2022-12-09
本文目录一览:
网站结构优化的方法
网站优化的过程当中也会有针对性的去偏向优化。至于很多站长所说的网站结构最好是树状结构或者比较理想的网状结构之类,只要你按照“迷路的小爬虫”所述的网站结构优化要点去做,你就会搭建成一个树状甚至网状化结构的网站。下面是我带来的网站结构优化的方法,希望对你有帮助!
目录结构通俗来讲就是网站的URL结构,在服务器上搭建网站的时候,站长会发现服务器的根目录下一般都会有一个WWW的文件夹,这个不是一定的,但是大部分的命名都是如此,然后按照网站的规划和内容布局会有一级一级的目录基于WWW来构建,而每一个目录下面都会有具体的网页文件,比如:html、shtml、aspx、php等,这种目录路径的搭建就形成了用户访问的URL地址,从另一个方面说URL地址就是文件存储在服务器上的目录路径;这样说即使对于刚入门的站长来说也是非常容易理解。
内链结构通俗上讲就是网站页面与页面之间的关系,建设网站的站长都知道,一张页面上除了核心内容,尤其是网站的首页、栏目页或者列表页都会很多的链接组成,而这些页面的链接就形成了整个网站的内链结构。至于什么形式内内链结构更加合理,对搜索更加友好,在接下来会一一分享给站长朋友。
什么样的网站结构对搜索引擎友好?
同样在这一块分开来讲,以便于站长能够更加清晰的认知网站结构如何去围绕搜索引擎来部署。
前面提到目录结构的概念,基于根目录扩散成一个个实实在在存在的文件,清晰的目录路径不仅有利于站长来管理,对于搜索引擎来说也是非常的友好,通过爬取轨迹一级级获取它要抓取的页面,如果你的网站仅仅有一个首页、若干个栏目页、可扩展的专题页和文章详情页,那么理想化的URL结构就是按照服务器上实实在在的文件存储位置来构建。但是往往一个网站并不是如此简单的情况,网站多少会有一些功能性的产品要与用户做交互,要通过动态程序去构建很多的页面,以丰富网站的产品体验,所以你会发现好多网站的URL里面会有很多的动态参数,因为这些页面都是通过一定的技术批量生成的页面,并不是在服务器里面实实在在存在的页面,而官方声明搜索引擎恰恰更喜欢静态化的页面,这个时候就需要对URL地址进行包装重构,不管是Apache、Ngnix或者IIS都对 URL地址有重写模块,这些暂时不做介绍,这里只介绍重写成什么样的URL地址才更有利于搜索引擎的抓取,主要包含以下两个个方面:
1、URL地址命名要贴近目标页面的主题名称,有利于提升与目标页面的相关性,从而提升目标页面权重;
2、URL地址的层级基于所属的类目越小越好,层级越小可以告诉搜索引擎文件存在的目录深度越小,越容易被抓取,因为只有重要的页面才会放到与根目录最近的位置,搜索引擎也会认为这些文件是网站里面相对来说比较重要的页面,优先抓取。
内链结构主要反映的是页面之间的关系,和目录结构类似,被放到首页的链接地址往往更容易被搜素引擎抓取,这里涉及到一个链接深度的概念。搜索从发现你的网站到开始抓取页面,一般都是从首页开始进行的,如果你是一个新站的话,可以从日志里面查询到。也就是说离首页越近的网址越容易被抓取到,这里同样搜索引擎会认为链接深度越小的页面,在网站里面的重要性越大,和目录结构一致,链接深度越小的'页面权重也会越大,被索引的几率也会越大。总而言之内链结构对搜索引擎的友好度主要从以下几个方面去做:
1、从首页开始要包含网站中最重要的业务板块,一般来说都是个频道栏目页和专题的聚合;
2、栏目、专题页面要包含它们归类下最新的内容模块和热门模块,同时要有返回上一次层级的面包屑;
3、详情页面做为核心内容页面同样也要有相关推荐板块,以及同归属栏目下热门推荐板块,当然面包屑也是必须要有,在这里要特别强调一下合理的使用标签可以增强文章与文章的关系,更有利于搜索引擎的爬取,关于标签“迷路的小爬虫”会专门用一篇文章来告诉站长如何去布局使用。
基本上只要你按照以上的方式去优化你的网站结构,相信你的网站在数据上面的良好体现也会稳步提升。
网站结构优化注意事项
在这里“迷路的小爬虫”也是要总结以下几点来说明过度的优化网站结构可能会出现被K的风险,总结主要由以下几点:
1、为了减少链接深度,首页和频道页堆砌上千条链接地址,这种情况对于前期网站权重不是很高的前提下基本上会被k的体无完肤;
2、索引标签的大量使用,在网站没有一定规模的文章或者其他的资源做支撑的前提下,慎重使用标签聚合站内资源,因为大量的添加索引标签可能会造成网站很多重复的页面和空页面,结果被k也是不可避免的;
3、详情页面勉强的增加推荐板块,造成整个页面繁杂冗余,也是不可取的,详情页本来权重在整个网站体系里面最低,再增加如此多链接,只会被降权,即使收录也不会有好的排名;
4、为了减少目录深度,所有的页面全部堆砌到二级目录,这种做法也是不可取的,如果整个网站除了首页全部是二级目录,也就没有主次之分,目录深度影响权重这条规则也就不可取了。
以上四点是“迷路的小爬虫”认为比较重要的几项因素,也是很多站长会拿捏不好的几个地方,所以单独做为一项拿出来重点强调,希望站长朋友不要再犯这样的错误。
;
1.网站诊断
从网站定位出发,对网站结构、网页设计、标签设计等各方面进行系统性的评测诊断,给出综合评价报告。
2.关键词分析
根据网站主题,选择出最佳关键词,整站将围绕关键词进行重点优化,获取排名。
3.资料收集
收集网站主题相关的、整个优化过程所需的资料。
4.网站优化
从网站的结构、设计等多方面入手,针对首页、主栏目页、分栏目页、专题及内容网页等提供一个整站优化方案。
5.网站无漏测试和网页内容
对网站的整体进行优化之前,对网站测试无漏链很关键。另外,网页的原创性,也是决定网站整体排名的关键因素。
网站优化的具体过程可概括为以下几步骤。
第一,根据网站主营的业务确定要优化的主关键词和拓展关键词。
第二,对网站的目录结构、链接结构和各页面结构进行全面的分析诊断,作出详细的诊断报告,这样可以有计划、有针对性地开展优化工作。
第三,根据确定的关键词和诊断报告,制定出合理的优化方案。
第四,按照优化方案对各网页的页面结构(对网页各标签进行优化)和链接结构、网站的整体目录结构进行优化。
第五,为网站作有价值的资源链接,使网站活跃起来。
第六,经常更新网站的内容,使网站看起来具有活力,以便更好地留住目标客户。
1、页面关键字与关键字密度优化
很多搜索引擎都是通过页面的关键词密度来决定该页面对关键字的关联度,关联度越高,该页面的相关性就越高,所以应确保关键字在整个网页中的充分利用和合理分布。具体做法有:充分利用所有可以利用的因素,但不要过分重复或简单排列关键字;应遵循必要的语法规则,形成自然流畅的语句,使网页不失吸引力;从页面因素的优化角度出发,可考虑将关键字分布在网页标题元、网页描述/关键字元、正文标题、正文内容、文本链接、ALT标志当中。
2、框架优化
所谓框架型网页就是一个网页的某一边导航菜单是固定的,而页面另一边的信息可以上下移动。框架中的内容是无法在后台代码中体现的,而对于那些主要为搜索引掌的搜索程序来说,其设计思路都是完全忽略某些HTML代码,转而直接锁定网页上的实际内容进行索引。这样,搜索引擎在那些一般性的框架网页上根本找不到要搜索的内容。
3、动态页面优化
所谓动态网页指的是采用ASP、PHP、JSP、CGI等程序动态生成的页面。此类网页中的大部分内容来自于网站相连的数据库,在网络空间中并不存在实际的页面,只有在接到用户的访问要求,即当用户在变量区中输入相应值以后,才自动生成。而搜索引擎只是一个搜索程序,它无法像真实的用户一样选择变量并输入数值。
4、建立网站地图
网站地图包括主要网页的内容链接或者栏目链接。根据网站的大小、页面数量的多少,它可以链接部分主要的或者所有的栏目页面。这样,搜索引擎程序得到了网站地图页面,就可以迅速地访问整个站点上的所有网页及栏目。为了使网站地图吸引搜索引擎与真实访问者,一定要在链接后写上一定的描述性短句,对与此链接相关的关键词进行简单描述,但是不能过度使用关键词。作为网站地图,不仅是为搜索引擎设计的,也是为真实的访问者设计的,如果访问者能感觉到地图好用,搜索引擎也同样能正确地理解地图的意义。
SEO网站结构优化包括以下内容:
1、URL地址优化
为网站上的文件创建具有良好描述性的分类名和文件名,不仅可以更好地组织网站结构,还有助于搜索引擎更有效地抓取文件。虽然搜索引擎能够抓取复杂的URL,但提供相对简单的URL,对于用户和搜索引擎来说都是有帮助的。
优化URL结构的主要方法有,网站自始至终都使用一个URL地址,不要来回变更地址,如果用带www的域名地址,则将不带www的域名使用301重定向技术重定向到主要地址,避免使用大小写字母的URL,网站的URL尽量使用静态URL,避免使用动态URL,URL越短越好,URL的内容使用拼音或者英文最好,方便记忆。
对于动态网站来说,使用伪静态技术可以让网站的外部看起来和静态网站一样,利于搜索引擎的索引。
2、目录结构
目录结构最好用一级到二级,不要超过三级。目录的组织方式尽量采用:首页-》栏目页-》内容页。目录名采用拼音或者英文。避免使用多层嵌套的子目录。
3、robots.txt
robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。
当我们不希望网站中的某些页面被搜索引擎抓取,也许这些网页在搜索结果中出现对于用户来说并没多大用处,就可以把这些页面放在robots.txt里,这可以保证网站的某些内容不出现在搜索结果中。
4、Sitemaps
Sitemaps可方便网站管理员通知搜索引擎他们网站上有哪些可供抓取的网页,有点象BLOG的RSS功能,是一个方便自己的服务,如果大家(互联网上所有的信息源)都采用了这种方式提交自己的更新的话,搜索引擎就再也不用派出那么多爬虫辛辛苦苦的到处乱窜了,任何一个站点,只要有更新,便会自动“通知”搜索引擎,方便搜索引擎进行索引。
Sitemaps文件通常是XML格式的,格式比较简单,Sitemaps协议以 urlset 开始标记开始,以 /urlset 结束标记结束。 每个网址包含一个作为父标记的 url 条目。 每一个 url 父标记包括一个 loc 子标记条目。loc是网页文件的网址。此网址应以http开始并少于2048个字符。 lastmod表示该文件上次修改的日期。此日期允许删除时间部分,例如YYYY-MM-DD。
5、网站导航
网站的导航功能对于帮助用户迅速找到他们想要的内容来说是很重要的,它对帮助搜索引擎理解该网站有哪些重要内容同样非常重要。网站地图是将网站上用于展示网站结构的网页以层级式列表的方式展示。网站导航的主要目的是为了方便用户,但同时它也有利于搜索引擎对整个网站页面更全面地抓取。
主要的网站导航方法有,创造一个自然的层叠结构的网站地图页面,这个导航页面可以让用户很容易地从主干页面找到他们需要的特定内容,有必要的话可以在保证内部链接结构合理的基础上添加导航页。
使用面包屑(breadcrumb)导航模式,面包屑导航是指在网页顶端或者底部放置的一排内部链接,它使用户可以方便地回到上一层结构中的网页或者主页。大多数面包屑导航通常会从最具概括性的页面开始(通常是主页),越往右指向的页面内容越具体,例如“首页-》栏目-》具体文章标题”。
7、Nofollow的使用
nofollow标签是由Google领头新创的一个标签,目的是尽量减少垃圾链接对搜索引擎的影响,减少博客的垃圾留言,目前百度、Google、Yahoo、微软都支持这一标签。当超级链接中出现nofollow标签后,搜索引擎会不考虑这些链接的权重,也不用使用这些链接用于排名。
nofollow标签通常有两种使用方法:一种方法是将"nofollow"写在网页上的meta标签上,用来告诉搜索引擎不要抓取网页上的所有外部和包括内部链接。例如:meta name="robots” content="nofollow” / 。另一种方法是将"nofollow"放在超链接中,告诉搜索引擎不要抓取特定的链接。例如:a rel="nofollow" href="url" 。
需要注意的是,如果一个网站链向了某些被搜索引擎认为是垃圾网站的地址,那么这个网站的权重也会受到影响。因此对于一个网站来说,为了安全保险起见,所有那些有可能是第三方提交的超级链接都应该添加nofollow标签。
8、404页面
404 网页是用户尝试访问网站不存在的网页(由于用户点击了损坏的链接、网页已被删除或用户输入了错误的网址)时看到的页面。之所以称为 404 网页,是因为针对丢失网页的请求,网络服务器会返回 404 HTTP 状态代码,表明该网页未找到。
用户偶尔会因点击失效的链接或输入错误的URL而访问一些在网站域名下但并不存在的页面。使用自定义404网页能有效地帮助用户回到网站中有效页面,大大提高用户体验。404网页最好能提供回到网站主页的链接以及到网站中热门内容页面的链接。
通常用户最好创建一个自定义的 404 网页,以便获得这部分用户流量。一个好的自定义 404 网页可以帮助用户找到所需信息、提供其他实用内容及吸引用户进一步浏览用户的网站。
不过,很多网站设计的404页面都很简单,不少网站为了不损失流量,在404页面里面自动重定向到首页的方式,这并不是一个改善用户体验的设计方法。
关于网站结构优化的内容和方法和网站结构优化中什么是合理结构的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注云尚网络www.ysfad.net。
发表评论
暂时没有评论,来抢沙发吧~