网站结构优化包含哪些内容

SEO网站结构优化包括以下内容:

1、URL地址优化

为网站上的文件创建具有良好描述性的分类名和文件名,不仅可以更好地组织网站结构,还有助于搜索引擎更有效地抓取文件。虽然搜索引擎能够抓取复杂的URL,但提供相对简单的URL,对于用户和搜索引擎来说都是有帮助的。

优化URL结构的主要方法有,网站自始至终都使用一个URL地址,不要来回变更地址,如果用带www的域名地址,则将不带www的域名使用301重定向技术重定向到主要地址,避免使用大小写字母的URL,网站的URL尽量使用静态URL,避免使用动态URL,URL越短越好,URL的内容使用拼音或者英文最好,方便记忆。

对于动态网站来说,使用伪静态技术可以让网站的外部看起来和静态网站一样,利于搜索引擎的索引。

2、目录结构

目录结构最好用一级到二级,不要超过三级。目录的组织方式尽量采用:首页-》栏目页-》内容页。目录名采用拼音或者英文。避免使用多层嵌套的子目录。

3、robots.txt

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。

当我们不希望网站中的某些页面被搜索引擎抓取,也许这些网页在搜索结果中出现对于用户来说并没多大用处,就可以把这些页面放在robots.txt里,这可以保证网站的某些内容不出现在搜索结果中。

4、Sitemaps

Sitemaps可方便网站管理员通知搜索引擎他们网站上有哪些可供抓取的网页,有点象BLOG的RSS功能,是一个方便自己的服务,如果大家(互联网上所有的信息源)都采用了这种方式提交自己的更新的话,搜索引擎就再也不用派出那么多爬虫辛辛苦苦的到处乱窜了,任何一个站点,只要有更新,便会自动“通知”搜索引擎,方便搜索引擎进行索引。

Sitemaps文件通常是XML格式的,格式比较简单,Sitemaps协议以 urlset 开始标记开始,以 /urlset 结束标记结束。 每个网址包含一个作为父标记的 url 条目。 每一个 url 父标记包括一个 loc 子标记条目。loc是网页文件的网址。此网址应以http开始并少于2048个字符。 lastmod表示该文件上次修改的日期。此日期允许删除时间部分,例如YYYY-MM-DD。

5、网站导航

网站的导航功能对于帮助用户迅速找到他们想要的内容来说是很重要的,它对帮助搜索引擎理解该网站有哪些重要内容同样非常重要。网站地图是将网站上用于展示网站结构的网页以层级式列表的方式展示。网站导航的主要目的是为了方便用户,但同时它也有利于搜索引擎对整个网站页面更全面地抓取。

主要的网站导航方法有,创造一个自然的层叠结构的网站地图页面,这个导航页面可以让用户很容易地从主干页面找到他们需要的特定内容,有必要的话可以在保证内部链接结构合理的基础上添加导航页。

使用面包屑(breadcrumb)导航模式,面包屑导航是指在网页顶端或者底部放置的一排内部链接,它使用户可以方便地回到上一层结构中的网页或者主页。大多数面包屑导航通常会从最具概括性的页面开始(通常是主页),越往右指向的页面内容越具体,例如“首页-》栏目-》具体文章标题”。

7、Nofollow的使用

nofollow标签是由Google领头新创的一个标签,目的是尽量减少垃圾链接对搜索引擎的影响,减少博客的垃圾留言,目前百度、Google、Yahoo、微软都支持这一标签。当超级链接中出现nofollow标签后,搜索引擎会不考虑这些链接的权重,也不用使用这些链接用于排名。

nofollow标签通常有两种使用方法:一种方法是将"nofollow"写在网页上的meta标签上,用来告诉搜索引擎不要抓取网页上的所有外部和包括内部链接。例如:meta name="robots” content="nofollow” / 。另一种方法是将"nofollow"放在超链接中,告诉搜索引擎不要抓取特定的链接。例如:a rel="nofollow" href="url" 。

需要注意的是,如果一个网站链向了某些被搜索引擎认为是垃圾网站的地址,那么这个网站的权重也会受到影响。因此对于一个网站来说,为了安全保险起见,所有那些有可能是第三方提交的超级链接都应该添加nofollow标签。

8、404页面

404 网页是用户尝试访问网站不存在的网页(由于用户点击了损坏的链接、网页已被删除或用户输入了错误的网址)时看到的页面。之所以称为 404 网页,是因为针对丢失网页的请求,网络服务器会返回 404 HTTP 状态代码,表明该网页未找到。

用户偶尔会因点击失效的链接或输入错误的URL而访问一些在网站域名下但并不存在的页面。使用自定义404网页能有效地帮助用户回到网站中有效页面,大大提高用户体验。404网页最好能提供回到网站主页的链接以及到网站中热门内容页面的链接。

通常用户最好创建一个自定义的 404 网页,以便获得这部分用户流量。一个好的自定义 404 网页可以帮助用户找到所需信息、提供其他实用内容及吸引用户进一步浏览用户的网站。

不过,很多网站设计的404页面都很简单,不少网站为了不损失流量,在404页面里面自动重定向到首页的方式,这并不是一个改善用户体验的设计方法。

怎样优化网站结构

何一个网站,不管是个人网站、企业网站还是门户网站,建站之时首先要确定的就是网站的整体结构布局。一个好的网站结构布局会让搜索引擎蜘蛛更好的爬行,从而使网站得到更好更多的收录,今天,源码合买平台快筹号的站长就来跟大家谈谈如何布局网站结构的问题。

1、网站语言的选择影响蜘蛛对网站的兴趣

现在计算机语言很多,而且普遍做网站的语言很多,有。net、asp、php、html等,其实真正蜘蛛喜欢的语言就其中一个,那就是HTML,对于蜘蛛而言HTML语言也就是静态语言,首先选择静态语言对于蜘蛛来说很安全,而且对于蜘蛛来说静态网站的结构不会很复杂,所以蜘蛛很喜欢爬行,对于其他语言是动态语言的都是很畏惧的,比如动态网站有蜘蛛陷阱等方法影响蜘蛛爬行,所以说蜘蛛爬行动态网站的时候首先要判断网站是否可信是否可以爬行,有没有危险行为,所以蜘蛛对动态网站很畏惧,所以本人还是建议大家做静态网站是最好的,而且静态网站对于蜘蛛来说还是很喜欢的,虽然静态网站比较麻烦,但是我们可以在静态网站后面嵌入一些开源的**进行更新修改,这样不就方便多了。

2、网站导航的写法

现在有很多站长为了网站的美观就会用一些动态的JS脚本进行编写导航,其实这样是错误的,当蜘蛛爬行网站的时候只能识别代码和文字,对于JS虽然是代码,但是蜘蛛却无法识别的,这样一来网站导航的写法是很重要的,其中网站导航的写法可以写成HTML的,虽然难看一些没有什么效果,但是不至于降低用户体验度,所以本人还是不建议使用JS来做导航,做了导航蜘蛛也没法爬到也是没有用处。

3、网站中的banner是否该存在

所谓的banner也就是广告,有很多站长也是为了网站美观就在网站导航下面加入一大张图片,然后做出来一些效果供别人看,其实本人很不赞同网站首页出现这么大的banner广告,第一网站banner占据网站首页相当大的地方,第二网站banner出现的大张图片蜘蛛是无法识别的,所以对于蜘蛛而言你的图片虽然大,但是没有信息,所以也就影响不到蜘蛛,所以说你做的banner广告业就是没有用处,多此一举,所以本人还是建议有banner的网站全部咔嚓掉,免得后患无穷。

4、网站站内文章出现的位置

网站文章大家都知道是蜘蛛爬行收录的重要部分,所以网站文章一定要摆在显眼的地方,虽然最显眼的地方是首页了,但是我们可以把最新的网站安排出现在首页,这样的功能不难实现,只要在网站首页出现一个模块,把最新的新闻和企业信息安排出现在首页就可以了,这样的行为是可以让蜘蛛更容易爬行到网站的站内信息,并且对于新的信息蜘蛛是很看好的,所以说这么做是对的,有的网站的文章不出现在首页,有的时候最新新闻蜘蛛不爬行就是因为首页没有明确到,这是因为蜘蛛不可能把你的网站整个都爬行,所以说为了蜘蛛可以每天都爬行,办法就是让文章出现在首页,这样的结构也是现在比较流行的一种。

5、网站图片分布的位置

现在有很多网站都会有图片展示的栏目,当然我不是不赞同有这个栏目,有这个栏目是好的,但是首页出现的图片一定要少,蜘蛛对于图片我说过了就是一串代码,蜘蛛是无法识别的,所以传在多的图片蜘蛛无法识别也是不行的,所以对于网站首页最好少出现点图片,就像大型门户网站学习是最好的,图片在整体网站首页也就占据了百分之5左右,这样的结构是很好的,既不浪费资源也不浪费时间去处理图片,所以说这样是很好的,对于图片的分布也要学大型门户网站,把图片集结到一个栏目里面,这样给想看的人看个够,所以说这样的结构是很好的。

6、网站空间中文件夹的复杂程度

刚才我说了蜘蛛是不可能网站整体都会爬行的,说到这里我不得不说在网站空间里面都会有各种不同名称的文件夹,文件夹中都是一些网站的也面,所以当蜘蛛爬行的时候都是顺着这些文件夹爬行的,在爬行中蜘蛛见到打开比较慢的地方就回跳过,不会无限制爬行的,而且蜘蛛爬行的时候看网站空间文件夹太过于复杂,蜘蛛就会感觉到不安,并且认为你的网站有可能会损害蜘蛛,所以说蜘蛛就很有可能直接跳出网站,这样一来蜘蛛以后很难在对你的网站爬行了,所以本人还是建议大家不要把网站空间的文件夹设置的太过于复杂,只要简简单单的,蜘蛛也爬行的好,也不影响用户体验,岂不是乐哉。

7、网站友情链接的位置安排

说到友情链接大家已经不陌生了,说起来友情链接也是站内结构一个比较重要部分,有很多网站都会把友情链接放在首页,其实这样是不对的,首先如果你的友情链接过多,搜索引擎蜘蛛爬行的时候会感觉你的网站有作弊的可能,而且对于你的网站加入链接太多的话,很有可能直接被K掉,所以为了安全最好把友情链接放在页内,这样是很安全了,单独开一个页面放友情链接。

8、国内空间网站必须备-案

备-案就不用说了,在国内空间的人都知道网站备-案

网站结构优化的方法

网站结构优化的方法

网站优化的过程当中也会有针对性的去偏向优化。至于很多站长所说的网站结构最好是树状结构或者比较理想的网状结构之类,只要你按照“迷路的小爬虫”所述的网站结构优化要点去做,你就会搭建成一个树状甚至网状化结构的网站。下面是我带来的网站结构优化的方法,希望对你有帮助!

目录结构通俗来讲就是网站的URL结构,在服务器上搭建网站的时候,站长会发现服务器的根目录下一般都会有一个WWW的文件夹,这个不是一定的,但是大部分的命名都是如此,然后按照网站的规划和内容布局会有一级一级的目录基于WWW来构建,而每一个目录下面都会有具体的网页文件,比如:html、shtml、aspx、php等,这种目录路径的搭建就形成了用户访问的URL地址,从另一个方面说URL地址就是文件存储在服务器上的目录路径;这样说即使对于刚入门的站长来说也是非常容易理解。

内链结构通俗上讲就是网站页面与页面之间的关系,建设网站的站长都知道,一张页面上除了核心内容,尤其是网站的首页、栏目页或者列表页都会很多的链接组成,而这些页面的链接就形成了整个网站的内链结构。至于什么形式内内链结构更加合理,对搜索更加友好,在接下来会一一分享给站长朋友。

什么样的网站结构对搜索引擎友好?

同样在这一块分开来讲,以便于站长能够更加清晰的认知网站结构如何去围绕搜索引擎来部署。

前面提到目录结构的概念,基于根目录扩散成一个个实实在在存在的文件,清晰的目录路径不仅有利于站长来管理,对于搜索引擎来说也是非常的友好,通过爬取轨迹一级级获取它要抓取的页面,如果你的网站仅仅有一个首页、若干个栏目页、可扩展的专题页和文章详情页,那么理想化的URL结构就是按照服务器上实实在在的文件存储位置来构建。但是往往一个网站并不是如此简单的情况,网站多少会有一些功能性的产品要与用户做交互,要通过动态程序去构建很多的页面,以丰富网站的产品体验,所以你会发现好多网站的URL里面会有很多的动态参数,因为这些页面都是通过一定的技术批量生成的页面,并不是在服务器里面实实在在存在的页面,而官方声明搜索引擎恰恰更喜欢静态化的页面,这个时候就需要对URL地址进行包装重构,不管是Apache、Ngnix或者IIS都对 URL地址有重写模块,这些暂时不做介绍,这里只介绍重写成什么样的URL地址才更有利于搜索引擎的抓取,主要包含以下两个个方面:

1、URL地址命名要贴近目标页面的主题名称,有利于提升与目标页面的相关性,从而提升目标页面权重;

2、URL地址的层级基于所属的类目越小越好,层级越小可以告诉搜索引擎文件存在的目录深度越小,越容易被抓取,因为只有重要的页面才会放到与根目录最近的位置,搜索引擎也会认为这些文件是网站里面相对来说比较重要的页面,优先抓取。

内链结构主要反映的是页面之间的关系,和目录结构类似,被放到首页的链接地址往往更容易被搜素引擎抓取,这里涉及到一个链接深度的概念。搜索从发现你的网站到开始抓取页面,一般都是从首页开始进行的,如果你是一个新站的话,可以从日志里面查询到。也就是说离首页越近的网址越容易被抓取到,这里同样搜索引擎会认为链接深度越小的页面,在网站里面的重要性越大,和目录结构一致,链接深度越小的'页面权重也会越大,被索引的几率也会越大。总而言之内链结构对搜索引擎的友好度主要从以下几个方面去做:

1、从首页开始要包含网站中最重要的业务板块,一般来说都是个频道栏目页和专题的聚合;

2、栏目、专题页面要包含它们归类下最新的内容模块和热门模块,同时要有返回上一次层级的面包屑;

3、详情页面做为核心内容页面同样也要有相关推荐板块,以及同归属栏目下热门推荐板块,当然面包屑也是必须要有,在这里要特别强调一下合理的使用标签可以增强文章与文章的关系,更有利于搜索引擎的爬取,关于标签“迷路的小爬虫”会专门用一篇文章来告诉站长如何去布局使用。

基本上只要你按照以上的方式去优化你的网站结构,相信你的网站在数据上面的良好体现也会稳步提升。

网站结构优化注意事项

在这里“迷路的小爬虫”也是要总结以下几点来说明过度的优化网站结构可能会出现被K的风险,总结主要由以下几点:

1、为了减少链接深度,首页和频道页堆砌上千条链接地址,这种情况对于前期网站权重不是很高的前提下基本上会被k的体无完肤;

2、索引标签的大量使用,在网站没有一定规模的文章或者其他的资源做支撑的前提下,慎重使用标签聚合站内资源,因为大量的添加索引标签可能会造成网站很多重复的页面和空页面,结果被k也是不可避免的;

3、详情页面勉强的增加推荐板块,造成整个页面繁杂冗余,也是不可取的,详情页本来权重在整个网站体系里面最低,再增加如此多链接,只会被降权,即使收录也不会有好的排名;

4、为了减少目录深度,所有的页面全部堆砌到二级目录,这种做法也是不可取的,如果整个网站除了首页全部是二级目录,也就没有主次之分,目录深度影响权重这条规则也就不可取了。

以上四点是“迷路的小爬虫”认为比较重要的几项因素,也是很多站长会拿捏不好的几个地方,所以单独做为一项拿出来重点强调,希望站长朋友不要再犯这样的错误。

;