配置及结构设计
一、域名与SEO
域名后缀
首先第一点需要谈到域名的后缀,SEO行业曾经流行这样一种观点.edu和.gov等不能随便注册的域名天生有更高的权重。.edu只有美国大学等教育机构才能注册,.gov只有政府部门才能注册。其实这个问题我在前面的博文中已经谈到过,他们并没有先天性的优势,只是这些域名的网站相对来说有质量上的优势,因为此类网站不存在垃圾或者质量差的文章等等,并且声誉以及各方面给予的评价都是相对高的,因此,这样的网站在后期的综合水平上要占上风。话说回来在SEO界他们是公认的最好的外链资源,做SEO优化无非是两点,第一点内站优化,第二点站外外链建设。这样的平台无疑是SEOer最受欢迎的,其实,有没有想过相关性这个问题。
域名年龄
正所谓姜还是老的辣,域名注册越早,对排名越有利,这一点是可以肯定的。正因为如此购买老域名是SEO行业的常见做法。它不仅仅能够有利于排名,并且能够快速增加权重已经PR值,如果你有一个一九九几年的域名,那你就发财了。
域名第一次被收录的时间
除了域名注册时间外,域名上的内容第一次被搜索引擎收录的时间也很重要。有的老域名购买之后就放那里没有解析,那么搜索引擎没有收录任何内容,这样的话就比不上很早就被收录的域名,只要域名被收录搜索引擎就有记录,那么以后再重新注册搜索引擎将会以老域名的身份对待它,并且给予更多权重。
域名续费时间
这个观点看似简单,其实不简单,原因就在于搜索引擎判断你这个网站是否用心在做,一般黑帽SEO通常注册域名仅一年的时间,因为他们知道黑帽行为常常遭来杀身之祸,所以续费太长对自己没有好处,针对搜索引擎来说,如果注册时间短会遭到搜索引擎质疑,不仅仅是对网站观察时间长,更能影响搜索引擎注意,也不会给予过多的好评。
域名包含关键词
这一点我想大家都很清楚,URL中包含关键词对排名非常有利,大家可以看我这个SEO博客的栏目,虽然域名不包含SEO,但是栏目带有SEO,比如http://www.xiongxiangyang.com/seoboke/和http://www.xiongxiangyang.com/seojishu/这两个都是,需要提示一点的是URL中包含关键词主要适用于英文站,因为URL中不易出现中文不利于搜索引擎检索(tags标签除外)。
域名连词符使用
以前流行使用连词符,甚至多个连词符。前面说过域名包含关键词对SEO优化有好处,有的域名早就被注册了,那么有些SEO就转而注册连词符把关键词分开的域名。比如seo.com早被注册了,那么他会注册s-e-o.com。这种连词符虽然问题不大,但是有两点不可取之处,第一,连词符给用户的印象不好,让人引起怀疑,任何大公司正规公司很少会选择连词符注册域名。第二,虽然问题不大,但是会引起搜索引擎怀疑,因为搜索引擎对此类域名比较敏感。
域名长短
域名中包含目标关键词,往往就会导致域名过长。在很多情况下,长域名所带来的SEO优势远没有带来的弊端多。长域名用户体验差,分散权重,另外现在很多平台发外链都限制个性签名长度,这一点我深有体会,不信大家可以看我网站域名。
关键词域名与品牌相比较,永远是品牌优先,用户易用性优先。短域名易记、易写、易传播,由此带来的好处往往会超过域名中含有关键词的好处。当然,如果既包含关键词又短,那是再好不过的。
域名购买历史
域名注册以后是否曾经转手?域名主人是否跟垃圾网站有关联?这对域名权重有一定影响。所以在买二手域名时,应该注意查看一下域名曾经转手多少次,主人是谁,搜索引擎数据库中都记录了的内容是什么,有没有与敏感内容相关联。什么色情、赌博、减肥药、药品买卖等等。这些领域虚假泛滥需注意。
品牌优先
这里要提到的有点就是品牌优先是指的可以用品牌作为域名,像“百度”他没有用“搜索引擎”这个关键词作为域名,而是用了“百度”,比如说“天涯”他没有用“社区”或者是“论坛”作为网站域名,而是用品牌词作域名,这样让人容易记,并且易传播,对于网络推广有很大帮助,所以我们会看到很多公司会使用公司名称作为网站域名从而提高品牌效应。
二、主机与SEO
所有的网站都依附于服务器硬件。服务器(或说主机)性能也会影响SEO效果。
IP及整个服务器惩罚
一个IP地址或整个服务器被搜索引擎惩罚是很少见得情况,除非这个IP地址上的大部分网站都由于虚假被惩罚,这种情况下没有虚假的网站才可能受连累。不过使用虚拟主机时,同一架服务器恰好碰上大部分网站都虚假的可能性非常低。
服务器设置
有的主机设置有题目,整个服务器都禁止搜索引擎爬行,普通用户访问网站时则没有题目。还有的服务器404错误信息设置不正确,页面不存在时,用户看到的是404错误信息,但返回的服务器头信息却是200,这样会使搜索引擎以为存在很多复制内容。
稳定性
服务器三天两头死机,必然会影响搜索引擎爬行和收录。
主机速度
除了影响网站用户体验和转化率,主机速度也会严重影响网站收录。
三、URL设计原则及静态化
URL设计原则:
简短的URL,对用户及搜索引擎友好 (用户轻易录入并易记忆的URL,尽可能的短)
URL能反映出网站机关(目录条理深并不影响SEO的下场,之前良多人说目录越深,对搜索引擎越不优化,其实这是一个错误的指导)
永远链接,URL轨则定好后,最好不要再做变换。
URL要统一(巨细写问题,应避免杂乱的年夜小组合命名问题,避免拼音或英文杂沓组合, )
在这里我告诉巨匠一个动静, 此刻百度引擎可以识别中文utf-8编码的URL
URL可打点(URL映射机制;内容调动后尺度的转向,好比301转向和404错误页面)
静态URL
静态URL就是指不带有“?”、“=”以及“&”等字符的URL,换句话说就是不带有任何参数的URL就是静态URL。 例如: http://www.XXX.com/index.php/xjwzjgyh/ 一般以.html后缀结尾的网页地址是静态网址
更好的迎合搜索引擎工作原理的爬行抓取机制
当普通用户通过浏览器发送指定的URL请求时,Web服务器收到请求后定位到指定的文件,或者根据程序从数据库中调用相应的数据返回到浏览器。经过浏览器处理后,用户就可以看到一个完整的文件。现在的网站绝大多数是数据库驱动,页面由程序实时生成,而不是真的在服务器上有一个静态HTML文件存在。当用户访问一个网址时,程序根据URL中的参数调用数据库数据,实时生成页面内容。因此动态页面相对应的URL原始状态也是动态的,包含问号、等号及参数。 其实搜索引擎也相当于一个客户端,只是搜索引擎是一个比较特殊的客户端。搜索引擎在对指定的URL发送访问请求后,也像普通用户一样能得到一个文件。再对该文件进行分析,提取其中的信息并存储。对于搜索引擎来说,不管是抓取静态页面还是动态页面都不存在任何的困难。但是,不管是普通用户还是搜索引擎获取静态文件的速度都相对更快,这样搜索引擎就能够在同样的时间内获取到更多的信息。因而,搜索引擎会更重视静态页面,并赋予静态页面更高的权重。
把网站URL静态化更有助于网站获得好的排名
搜索引擎在发展初期(其实也就是10年前到三四年前而已)一般不太愿意爬行和收录动态URL,主要原因是可能陷入无限循环或收录大量重复内容,造成资源极大浪费。做seo,当然是对搜索引擎友好!百度蜘蛛更喜欢静态的东西,简单的东西,url静态化有利于排名,当然不是说静态的网站排名比动态的网站排名好,只是相对而已。做seo的,尽量让自己的网站静态化,注意细小的东西才能把网站做大!最典型的无限循环就是某些网站上出现的万年历,很多博客都按时间存档,一些宾馆、航班查询网站都经常出现万年历形式,所以以前的搜索引擎对动态URL敬而远之,要想网站页面被充分收录,站长需要把动态URL转化为静态URL。
URL静态化有利于用户体验、不容易出错 例如:w-w-w.exam-ple.c-om/product/bin/answ ... &&query=URL w-w-w.e-xam-ple.c-om/product/men/shoes/index.html 4、可以提高网站访速度、完全性、稳定性 从访问速度来讲:不管是asp、php、jsp、.net等动态程序,都需要读取调用数据库内容,才能显示数据,相对于流量比较大,就增加了数据库的读取次数,占用很大的服务器资源,影响网站速度。而采用网站做成静态的,直接除去了读取数据库的操作,减少了环节,提高了网站反映速度。 从安全角度来讲:静态网页不易遭到黑客攻击。除开源程序采用的是开源cms,如果黑客不知道你网站的后台、网站采用程序、数据库的地址,静态网页更不容易受到黑客的攻击。 从网站稳定性来讲:如果程序、数据库出了问题,会直接影响网站的访问,而静态网页就避免了如此情况,不会因为程序等,而损失网站数据,影响正常打开,损失用户体验,影响网站信任度。
四、网址的规范化问题
网址的规范化问题是近两年才引起站长们注意的问题,原来的时候,根本就没有人关注过这方面的问题,因为网址的规范化问题确实能影响到网站的收录和排名,所以才渐渐引起了大家的注意。
首先说一下造成网址不规范化的原因:
cms系统的原因,像同一篇文章可以通过不同的url访问到。
url静态化设置错误,同一篇文章中出现多个静态url。
url静态化后,静态与动态并存,都有连接,也都能访问到该页面。
跟踪代码。当我们copy一个网址时都不怎么注意,往往是带着url后面的跟踪代码一块复制,因为在不同的地方,后面的代码是不一样的,这就造成了url的不规范化。以上是造成url不规范化的几个主要原因。
网址的不规范化会给我们造成的问题主要由以下几点:
cms在不同的地方链接到不同的url,分散了页面的权重,不利于排名。
外部链接也可能链向不同的url,同样分散页面的权重。
搜索引擎所判断的规范化网址可能不是站长想要的那个网址。
影响蜘蛛的抓取,当然就会影响收录。
不同的url在蜘蛛看来就是大量相同的页面,复制内容过多,可能被搜索引擎误认为虚假,可能受到惩罚。
网址规范化解决方法
解决网址规范化问题有多种方法。适合于大多数网站的有以下4种 :
301重定向,将不带"www"的网址重定向到带"www"的网址
rel=“canonical”标签,但要注意的是这个标签是搜索引擎只具有建议作用,没有强制命令作用。
提交网址地图,将网站每个页面的规范网址列入网站地图,提交给搜索引擎。
robots文件禁止收录机制,禁止收录不规范网址,如动态与静态网址共存时,禁止收录动态网址。
五、网站重定向及404优化
如何重定向网站
当移动网站上的一个网页时,您无法总是更正所有引用该页上的旧 URL 的链接。为了确保浏览器能够找到位于新 URL 的网页,可以命令 Web 服务器将浏览器“重定向”到新 URL。可以将对一个目录中文件的请求重定向到另一个目录、另一个网站或者另一个目录中的另一个文件。当浏览器请求位于原始 URL 的文件时,Web 服务器命令浏览器通过使用新 URL 请求网页。
要点您必须是本地计算机上 Administrators 组的成员或者必须被委派了相应的权限,才能执行下列步骤。作为安全性的最佳操作,请使用不属于 Administrators 组的帐户登录计算机,然后使用运行方式命令以管理员身份运行 IIS 管理器。在命令提示符下,键入 runas /user:administrative_accountname "mmc %systemroot%\system32\inetsrv\iis.msc"。将请求重定向到另一个网站或目录在IIS 管理器中,展开本地计算机,右键单击要重定向的网站或目录,然后单击“属性”。单击“主目录”、“虚拟目录”或“目录”选项卡。在“此资源的内容来自”下,单击“重定向到 URL”。在“重定向到”框中,键入目标目录或网站的 URL。
例如,要将对 Catalog 目录中文件的所有请求都重定向到 NewCatalog 目录,请键入 /NewCatalog。重定向对单个文件的所有请求在IIS 管理器中,展开本地计算机,右键单击要重定向的网站或目录,然后单击“属性”。单击“主目录”、“虚拟目录”或“目录”选项卡。在“此资源的内容来自”下,单击“重定向到 URL”。在“重定向到”框中,键入目标文件的 URL。选中“上面输入的准确 URL”复选框以防止 Web 服务器将原始文件名附加到目标 URL 中。
您可以在目标 URL 中使用通配符和重定向变量来准确控制如何将源 URL 转换为目标 URL。还可以使用重定向方法将对特定目录中文件的所有请求重定向到一个程序。通常,您应该将所有参数从原始 URL 传递到该程序,这可以通过重定向变量来完成。将请求重定向到程序在IIS 管理器中,展开本地计算机,右键单击要重定向的网站或目录,然后单击“属性”。单击“主目录”、“虚拟目录”或“目录”选项卡。在“此资源的内容来自”下,单击“重定向到 URL”。
在“重定向到”框中,键入该程序的 URL,其中包括将参数传递到该程序所需的任何重定向变量。例如,要将 Scripts 目录中所有的脚本请求重定向到日志程序中(该程序记录请求的 URL 以及与该 URL 一起传递的任何参数),请键入 /Scripts/Logger.exe?URL=$V+PARAMS=$P。$V 和 $P 是重定向变量。
404优化
404页面是当客户端使用HTTP浏览网页时,服务器需要针对不同的“要求”**不同的“回应”,譬如浏览器发出HTML文件(网页)的要求,并带有数字回应码和MIME的讯息。代码404的第一个“4”代表客户端的错误,如错误的网页位址;后两的数字码则代表着特定的错误讯息。HTTP的三字符代码跟早期通讯协定FTP和NNTP的代码相当类似。
从HTTP的层面来看,404讯息码之后通常会有一个可读的讯息“Not Found”,许多网络服务器的默认页面也都有“404”代码跟“Not Found”的词汇。
404错误讯息通常是在目标页面被更动或移除之后显现的页面。
404页面的目的是:告诉浏览者其所请求的页面不存在或链接错误,同时引导用户使用网站其他页面而不是关闭窗口离开。
很多网站都不404页面或404页面并未达到SEO的要求,影响网站的权威性。一个好的自定义 404 网页可以帮助用户找到所需信息、**其他实用内容及吸引用户进一步浏览您的网站。
怎么样的404页面才算达到SEO要求?搜索引擎通过IIS状态码来识别网页的状态。当搜索引擎获得了一个错误链接时,网站应该返回404状态码,告诉搜索引擎放弃对该链接的索引。而如果返回200或302状态码,搜索引擎就会为该链接建立索引,这导致大量不同的链接指向了相同的网页内容。结果是,搜索引擎对该网站的信任度大幅降低。
正确建立404页面的方法是:(仅适合Apache服务器)
第一、在.htaccess 文件中加入代码: ErrorDocument 404 /Error.html
第二、建立一个简单的html404页面命名 Error.html
第三、把 Error.html放置在网站根目录
第四、不要再404页面直接使用Meta Refresh,这样404页面可能返回200错误代码或者303状态码,降低对网站质量的评定;
第五、不要将404错误直接转向到网站首页,这将导致首页不被收录;
第六、htacces文件里面的 /Error.html 前面不要带主域名,否者返回的状态码是302或200状态码。
六、导航设计技巧及优化
导航设计技巧
每页都有自己的标题
许多企业网站的所有页的标题都是企业的名字或者一句口号,这会让用户不知道他们访问的当前页是说什么的,每页都应有一个和本页内容匹配的标题,这样,即使用户打开了很多窗口,仍然可以通过标题知道哪一页是说什么的。从优化的角度看,在标题中使用本页内容中某些关键词是非常好的习惯,而且,企业网站建设中当您的页面出现在搜索引擎的搜索结果中时,您的页面标题应当明确地告诉搜索者他们搜到的页面是介绍什么的。
导航深度不超过三层
虽然很多人觉得这太绝对,事实上,创想家园通过调研发现,用户需要点三次才能找到自己想要的内容仍然太多,企业网站建设中那种一级一级下潜的导航菜单是令人生畏的,很多人会产生进去以后便找不到路回来的恐惧,如果您能够很好地组织自己的内容,结合分页机制,Tag机制,对绝大多数企业(公司)网站,三层导航深度已经足够使用了。
任何页都有一个链接指向首页
人们进入一个陌生的地方,当感到迷失或不安的时候,会立刻想到返回入口位置,访问者进入您的网站也是这样,每页都有一个指向首页的链接可以帮助用户在感到迷失的时候,迅速返回网站入口重新开始。
网站导航优化技巧
导航目录直观清晰
导航栏,是我们网站最重要的入口之一。我可以说导航可以算是网站内容上的整体分类,所以我们做好分类就可以非常直接的给访客呈现出网站的整个结构。便于用户能够及时的找到自己所需要的内容,不容易迷失在网站中。而且搜索引擎在对网站进行索引爬取的时候层次的明确和直观也会让搜索引擎非常便捷的抓取到整个网站的信息。
建立网站导航时要使用文本形式
建立网站的导航结构时,要尽量使用文本的形式,而非图片、Flash等对搜索引擎不太友好的形式,随着搜索引擎技术的发展,现在一些搜索引擎已经能读取图片了,可是大多数搜索引擎还是不能很好的读取图片信息的,百度就在它的优化指南里边讲过说百度目前百度只能识别文本内容,对图片、Flash、Javascript等形式还不能很好的处理。所以我们要尽量通过文本链接来实现页面与页面之间的导航,这样做可以让搜索引擎更好的抓取你网站的内容。
使用面包屑导航
面包屑是网页顶部或者底部的一排内部链接。它指出用户当前所处的位置,能够很好地返回到上一级页面和网站首页页面,这样不但方便了用户,而且可以让搜索引擎知道当前页面在网站整个导航结构中所处的位置。也方便了搜索引擎蜘蛛的抓取。
突出重点利于优化
为什么说突出重点利于优化,因为当我们网站的首页的权重不断提高的时候,那么在导航所分得的权重也是相当高的,通过前面提到的归纳分类,根据我们有限的导航空间大小,放入适当的导航文字,同样也可以选择我们的关键词,这样可以通过权重的传导,提高关键词的权重值,所以我们要合理操作,不能浪费资源。
根据行业进行导航调整
一般导航我们能照搬照抄,一定要符合行业类型,导航目录分类如何操作:
根据行业属性分类
根据地区分类
根据网站用户喜好分类
根据价格分类
根据产品分类
要有一张有所帮助的404导航页面
当我们网站改版时,会有大量失效的链接,这时候当用户通过以前的URL访问我们的网站时,就会出现页面打不开的现象,或者用户输入错误的URL试图访问我们的网站,这时候我们要做一个404页面,来引导用户进入他们想要看的页面。在404页面中,可以放上网站首页的链接,放上网站比较重要页面的链接,注意要引导用户点击链接进入他们想要的页面,不要使用自动跳转的形式直接转到首页,而且我们的404页面不要让搜索引擎索引。
从用户的角度思考
首先要搞清楚,我们有没有满足用户的需求之前,一定要清楚一个观念,我们的用户群体和我们所经营的产品的用户需求到底是什么?(是通过网站进行直接接单,从而产生收益。)通过需求来建立符合用户体验的网站。
七、robots.txt文件
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。
请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。