400-685-0732

WJMonitor舆情之声

企业大数据智能舆情监测管理解决方案

全网监测海量数据按需发布监测预警

实时把握舆情动态精准追溯信息源头

获取验证码
企业采购 个人使用
当前位置: 首页 > SEO博客 > SEO优化需尽善尽美—站内优化中最容易疏忽的地方

SEO优化需尽善尽美—站内优化中最容易疏忽的地方

时间:2011-12-18 21:38:13
所谓万事开头难,做SEO也一样。对于一个新上线的网站,站内优化需要从网站的架构、关键词、内容、链接、CMS系统等要方面进行SEO优化,要确保每个方面做的尽善尽美,不要等后期网站出问题,才发现起初站内优化做的不够完美,于是暗自感叹早知今日,何必当初!

站内优化中最基本也是最容易疏忽的地方:

一、301跳转,一般网站域名会出现下面几种形式:
        www.xxx.com
        xxx.com/
        www.xxx.com/index.html
        xxx.com/index.html

这些域名对于用户来说都可以正常访问网站,但是对于搜索引擎来说,会认为是不同的URL,导致网站www.xxx.com权重的分散,这个道理大家应该都知道吧,就犹如一个苹果分4个人吃。。。。。

针对不不同的系统用户,301重定向具体办法也是不同。不管你是linux系统,Unix系统或Windows系统的用户,还是需要用ASP/PHP来实现301重定向,最好网站上线前做好,避免在后期优化中导致网站权重分散,关键词排名上不去。

二、网站内容太少,一个网站中代码量过多,文字内容太少,对于搜索引擎来说是非常不好的,这里涉及到一些JS调用,CSS代码统一编写,为什么要采用div+css,大家可以阅读为何DIV+CSS架构比Table要好?笔者一个网站上线1个多月了,发现很多页面至今还没收录,发现网页内容过于简单,图片占据页面大部分地方,当然可能也不单只是这一个原因。所以网站上线前,大家要多花点心思把网站内容丰富好,特别是首页多布置几个CMS展示模块,保持网站的更新。

三、robots.txt文件,网站上线前一定要检查robots.txt文件是否正确。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。Disallow一些文件被蜘蛛索取,可以节省服务器资源,同时也是为了蜘蛛更好爬去网站最重要的内容。

容易犯的错误:

1、robots.txt文件必须放置在一个站点的根目录下,而且文件名必须全部小写。

2、robots.txt文件关于Sitemap的链接一定是绝对路径。例如:http://www.***.com/sitemap.xml,XML地图必须在网站根目录下才有效。笔者就出现一个网站上线一个月才发现网站地图一直被Disallow着。

3、因为兼容性的问题,建议大家使用 ANSI 格式编码,或者使用 utf-8 编码格式编写robots.txt文件,记住需要空出首行。还有一个建议就是robots.txt中最好不要出现中文,即使是注释也要使用英文。

以上这3个问题都SEO站内优化中是最基本也是最容易疏忽的地方,笔者也是尝到苦果后,才有今天深刻的教训,希望大家引以为戒。

 

 

 
分享按钮