当前位置:首页 » 宠物新闻 » 正文

网站改版后,站长首要做的几件事

2014年12月04日 15:36:32  分类: 宠物新闻  参与: 1373人  点这评论

网站改版后,站长需要做好哪些工作?

网站改版

不更改域名的情况下,对网站版面重新设计排版,增加用户体验度。伴随改版而来的网站链接的变更,是我们需要重点考虑的问题,尤其是死链问题我们如何处理,以及改版对网站权重和排名的影响,如何降低改版对网站的损失。


◇ 网站日志分析

网站改版后,需要每天关注新网站的动态,尤其需要了解搜索引擎对新网站的爬行及抓取是否友好,这里就需要对网站日志进行分析,查看搜索引擎返回代码200正常代码,还是400错误代码以及500服务器的错误代码呢。针对以上不正常的返回代码,做好应对工作。


◇ 死链处理

死链多是由改版前的网站沉淀下来的链接,由于网站改版所引起的链接地址的变化,从而导致原来页面的不存,在搜索引擎爬行所返回404代码。我们知道如果一个网站返回的状态码404太多的话,对网站自身的优化很不利,所以这里需要我们做好死链的如理。


1、增加用户体验度,制作404页面

前面有介绍关于404页面自定义设置问题,这里就不多说了。网上有许多404页面设计及代码,自己可以查询下载,或者通过一些网站输入错误路径,查看他们的404页面然后把源代码复制,相应的域名和链接做更改。


2、利用百度工具,提交死链地址

上图是百度死链提交入口,如果网站的死链比较少的话,可以把相应的死链地址提交给百度。如果网站的死链比较多的话,可以按照百度提供的办法制作一个死链地图,基本上每个站都有网站地图,把改版前的网站地图更改名称上传到网站的根目录下,然后把网站根目录的地址百度死链文件地址一栏填写正确,并提交,如上图。


3、利用robots协议阻止死链的抓取

robots.txt的文件是一个文本格式,告诉蜘蛛网站哪些内容是被允许抓取,哪些内容不被允许。robots.txt的写法非常简单:

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

Disallow: /sjcs/ 这里定义是禁止爬寻sjcs目录下面的目录

这里只需把死链的地址放入robots协议里就行了,等待更改后的robots协议。


◇ 新网站地图的制作

为了让蜘蛛尽快抓取改版后的网站,我们需要制作一个网站地图吸引蜘蛛的到来,这里就需要我们制作一个网站地图。不懂代码,不会制作的站长不用担心,网上有许多“在线制作网站地图”,只需要把网站域名填好自动生成并保存相应的格式。制作好的网站地图,上传到网站的根目录下,这里需要说明在robots协议的最后一行添加网站地图地址,是告诉蜘蛛这个网站的网站地图位置,吸引蜘蛛抓取,如上面的robots协议图中“sitemap”就是网站地图。


更多seo优化文章分享,尽在landy个人博客:www.anlandy.com





来源:杨小羽宠物资讯(公众号:yangmxiaoyu或搜“杨萌小羽”),转载请保留出处和链接!

本文链接:http://www.anlandy.com/post/59.html

本文标签:网站改版  网站优化  seo优化  

更多萌宠精彩内容,关注微信公众号:yangmxiaoyu

<< 上一篇 下一篇 >>

网站分类

最近发表

标签列表

最近留言

【广而告之】

    ____________________________

网站地图 | 宠物新闻 | 宠物故事 | 宠物视频 | 杨小羽

京ICP备14047936号