一:使用Robots.txt屏蔽或者使用301重定向
对于这个方法是很多站长最长使用的方法之一。但是这个也会遇到一个问题,那就是如果你的站点的内容很庞大,就如笔者的站点,在改版升级之前收录有26万3000,如下图所示,能不能使用这两个方法呢?因为笔者的站点改版后,内容层次分布有改动,所以没办法用简单的Robots文件屏蔽,只能使用301重定向,但是这么大的收录量,使用这个方法是最耗时耗力的方法。
二:直接使用404错误页面
这个方法对于收录量大的站点还是很有用的,将站点内部存在的死链接直接跳转到404错误页面。然后通过404错误页面将用户引导到改版后的压面。这样可以降低网站流量的流失,使得用户可以找到站点。对于404页面的跳转时间的设置,笔者认为不要太短,最好在八秒到十秒左右,而且页面有引诱访客自行点击的链接,如下图所示,让用户自行点击会比直接跳转更好。
三:坚持内容的稳定更新
对于一个刚升级的站点,稳定的进行内容的更新是至关重要的,这样不仅可以快速的在升级后吸引到蜘蛛的爬行,而且也可以让蜘蛛再次抓取旧的数据来进行替换。搜索引擎蜘蛛通常都是采取广度优先,以超链接的形式来进行爬行站点。因此我们在稳定更新站点内容的同时也要合理的进行內链的构建,一步步稳定的吸引蜘蛛,达到重新收录内容,删除旧收录的信息的效果。
笔者认为对于一个有着大量收录的站点来说,最有效而直接的处理改版后大量的死链接的方法就是第二和第三。使用这两个方法不仅可以降低权重的损失,而且也可以减少流量的流失。