众所周知,外链是可以对网站的权重提升,起到一定的帮助作用的,如果你的外链是属于低质量的垃圾外链,这样对你的网站的权重就没有任何帮助,反而对你的网站影响是很大的,很多站长朋友们平时兢兢业业地在做网站优化,突然间发现自己的网站出现了很多的垃圾外链,这是很多站长朋友们就觉得纳闷了,不知道是怎么回事?
一、网站被挂垃圾外链是什么意思?
所谓的网站被挂了大量的垃圾外链,它的意思就是网站被恶意挂上了一些外部的链接,也就是我们常说的出站链接了,这里就给大家举例说明一下吧,常见的网站被挂垃圾外链都是一些灰色行业的链接,例如:博cai、黄se等,那么,为什么都是挂灰色行业的链接呢?就是这类的灰色行业本身是搜索引擎打击的对象,属于不正规的网站,还有就是灰色行业都是比较暴利的,正因如此,给别人的网站挂上自己网站的链接,从而,获得更多的利润,赚钱更多的钱财等。
二、危害
网站被挂了大量的垃圾外链对网站的危害是很大的,因为,垃圾外链本身不能被搜索引擎马上识别,可是,这些未被识别之前的垃圾外链,是可以被搜索引擎计算到关键词的排名权重的,但是,假如你的这些垃圾外链被搜索引擎识别了,那么,搜索引擎就是删除这些垃圾外链,从而,就会导致你的网站降权的情况发生了,因此,这里友情提示大家,如果是因为网站被挂了大量垃圾外链所导致的网站降权的,这种降权情况的恢复周期是比较长的,一般要2-3个月才能恢复,所以,我们平时一定要做好网站的安全工作,尽量避免网站被黑客攻击,挂上了大量的垃圾外链。
三、解决办法
1、检查网站是否被挂马
网站如果被人恶意挂了大量的垃圾外链,这个时候,大家千万别着急,首先,一定要检查一下你的网站是否被挂马了,这里就给大家讲一下吧,如果你的网站前一天还好好的,第二天就出现了很多的外链,那么,这种情况就极有可能是网站被挂马了,这种情况完全是你的服务器的安全性或是程序的安全性引起的挂马,从而,产生了大量的垃圾链接,这个时候,我们就必须要找到被挂马的位置,及时清楚挂马的链接页面了,然后,在把服务器空间的安全性和程序的安全性都解决了,最后,在修补一下网站的漏洞即可。
2、用robots.txt屏蔽目录
在解决了网站的服务器空间安全性和程序安全性之后,并且把网站的漏洞修补完成了,那么,接下来,就是可以用robots.txt搜索引擎协议文件进行屏蔽目录了,那么,应该要怎么做了,这里就给大家讲一下吧,我们可以找到被挂马的链接路径特征,例如:假设你的挂马页面路径特征中有“?”的,那么,只需要在robots.txt协议中写入:Disallow:/?这样就可以了。
3、有规律地更新网站内容
在完成上面所说的操作之后,接下来就是有规律地更新网站内容了,那么,怎么样才算有规律地更新内容呢?比如:你每天都在上午10点更新3篇文章内容,那么,就必须要保持这个时间段和更新的文章数量,而不能今天更新一下,明天不更新,后天一下子更新了10几盘文章,这样做是不行的,而且,在保证了有规律地更新之后,还应该要注意所更新的文章内容质量了,因为,现在搜索引擎对于文章内容的质量要求是很高的,而且,你的网站还是在刚清除完大量垃圾外链的情况下,更应该要注意所更新的文章内容质量了,一定要更新高质量的原创文章内容了。
4、反馈给百度站长平台
最后,网站被挂大量垃圾外链的解决办法就是反馈给百度站长平台了,你可以去百度站长平台,然后,把你网站出现的这种被挂大量垃圾外链的情况反馈给百度,从而,请求百度给予合理公正的审判,但是,这里一定要注意,就是你一定要如实描述你要反馈的网站问题,详细说明网站最近所出现的情况,然后,只需要等待一段时间,很快就会恢复你的网站的。