网站被黑的原因,网站首页被黑怎么解决?

原创 admin  2020-11-30 09:50  阅读 13 次

不难发现我们勤勤恳恳的做一个网站,到头来就被哪些非法手段给控制了,可能都不是大家想看见的,那么都有什么原因导致我们的网站被黑呢?

1、跨站脚本(XSS)

跨站脚本攻击(Cross Site Scripting),为了不和层叠样式表(Cascading Style Sheets,CSS)的缩写混淆,故将跨站脚本攻击缩写为XSS。恶意攻击者往Web页面里插入恶意Script代码,当用户浏览该页之时,嵌入其中Web里面的Script代码会被执行,从而达到恶意攻击用户的目的。

2、注入漏洞

注入漏洞是因为字符过滤不严谨所造成的,可以得到管理员的账号密码等相关资料。 这个漏洞是现在应用最广泛,杀伤力也很大的漏洞,可以说微软的官方网站也存在着注入漏洞。

3、 恶意文件执行

恶意文件执行(malicious file execution):该攻击涉及执行不属于应用程序一部分的文件,这通过引用的外部对象,或是应用程序允许上传到服务器上的文件来实现。

4、 网站被挂木马

不法之徒通过手段拿到网站的后台,ftp等管理权限,在网站中隐蔽的位置植入恶意代码,当普通用户访问网站的时候,这些恶意代码也就是木马就会自动运行,从而导致访问者电脑中毒,密码等就会传送到挂木马的人手中;另外,假如网站被挂了木马,搜索引擎,杀毒软件以及浏览器会进行防御,如果发现网站挂马,就会出现安全提示,这对于网站管理员来讲,是极为不利的,会导致网站的流量骤减,甚至于网站被K。

5、网站域名被恶意泛解析

原理相同,如果黑客破解了网站管理员的域名管理权限,就有可能对网站进行恶意泛解析。

6、跳转

在被破解的网站中,加入js跳转代码,直接获取网站原先的正常流量。

7、百度快照劫持

黑客劫持快照在你不工作的时候进入你的网站的,一般是凌晨1点到5、6点这段时间。现在的高科技比较发达,他们有一定的方法来进入你的网站后台,把网站的mate标签和title找成他们网站相关的内容,再等到蜘蛛抓取之后到凌晨把原来的信息再换回来,这样神不知鬼不觉,你也不会很轻易的发现什么。因此,第二天的快照就会变成劫持者的网站,这就导致了你的快照被劫持。

网站首页被黑怎么解决?

网站被黑,通常表现为网站中出现大量非本网站发布的类似博彩内容,或网站页面直接跳转到博彩页面。以下是几种网站被黑后可能出现的页面:

直接跳转到博彩页面。以下是几种网站被黑后可能出现的页面:

●内容非网站发布,内容中含大量博彩网站指向:

●网站页面直接跳转到博彩网站:

网站被黑表明网站安全存在严重问题或漏洞。

如何防范网站被黑,请参考以下内容:

一、首先,自查站点是否被黑

1.通过百度搜索资源平台的“网站体检工具”,可以对网站各项指标进行安全检测,排查网站的安全隐患。

2.被黑网站在数据上有一个特点,即索引量和从搜索引擎带来的流量在短时间内数据异常。所以,站长可以利用百度搜索资源平台的索引量工具,观察站点索引量是否有异常;如果发现数据异常,再通过流量与关键词工具查看获得流量的关键词是否与网站有关、是否涉及博彩和色情;

3.通过Site语法查询站点,结合一些常见的色情、博彩类关键词效果更佳,有可能发现不属于站点的非法页面;

4.由于百度流量巨大,有些被黑行为仅针对百度带来的流量予以跳转,站长很难发现,所以在查看自己站点是否被黑时,一定要从百度搜索结果中点击站点页面,查看是否跳转到了其他站点;

5.站点内容在百度搜索结果中被提示存在风险;

6.后续可以请网站技术人员通过后台数据和程序进一步确认网站是否被黑。

二、其次,被黑之后如何处理

确认网站被黑后,网站运营人员除了要推动技术人员快速修正外,还需要做一些善后和预防的工作;

1.清理已发现的被黑内容,将被黑页面设置为404死链,并通过百度搜索资源平台的死链提交工具进行提交(我们发现有些站点采用了将被黑页面跳转至首页的做法,非常不可取);

2.网站如有变更页面,建议使用链接提交工具向百度提交变更页面数据;

3.立即停止网站服务,避免用户继续受影响以及影响其他站点;

4.排查出可能的被黑时间,和服务器上的文件修改时间相比对,处理掉黑客上传、修改过的文件;除此之外,技术人员还需要检查服务器中的用户管理设置,确认是否存在异常的变化。注:可以从访问日志中,确定可能的被黑时间。不过黑客可能也修改服务器的访问日志。

5.更改服务器的用户访问密码。

6.做好安全工作,排查网站存在的漏洞,防止再次被黑。

三、最后,给大家一些网站自我防护的建议:

1.多种安全防护同步进行:适合中小型资讯网站

网站程序勤打补丁:现在很多资讯类网站用的系统使用了内容管理系统(CMS),作为比较常见的内容管理系统(CMS),有一个问题,那就是漏洞比较大众化,因为源码是公开的,所以很容易被研究出漏洞,需要对网站程序及时进行漏洞修复。

2.对服务器进行常规的安全防护

(1)在上班时间之外,对服务器上的网站权限做设置,禁止文件修改,后台文件隐藏或迁移到根目录之外。

(2)参考一些网站的安全设置,非限定的IP不能写入到数据库。

3.不使用开源程序默认的robots文件

下图是一个地级市的资讯类站点的robots协议,从robots文件中可以看出,该网站用的是织梦后台,那黑客就可以通过各种针对织梦攻击的软件进行操作,也可以针对织梦网站的常见漏洞进行扫描和针对性攻击。

来源:https://www.huanp.com/seojishu/7217.html
声明:欢迎分享本文,转载请保留出处!

发表评论


表情