三月 6th, 2019

SEO优化中的网络安全,网站安全如何影响你的SEO性能。市场营销人员经常陷入对SEO的认知,并开始忽视SEO应该是什么。长期以来,业界一直质疑网站攻击对有机绩效永久性的影响。许多人开始质疑预防性安全措施在谷歌给某个定域评估中可能扮演的角色。

由于GDPR及其相关法规的出台,网络安全和数据隐私问题又回到了争论中。争论仍在继续。攻击的真正代价是什么?网站安全会在多大程度上影响我的排名?事实上,许多企业还没有认识到保护数字资产的重要性。到目前为止,建立站点漏洞被认为是一种不同于SEO的技术。但这是不应该的。成为一个领导者——无论在思想上还是在搜索性能上——意味着要积极主动,并覆盖竞争对手没有覆盖的基础。

网站安全如何影响SEO?

HTTPS被命名为一个排名因素,并向外推送更新到Chrome浏览器。从那以后,HTTPS在很大程度上成为SEO中网络安全的“典型代表”。但大多数人都知道,安全并不仅限于HTTPS。HTTPS当然不意味着你有一个安全的网站。抛开HTTPS认证不谈,研究表明大多数网站平均每天都会遭遇58次攻击。更重要的是,高达61%的互联网流量是自动的——这意味着这些攻击不会因网站的大小或受欢迎程度而有所区别。没有一个网站小到无法攻击,不幸的是,这些数字还在上升。而且攻击变得越来越难以察觉。

1. 黑名单

如果或者什么时候你成为了攻击的目标,直接的经济损失不是唯一需要担心的原因。被破坏的网站可以篡改页面,并受到一系列来自谷歌的手动处罚。也就是说,搜索引擎只列出了被恶意软件感染的网站总数的一小部分。最近的报告发现,在90%的案例中,被感染的网站根本没有被标记。这意味着操作者可能会在不知情的情况下继续成为攻击目标——最终加大被惩罚的力度。即使没有被列入黑名单,网站的排名仍然会受到攻击。恶意软件或垃圾邮件的添加只能有一个负面的结果。

很明显,那些继续依赖外部症状或来自谷歌警告的人可能忽视了正在影响他们的访问者的恶意软件。这就产生了一个悖论,被标记或列入恶意软件黑名单实际上会终止你的网站,抹掉你的排名,至少在网站被清理和惩罚被取消之前是这样。当你的网站包含恶意软件时,如果不进行标记,将导致更容易受到黑客的攻击,并受到更严厉的惩罚,预防是唯一的解决办法。考虑到9%多达170万个网站,存在一个重大漏洞,可能会部署恶意软件,尤其令人担忧。如果你投入了长期的搜索可见性,在竞争激烈的市场中运营,或者严重依赖于有机流量,那么警惕防止危害是至关重要的。

2、爬行的错误

robots将不可避免地代表你的网站和应用流量的重要部分。但并非所的抓取都是良性的,至少19%的抓取网站是为了更邪恶的目的,如内容抓取、漏洞识别或数据盗窃。即使他们的企图不成功,来自自动软件的持续攻击可以阻止Googlebot充分地爬行你的站点。恶意抓取使用与合法robots或普通访问者相同的带宽和服务器资源。但是,如果你的服务器在很长一段时间内受到来自多个robots的重复、自动化任务的影响,它可能会开始限制网络流量。作为响应,你的服务器可能会完全停止服务页面。

如果在搜索控制台中发现404或503个奇怪的错误,而这些页面根本没有丢失,那么谷歌可能尝试爬行这些页面,但是你的服务器会报告它们丢失了。如果你的服务器过度扩展,就会发生这种错误,尽管它们的活动通常是可控的,但有时甚至合法的robots也会以不可持续的速度消耗资源。如果你添加了大量新内容,那么在索引时进行主动爬行可能会使服务器不堪重负。同样,合法的robots可能会在你的网站上遇到错误,触发资源密集型操作或无限循环。为了解决这一问题,大多数站点使用服务器端缓存来为其站点的预构建版本提供服务,而不是在每个请求上重复生成相同的页面,这大大增加了资源的消耗。这样做还有一个额外的好处,那就是减少了真正访问者的加载时间,谷歌将对此表示赞同。关于服务器对SEO优化的影响,有兴趣的朋友可以了解一下香港服务器对SEO优化有哪些影响

大多数主要的搜索引擎也提供了一种方法来控制他们的robots抓取站点的速度,这样就不会压到服务器的能力。这并不会控制robots抓取站点的频率,而是控制它们在抓取时所消耗的资源水平。为了有效地优化,你必须认识到对你或客户特定业务模型的威胁。认识到构建系统能区分坏的robots流量、好的robots流量和人类活动的需要。如果做得不好,可能会降低SEO的效率,甚至完全阻止有价值访问者访问你的服务。在第二部分中,我们将更多地介绍如何识别恶意robots流量以及如何最有效地缓解这个问题。

3.搜索引擎优化垃圾邮件

据悉超过73%被黑客攻击的网站都是出于SEO垃圾邮件的目的。这可能是一种蓄意破坏的行为,也可能是一种不加区分试图刮除、污损或利用权威网站的行为。通常,恶意行为者会向网站加载垃圾邮件,以阻止合法访问,将其变成链接农场,并使用恶意软件或钓鱼链接来引诱不知情的访问者。在许多情况下,黑客利用现有的漏洞,并通过SQL注入获得管理访问权。这种有针对性的攻击可能是毁灭性的,你的网站将被垃圾邮件泛滥,并可能被列入黑名单。你的客户会被操纵,名誉损失将无法弥补。

除列入黑名单外,对网站破坏不存在直接的SEO惩罚。然而,网站在SERP中的显示方式会发生变化。最后的损坏取决于所做的改变,但很可能你的网站至少在一段时间内网站不再像以前那样与查询相关。假设攻击者获得访问权限并在服务器上植入一个在托管目录之外操作的恶意进程。

即使在文件清理之后,它们也可以不受限制地对服务器和其中承载的所有内容进行秘密的访问。使用这个,他们可以在你的服务器上运行和存储数千个文件——包括盗版内容。如果这变得普及了,服务器资源将主要用于交付这些内容。这将大大降低网站速度,不仅会失去访问者的注意力,而且有可能降低你的排名。其他SEO垃圾邮件技术包括使用抓取robots窃取和复制内容、电子邮件地址和个人信息。不管是否知道这个活动,你的网站最终可能会因为重复内容而受到惩罚。

如何通过提高网站安全性来降低SEO风险?尽管这些攻击的前景令人担忧,但网站所有者和代理机构可以采取一些措施来保护自己和客户。在这里,主动性和训练是保护站点不受成功攻击和维护长期有机性能的关键。这里说到的SEO优化受到攻击而导致网站被降权,有更多相关内容可以参考了解 为什么SEO优化离不开一个比较好的虚拟主机

1. 恶意的robots抓取。

不幸的是,当涉及到网络爬虫程序时,大多数恶意robots不遵循标准协议。这显然使他们更难被阻止。最终,解决方案取决于所处理的robots类型。如果关心内容抓取器,可以手动查看反向链接或最近使用,以查看哪些站点正在使用你的链接。如发现你的内容在未经您允许的情况下发布在一个垃圾网站上,请向谷歌提交dmca投诉。通常,最好的防御是识别恶意流量的来源,并阻止来自这些来源的访问。传统的方法是通过AWStats这样的工具定期分析日志文件。这将生成一个报告,列出爬过网站的每个robots、所消耗的带宽、总点击率等等。正常的robots带宽使用不应该超过几个兆字节/月。如果这不能为你提供所需的数据,可以随时查看站点或服务器日志文件。使用这个,特别是“源IP地址”和“用户代理”数据,你可以轻松地将robots与普通用户区分开来。

恶意程序可能更难识别,因为它们经常使用相同或类似的用户代理来模仿合法的爬虫程序。如有怀疑,你可以对源IP地址进行反向DNS查询,以获得所讨论robots的主机名。主要搜索引擎robots程序的IP地址应该分解为Bing的可识别主机名,如“*.googlebot.com”或“*.search.msn.com”。此外,恶意robots往往会忽略robots排除标准。如果你的robots访问页面应该被排除在外,这表明robots可能是恶意的。

2. WordPress插件和扩展

大量受到攻击的网站都使用了最常用的平台和工具——WordPress及其CMS上的过时软件。WordPress的安全性好坏参半,坏消息是,黑客专门寻找使用过时插件的网站,以利用已知的漏洞。更重要的是,他们一直在寻找新的漏洞来利用。这会导致很多问题。如果你被黑客攻击,你的网站目录还没有把他们的内容列出来关闭,那么相关目录的主题和插件索引页可以进入谷歌的索引。即使这些页面被设置为404并清除了其余的站点,它们也可以使你的站点成为进一步大规模平台或基于插件的黑客攻击的目标。

众所周知,黑客利用这种方法控制网站的SMTP服务并发送垃圾邮件,这可能导致你的域名被列入垃圾邮件数据库黑名单。如果你的网站的核心功能需要大量的电子邮件——无论是简讯、外联还是活动参与者——这可能是灾难性的。通过robots.txt关闭这些页面的索引仍然会留下明显的痕迹,许多站点通过URL消除申请表格从谷歌的索引中手动删除它们。同时从电子邮件垃圾邮件数据库中删除,这可能需要多次尝试和长时间的通信,同时还会留下持久的损害。好的一面是,有很多安全插件,如果不断更新,可以帮助你监视和保护站点。普遍的例子包括All in One和Sucuri安全性。这些系统可以监控和扫描潜在的黑客事件,并具有永久阻止可疑访客的防火墙功能。回顾、研究和更新你使用的每个插件和脚本。与其让自己成为一个容易攻击的目标,还不如把时间花在更新插件上。

3.系统监控和识别黑客

许多从业人员在接受潜在客户时,不会主动确定网站是否遭到黑客攻击。除了谷歌的通知和客户端对其历史的透明之外,还很难确定。这个过程应该在你对现有和未来业务的评估中发挥关键作用。你在这里的发现——从历史和当前安全的角度——应该成为选择应用的战略因素。16个月的搜索控制台数据,可以通过跟踪历史印象数据来识别过去的攻击,比如垃圾邮件注入。也就是说,并不是所有的攻击都是这种形式。由于季节性的原因,某些行业自然会经历极端的流量变化。直接询问客户,并在深入彻底研究。

为了尽早识别当前的黑客攻击,需要专门的工具来帮助诊断诸如密码挖掘软件、钓鱼和恶意软件等问题。有一些付费服务,如WebsitePulse或SiteLock,它们为监视站点、服务器和应用程序提供单一的平台解决方案。因此,如果插件出现问题,添加到现有页面的链接,或者创建新的页面,监控软件会在几分钟内通知你。还可以使用源代码分析工具来检测站点是否受到了危害,这些会检查你的PHP和其他源代码的签名和模式匹配已知的恶意软件代码。该软件的高级版本将你的代码与相同文件的“正确”版本进行比较,而不是扫描外部签名。这有助于捕获可能没有检测签名的新恶意软件。大多数好的监控服务都能从多个位置进行监控,被黑客攻击的网站通常不会向每个用户提供恶意软件。相反,它们包含只根据位置、时间、流量源和其他条件向特定用户显示的代码。通过使用远程扫描仪监视多个位置,可以避免错过感染的风险。

4. 当地的网络安全

管理本地安全与管理正在处理的网站的安全同样重要。如果访问控制在其他地方很脆弱,那么集成一组分层的安全软件是没有用的。无论是独立工作、远程工作还是在大型办公室中,加强网络安全都是至关重要的。网络越大,人为错误的风险就越高,而公共网络的风险是不可低估的。确保遵守标准的安全程序,比如在特定的时间范围内限制登录尝试的次数,自动结束过期的会话,以及消除表单自动填充。

无论在哪里工作,用一个可靠的VPN加密连接,使用网络应用程序防火墙(WAF)过滤流量也是明智的。这将过滤、监视和阻塞与应用程序之间的通信,以防止危害或数据泄漏。与VPN软件一样,它可以以设备、软件或即服务的形式出现,并包含针对特定应用程序定制的策略。在修改应用程序时,需要维护和更新这些自定义策略。

网络安全影响每个人,如果没有采取正确的预防措施,将会出现最坏的情况,从搜索的角度来看,它将对网站产生明显的、持久的影响。在与网站、客户端或策略密切合作时,需要能够对安全性讨论作出贡献,或者在安全性讨论尚未开始的情况下发起安全性讨论。如果投资一个网站的SEO成就,你的部分责任是确保积极的和预防性的策略到位,并且该策略是最近的。

这个问题短期内不会消失,在未来,最好的SEO人才——代理、独立或内部将对网络安全有实际的了解。作为一个行业,我们帮助客户了解潜在风险是至关重要的——不仅对他们的SEO,而且对他们的整个业务。

Comments are closed.