国外电子商务中七种最常见的SEO错误及解决方案

原创 admin  2019-07-29 08:36  阅读 16 次

在互联网上销售意味着与搜索引擎携手合作。机器人必须实时了解电子商务网站上的报价及更新变化,并确保网站用户体验良好。在不累积SEO错误的情况下维护可见的电子商务网站是一项挑战。但如果错误很快发生,一些好的做法也足以纠正和阻止它们。

以下是国外电子商务中七种最常见的SEO错误及解决方案。


本文摘要

  1. 内容重复

  2. 页面加载太慢

  3. 机器人无法抓取页面

  4. 4XX错误页面

  5. 标题标记为空,缺失或重复

  6. Meta描述缺失或重复

  7. XML站点地图中的错误页面


01、内容重复

风险:从定义上讲,搜索引擎讨厌复制内容,因为后者使它们无法理解如何在其索引中精确地索引相关的页面。爬行机器人不知道该优先选择哪一页。在链接方面,也会产生一个损失,如果十个链接指向两个相同的页面,那么它们的回报就不如它们都指向具有独特内容的单个页面。

检测和工具:要手动检索重复内容,只需从页面中抽取一小段内容并在Google上用引号搜索(“您的搜索”),看它是否多次出现。

解决方案:您必须重写或删除重复页面的内容,或者通过规范引用最少的页面取消索引。


02、页面加载速度慢

风险:对谷歌来说,加载时间是排名的标准,特别是自2018年7月以来,谷歌对加载太慢的网站进行了处罚。

检测和工具:几种可用于监控加载时间的工具,

  • Google Search Console

  • Google PageSpeed Insight(可用于自动化测试的API)

  • Google Lighthouse (浏览器扩展)

  • WebPageTest

  • Apache / nginx服务器日志

  • 在线工具,如Dareboost或GTmetrix

以及要遵循的主要指标:

  • Time to First Byte - TTFB 用于服务器输出响应时间

  • First Content Paint - FCP 用户的页面渲染开始

  • First Input Delay -FID 您可以在页面上进行交互之前的时间

  • Google PageSpeed得分

  • Speed Index-评估浮动线以上各元素显示速度的分数

解决方案:优先考虑技术团队对用户体验和搜索引擎优化问题以及良好做法的敏感性,因为这是一个需要在各级进行讨论的实质性问题。事实上,有许多优化思路:

  • 改善服务器响应时间

  • Back代码的优化(例如,BDD请求的优化)

  • 压缩资源(文件,代码,媒体)

  • 优化资源加载(延迟加载,异步加载,标记管理分析)

  • 缓存管理

挑战在于确定工作的优先级和相关的KPI。如果加载时间突然增加,主要原因可能是引入新功能,主机或CDN端出现问题(迁移,维护,外部攻击等)或者数据库访问速度慢。


03、机器人无法抓取页面

风险:如果GoogleBot无法抓取网址,则永远不会将其编入索引。如果URL产生了大量流量,那么在多次抓取失败后,谷歌将会进行削弱。

检测:site:exempldomaine命令提供索引URL的示例。在Google中搜索URL还允许您测试其索引。如果URL已编入索引,则会对其进行爬网。要检查网址对抓取的能力,最好还是使用Screaming Frog提出的googleBot选项执行一个。

解决方案:

要找到解决方案,我们必须确定原因。例如在robots.txt(Disallow:/)或IP中被阻止的爬行。它也可能是错误:加载速度太慢,孤儿页面(不包含在网站的内部网格中),与Javascript相关的爬网问题......

工具:

  • 爬虫 Oncrawl, Botify, Screaming

  • 通过工具Oseox Monitoring,Robotto监控robots.txt

  • 标识分析工具Oncrawl,Botify,Seolyzer


04、4XX错误

风险:4XX错误是用户或Googlebot在通常不存在或更多的页面上遇到的错误。最著名的是404(未找到)。

其中一些是合法的,因为它们涉及的网页不应存在于网站的结构中。但是要对那些本应回答的页面进行监控。否则谷歌最终将一个在4 XX中停留太久的页面进行降级。有一个例外,代码410(已消失),它允许向谷歌报告对一个不存在或更多的页面的自愿错误。这很方便,可以加速反索引。

检测:通过对Apache / nginx服务器日志的分析,Search Console中的操作错误(抓取错误),任何允许内部抓取的工具。

解决方案:您必须通过监视服务器响应代码(用户和googlebot)来定期抓取,以发现异常的4XX或涨幅。相比之下,内部预警系统可以提高响应速度,谷歌Search Console可能会遗漏一些问题。

通过对404 URLs的详细分析,通常可以理解问题的根源(删除或过时的页面,危险的设置,机器人陷阱等)。

其次,可以采取的几种可能行动:

  • 纠正错误的页面

  • 重新定向301,如果要保存Seo历史,并将用户重新引导到一个新的页面。在这种情况下,最好是在谷歌看到重新定向并更新其索引后,再等几个星期才能纠正旧的链接。

  • 删除死链接。


05、标题标记为空,缺失或重复

风险:放置在页面标题中的 HTML标题标签显示在浏览器选项卡和搜索引擎SERP上的可点击标题中。它也是有关抓取工具页面内容的信息来源。如果标签是空的,丢失的或重复的,那就是信息丢失,或者更糟糕的是,一条虚假的线索,结果是,机器人不知道如何编制索引,可能会把它留在索引的底部。

检测和工具:Google  Search Console不再提供这些有价值的信息,你需要使用像Screaming Frog,MyRankingMetrics,OnCrawl或Botify等这样的工具。

解决方案和预防:工具检测标签不正确的页面。实在不行,手动操作也是解决这个问题最有利的方法。一个好习惯,每月重新启动一次爬网以检查标题标签并避免累积错误。


06、Meta描述缺失或重复

风险:Meta描述标签对SEO起间接作用,因为如果不能提供信息就会使Search Console出现错误。通常情况下,用户可以在引擎的SERP中查看的片段就来自于Meta descriptions。这个标签的内容质量会影响点击率。并且如果它不适合谷歌,谷歌就会自动生成一个描述,这肯定不如我们人工优化的描述更有效了。

检测:搜索控制台列出错误,但通过网站爬网查找错误会更方便。所有SEO爬虫都提供此功能。除了meta description中内容的缺失或重复之外,爬虫通常会提供“太长”(没有人会看到整个内容)或“太短”(这是留给竞争对手的空间)的过滤筛选器。

解决方案:执行爬网以检测错误并手动更正错误。要防止出现此问题,请设置包含meta description标记的页面模板。

工具:

  • Google Search Console(小心数据并不总是最新的)

  • 爬虫类型Oncrawl,Botify,Screaming Frog 

  • 页面监控类型Oseox Monitoring,Robotto


07、XML站点地图中的错误页面

风险:XML 站点地图中的错误影响不大,其目的仅仅是帮助抓取工具识别网站的所有重要页面,包括最近的页面。如果你让机器人在正常情况下爬行网站,它们对你网站的正确参照并不是不可缺少的。

检测:在Search Console中,“Sitemaps”标签有助于了解Google遇到的错误(robots.txt文件阻止的页面或noindex,抓取错误,重复页面,未编入索引的页面,规范等)。

在将XML文件提交给Google之前,还有一些在线工具可以测试XML文件格式的有效性,这些是免费的在线工具,如Code Beautify,XML Validator或XML Validation。

解决方案:定期检查Search Console中站点地图的状态,并向技术团队提供非回归测试。

来源:https://www.huanp.com/seojishu/3597.html
声明:欢迎分享本文,转载请保留出处!

发表评论


表情