从事网络营销7年多的SEO“Foxtrot”负责人Maksym 在SEO日会议上发表了有趣的演讲。乌克兰一家知名电子大卖场的首席搜索员讲述了如何在 Google 中生存。
来自编辑部。经过验证的技巧和最有趣的案例 – 为您收集在一处!订阅我们的频道,每周都会收到新的知识和建议!
位置监控
今天我们将探讨如何在谷歌的更新中生存下来,但我们将特别关注那些失去排名和流量的网站。当某个网站明显跌出前 10 名并且流量折扣变得明显时,准确了解问题所在以及如何找到问题就很重要。
位置监控
首先,我们检查我们在哪个站点位置监控服务中注册。这有助于确保头寸损失不是巧合,而是一个真正的问题。我们还使用分析来获取有关网站访问者及其行为的更多信息。这使我们能够更全面地了解网站的状态。
如果我们确定存在
问题,我们就会继续进行识别。我们一一分析可能的原因。通常这与技术方面有关 – 网站运营可能出现故障,从而导致搜索引擎排名下降。也可能是外部链接有问题,或者网站内容有问题。
找到解决每个问题的方法,我们 Telegram 数据库用户列表 开始解决它们。恢复在搜索引擎中的排名可能需要一些时间,因此您需要保持耐心并保持一致的操作。
一般来说,重要的是要了解谷歌试图为用户提供高质量的搜索结果,因此它不断更新其算法。你需要适应变化,根据搜索引擎的要求来开发 双箭头与用户连 你的网站,那么成功的机会就会增加。分析和搜索解决方案将帮助您保持网站上的高排名和流量。
网站技术方面的问题
网站技术方面的问题
例如,我们遇到了一些技术问题,但我们还不知道到底是什么导致了这些问题。在这种情况下,我们采用某种方法 – 我们开始解析网站。为此,我们使用移动版。
另外,我通常会禁用所有限制,例如 BQB 目录 尊重文件可能并不总是正确)以及解析深度限制。当然,这种方法可能需要花费大量时间,但它提供了非常完整的数据。我们遇到过问题在站点结构中非常深入的情况,如果我们限制要解析的页面数量,则可能无法检测到问题。
这样,我们就收到了解析后的数据,并对其进行了彻底的分析。特别是,我们检测重复内容、标题和描述问题、检查 h1 标签是否存在、查明页面上是否存在文本和其他元素。借助此类分析,我们可以识别网站上的潜在问题和错误。
我们扫描网站是否有错误
另外还需要扫描什么
接下来,我们考虑额外的扫描来收集解析器找不到的信息。事实上,解析器的工作原理相当简单:它在代码中查找 URL 并跟踪它们,收集信息。但是,它无法找到存档产品、过滤器类别和其他存档页面,例如,这些页面可能不可索引或页面本身可能不包含链接。因此,单独扫描这些页面非常重要。
我们可以通过上传网站或通过可以从数据库获取这些数据的开发人员来获取这些存档数据。此外,我们不会忘记扫描站点地图。这有几个原因。首先,站点地图中可能存在错误,例如 URL 格式错误或重定向错误。其次,Sitemap可能会丢失一些重要的链接,这可能会导致网站索引不完整。
例如,您的网站可能有 100 万个需要索引的 URL,但站点地图可能只这可能是一个问题,因此我们还会单独收集这些数据,以确保不会遗漏任何重要页面。
所有这些额外的扫描可以帮助我们更全面地了解站点的状态,并识别需要我们注意的可能问题。
内容质量检查
测试元标记
接下来要注意页面meta标签和内容的稳定性。根据我们自己的经验,我们定期注意到,在手动检查页面代码时,标题元标记中可能会出现不同语言版本的页面内容或文本。由于缓存页面及其元素的缓存键存在问题,会出现类似的情况。有时我们的系统无法确定将哪个缓存传输给用户,这可能会导致页面显示不正确。
查找和修复此类问题可能很困难,因为对于必须测试和重现问题案例的开发人员来说,很难准确了解哪些问题不起作用。为了检测这些细微差别,我们之前使用了一项可以自动跟踪网站更改的服务。我们监控元标签标题、描述、h1 和其他元素的变化。
进行持续监控非常有用,因为它有助于识别元标记、内容和网站其他重要元素的潜在问题。这使您可以确保网站的稳定和优化运行,从而有助于保持其在搜索引擎中的地位。
人工现场检查
用手检查什么
还有一些其他方面我们可以手动检查。首先,值得关注页面渲染问题的常见情况。例如,如果您的网站是基于 React 或其他脚本引擎构建的,则机器人有可能根本看不到您 99% 的内容。在这种情况下,机器人会收到几乎空的页面,因为大多数脚本对它们不可用。这可能会导致流量下降,尤其是在更新之后。
要找到解决方案,您可以考虑预渲染内容,以便机器人可以看到它。示例可能包括各种方法,例如服务器端渲染 (SSR去一直成功地增加了流量,但升级后却成了问题,请考虑预渲染来改进内容索引。
接下来,我们看不同页面上的页面加载速度。单独处理每个页面很重要,因为一个很大的错误是有些人只查看主页并认为这就是网站的加载方式。为了准确估计加载速度,您应该测试每个单独的页面。
还需要检查移动和 PC 版本的站点代码中是否存在所有链接元素。例如,移动版本通常使用带有子选项卡的汉堡菜单,在这种情况下,某些菜单项可能由于缺乏物理链接而无法访问。确保您的 Ajax 过滤器具有物理链接也是值得的,否则机器人将无法找到单个页面,并且您将遇到索引问题。
如果您正在使用 Web 应用程序防火墙 (WAF),则需要检查的另一个方面是您的 Web 应用程序防火墙 (WAF)。有时,此类防火墙可以阻止机器人和用户,这可能会影响您的访问者和网站索引。
考虑到所有
这些方面和检查,您将能够确保网站的稳定和优化运行,这将有助于保持其较高的排名和流量。
检查日志
日志分析
是的,当我们已经通过了基本的技术审核时,我们理解了主要论点 – 我们的解析器仅扫描我们可以在网站上实际找到的内容,但 Google Bot 扫描更多的数据。 Google Bot 拥有强大的解析器,可以从各种链接检索有关页面的数据、解析脚本并对网站进行更深入的分析。因此,我们继续分析站点日志,这将为我们提供更多信息。
日志文件包含大量有用的数据,可以帮助我们更全面地了解 Google Bot 如何为我们的网站建立索引。从日志中,我们可以抓取 IP 地址、访问该站点的用户代理、访问的 URL、服务器响应代码、文件类型、记录方法、日期、时间、字节大小以及许多其他有用的信息。
这为我们提供了 Google Bot 访问的所有 URL 的数据的完整性。有了这些数据,我们就可以得到更详细的分析并了解谷歌如何索引我们的网站。日志分析是一个非常强大的 SEO 工具,可帮助识别潜在问题,例如页面未建立索引、页面错误阻止索引或重定向配置错误。
通过收集和分析日志中的数据,我们可以实施更好的策略来优化网站并保持其在搜索引擎中的位置。