Google s’est attaqué aux grattoirs Web qui collectent les données des résultats de recherche, déclenchant des pannes mondiales dans de nombreux outils de suivi de classement populaires comme SEMRush qui dépendent de la fourniture de données récentes à partir des pages de résultats de recherche.
Que se passe-t-il si les SERP de Google sont complètement bloqués ? Une certaine quantité de données fournies par les services de suivi a longtemps été extrapolée par des algorithmes à partir de diverses sources de données. Il est possible qu’une façon de contourner le bloc actuel consiste à extrapoler les données à partir d’autres sources.
Grattage SERP interdit par Google
Les directives de Google interdisent depuis longtemps la vérification automatique du classement dans les résultats de recherche, mais apparemment, Google a également autorisé de nombreuses entreprises à supprimer leurs résultats de recherche et à facturer l’accès aux données de classement à des fins de suivi des mots-clés et des classements.
Selon Google lignes directrices:
Bloquer les grattoirs est complexe
Bloquer les scrapers demande beaucoup de ressources, en particulier parce qu’ils peuvent répondre aux blocages en modifiant par exemple leur adresse IP et leur agent utilisateur pour contourner les blocages. Une autre façon de bloquer les scrapers consiste à cibler des comportements spécifiques tels que le nombre de pages demandées par un utilisateur. Un nombre excessif de demandes de pages peut déclencher un blocage. Le problème de cette approche est qu’elle peut devenir gourmande en ressources pour garder la trace de toutes les adresses IP bloquées, qui peuvent rapidement se compter par millions.
Rapports sur les réseaux sociaux
Un article publié dans le groupe Facebook privé SEO Signals Lab a annoncé que Google frappait durement contre les grattoirs Web, un membre commentant que l’outil Scrape Owl ne fonctionnait pas pour eux tandis que d’autres ont indiqué que les données de SEMRush n’avaient pas été mises à jour.
Un autre poster, cette fois sur LinkedIna noté plusieurs outils qui n’actualisaient pas leur contenu, mais il a également noté que le blocage n’a pas affecté tous les fournisseurs de données, notant que Sistrix et MonitorRank fonctionnaient toujours. Quelqu’un d’une société appelée HaloScan a signalé avoir effectué des ajustements pour reprendre la récupération des données de Google et avoir récupéré et quelqu’un d’autre a signalé qu’un autre outil appelé MyRankingMetrics rapporte toujours des données.
Donc, quoi que fasse Google, cela n’affecte pas actuellement tous les scrapers. Il se peut que Google cible certains comportements de scraping, en apprenant des réponses et en améliorant leur capacité de blocage. Les semaines à venir pourraient révéler que Google améliore sa capacité à bloquer les scrapers ou qu’il cible uniquement les plus gros.
Un autre publier sur LinkedIn a émis l’hypothèse que le blocage pourrait entraîner des ressources et des frais plus élevés facturés aux utilisateurs finaux des outils de référencement SaaS. Ils ont posté :
« Cette décision de Google rend l’extraction de données plus difficile et plus coûteuse. En conséquence, les utilisateurs peuvent être confrontés à des frais d’abonnement plus élevés. “
Ryan Jones tweeté:
« Google semble avoir fait hier soir une mise à jour qui bloque la plupart des scrapers et de nombreuses API.
Google, donnez-nous simplement une API payante pour les résultats de recherche. nous vous paierons à la place.
Aucune annonce de Google
Jusqu’à présent, aucune annonce n’a été faite par Google, mais il se peut que les discussions en ligne obligent quelqu’un chez Google à envisager de faire une déclaration.
Image en vedette par Shutterstock/Krakenimages.com
#Google #provoque #des #pannes #mondiales #loutil #référencement