Loading...
/Les secrets de l’algorithme de Google

Les secrets de l’algorithme de Google

Découvrez tous les secrets derrière l’algorithme de Google : de son fonctionnement aux pénalités.

Sommaire :

Comment fonctionne Google ?

Le fonctionnement de Google peut être résumé en 3 étapes : le crawling, l’indexation et la réponse aux requêtes.

algorithme-google

Qu’est-ce que le crawling ?

Pour illustrer, imaginons que l’on veuille explorer un pays. Commençons par une petite ville puis prenons une des routes jusqu’à la ville suivante, et si on parcourt toutes les routes on finira par connaître toutes les villes.

Voilà comment fonctionne le crawling Google, à l’exception que les villes sont des pages web et les routes des liens entre ces pages : le robot de Google va cliquer partout où il trouve des liens pour découvrir un maximum de pages.

Pour ce faire, Google utilise un programme qu’on appelle souvent “crawler” ou “spider”, ou “robot”.

⇒ En SEO, on va donc faire de notre mieux pour faciliter son travail.

L’indexation

Après avoir trouvé les pages, le robot capture leur contenu (texte, images, balises, etc) et l’envoie pour sauvegarde dans la base de données Google, qu’on appelle index, pour pouvoir les retrouver lorsqu’un utilisateur tape une requête.

⇒ En SEO, on va donc faire en sorte que notre contenu soit le plus pertinent possible pour lui permettre d’apparaître où il faut sur la page de résultats.

La différence entre indexation et positionnement est importante car beaucoup de personnes continuent de penser que si les pages de leur site web sont indexés et visible par les moteurs de recherche alors elles sont également visibles par les internautes, ce qui n’est pas toujours le cas.

La réponse aux requêtes

Quand vous entrez une requête dans Google, ce dernier va rechercher dans son index les pages les plus pertinentes et vous les propose. C’est là qu’entre en jeu son l’algorithme secret, qui prend en compte un certain nombre de critères pour juger de la pertinence des contenus.

Personne ne connaît cet algorithme dans le détail, mais de nombreux chercheurs et acteurs du SEO travaillent d’arrache-pieds pour nous fournir continuellement les outils et connaissances pour le comprendre.  

⇒ En SEO, on va donc travailler sur tous les critères qui entrent en jeu pour optimiser notre site.

Les algorithmes Google

L’algorithme Panda

Le filtre algorithmique Google Panda, lancé par Google en 2011, combat les sites web qui proposent du contenu estimé par le moteur comme étant de faible qualité.

Voici quelques critères que l’algorithme prend en compte :

  • Les pages affichant du texte de faible qualité : par exemple du texte récupéré, l’utilisation d’outil de réécriture, mis en ligne seulement pour faire du SEO (« pages SEO »), c’est à dire quand il n’y a pas d’effort de rédaction, pas de volonté de s’adresser à l’internaute.
  • Les pages avec trop peu de texte : moins de 50 mots à peu près. Le mieux alors est de les désindexer ou les remplir.
  • Les Pages sans intérêts : par exemple les fichiers XML, les pages ayant perdu leur header, etc. Les pages qui n’ont aucune utilité pour l’internaute doivent être désindexer comme les paniers e-commerce, les formulaires, etc.
  • Les pages de résultat d’un moteur interne : il ne faut pas les indexer.

En SEO, on va faire en sorte que toutes les pages indexées par Google soient intéressantes pour l’internaute !

Astuce : Regarder avec la requête « site: », et aller sur les dernières pages de résultats pour repérer les mauvaises pages et les désindexer.

algorithme-panda-requête-site:

L’algorithme Penguin

Le filtre algorithmique Penguin, lancé par Google en 2012, a été très virulent en Europe d’une manière générale et en France en particulier. Il combat les pages ayant des backlinks (liens entrants) de faible qualité et notamment des textes d’ancre qui ressemblent trop à des requêtes.

Par exemple, si je veux pointer sur le site Smartkeyword en mettant une ancre « Livre sur le référencement », je risque d’engendrer une pénalité Penguin car Smartkeyword n’est pas un livre sur le référencement. Il y a problème de rapport de sens.

Si je veux pointer sur une page traitant d’un livre sur le référencement : l’ancre « Livre sur le référencement » est bien, mais l’ancre « livre référencement » sera pénalisée par Penguin car correspond exactement à une requête Google.

En SEO, on  soigne nos ancres de liens !

L’algorithme Hummingbird (Colibri)

Le filtre algorithmique Hummingbird, lancé par Google en 2013 est une refonte algorithmique du classement Google. Il se focalise notamment plus sur la sémantique, Google entre dès lors dans l’ère de la longue traîne. Le but est de donner accès à des contenus toujours plus utiles, plus pertinents, et plus originaux.

RankBrain

Lancé en 2015, l’algorithme utilise des techniques d’intelligence artificielle, notamment l’apprentissage automatique (machine learning) pour tenter de mieux répondre aux requêtes complexes des internautes. Il sert notamment à identifier les requêtes jamais demandées auparavant et contribue à préparer l’avenir.

Il existe énormément d’algorithmes que Google prend en compte en voici la liste:

  1. Caffeine
  2. Top Heavy
  3. Pirate
  4. Exact Match Domain
  5. Payday
  6. Pigeon
  7. Mobile Friendly
  8. Quality ou Phantom

Conclusion

Finalement, Google est composé de différents algorithmes qui visent à améliorer le classement des pages présentées aux internautes, et pénaliser les sites qui veulent manipuler les résultats de recherche. Les plus importants sont les algorithmes Pingouin et Panda qui peuvent vous sanctionner sévèrement. Il est important de prendre en compte l’évolution des algorithmes pour pouvoir continuer d’optimiser votre référencement et ne pas être pénalisé par ceux-ci.

[Total : 0    Moyenne : 0/5]
Par |2019-04-23T11:01:29+00:00mars 19th, 2019|Catégories : Non classé|0 commentaire

Laisser un commentaire