La suroptimisation du référencement selon Google

Google et la sur-optimisation.

La récente déclaration de Matt Cutts sur les pénalités pour sur-optimisation du référencement de site a, semble-t-il, un tant soit peu troublé le sommeil des webmasters et autres référenceurs.

Et pour cause ! Il s'agirait, ni plus ni moins, de pénaliser tout site web pour excès d'optimisation et de référencement.

Par conséquent, l'on peut se demander à juste titre ce que Google entend par sur-optimisation et quels pourraient être ses critères ?

Définition de la suroptimisation


La suroptimisation interviendrait lorsque le référencement d'un site web est considéré comme "trop parfait".

Et ce, soit en terme de volume de backlinks, soit en raison du poids de son optimisation interne (On-Page). Donc, si votre optimisation frise la perfection, vous devenez suspect aux yeux de Google.

En d'autres termes, si Google considère que l'optimisation de votre site internet est au-delà de la limite du raisonnable pour un cerveau humain, votre site est automatiquement pénalisé et déréférencé. Parce que vous êtes en infraction de sur-optimisation de site web.

A ce stade, il y a tout de même une petite ligne entre la sur-optimisation et le spamming. Et, c'est sur cette ligne que se positionne Google pour vérifier et sévir en cas de besoin.

En fait, pour juger s'il y a ou pas sur-optimisation, Google calcule les différents classements en fonction de centaines de facteurs dont certains étudient la tendance normale d'une optimisation d'une niche de marché par rapport aux mots clés qui la caractérisent.

C'est donc la concurrence sur une niche de marché donnée qui détermine le niveau d'optimisation acceptable ou non. Plus il y a de concurrence sur une niche de marché et ses mots clés, plus le niveau d'optimisation tolérée serait bas. Et donc, la probabilité d'être en sur-optimisation restera plus élevée.

La notion de suroptimisation étant donc une notion discrétionnaire pour Google.

Il faut préciser ici que Google prend en compte l'optimisation interne (on-page) et l'optimisation externe (off-page). Ainsi, il vérifie s'il n'y a pas de sur-optimisation par rapport aux backlinks, aux balises meta, aux headers, aux titres, aux URLs, aux ancres de liens et même par rapport aux balises Alt et aux noms des des images.

Sans oublier les mises à jour intempestives d'un contenu pour qu'il corresponde à une requête précise ciblée.

Les critères déterminant la sur-optimisation


Pour mieux comprendre pourquoi Google juge certains site web en état de sur-optimisation, il est important de déterminer quelques facteurs qu'il utilise pour classer les sites web dans son index.

Lorsque Google (ses robots, bien entendu) procède à l'indexation d'une page web, il ne commence pas par vérifier son optimisation. Il commence par comparer la page à indexer aux autres pages qui sont déjà dans son index en fonction de la niche de marché, puis de la catégorie et enfin des mots clés utilisés.

A la suite de cette comparaison, Google se demandera alors :
  • Cette page à indexer est-elle plus optimisée que les pages actuelles du haut du classement (Top 10) ?
  • Y a-t-il eu des sites pris en flagrant-délit de sur-optimisation dans cette niche de marché avec ces mêmes mots clés ?
  • Si oui, quelle avait été la limite acceptable pour de tels mots clés (en regardant dans l'historique de chaque mot clé) dans cette même niche de marché ?
Si Google peut se poser de telles questions avant indexation d'une page, c'est que, contrairement à ce que nous clame toujours Matt Cutts, la densité des mots clés a une véritable importance dans toute optimisation de page web !

Parce qu'il ne peut pas y avoir de sur-optimisation sans problème de densité de mots clés. Que ce soit pour les ancres de liens, les titres, les Alt des images, les noms de pages, les headers, les balises meta, les noms de domaine, s'il y a sur-optimisation, c'est d'abord parce qu'il y a une surdose de mots clés.

Alors, pourquoi Matt Cutts a-t-il toujours refuté la thèse selon laquelle il existerait bien un ratio de mots clés pour chaque contenu, en fonction du nombre de mots qui composent ce contenu ?

Il serait tellement plus simple pour Google d'indiquer une densité de mots clés à ne pas dépasser pour éviter toute pénalité pour sur-optimisation de site. Ainsi, les règles du jeu seraient plus claires pour tous.

Finalement, à force de dire une chose et son contraire, Google ne joue-t-il pas à perpétrer un mythe qui n'a vraiment pas besoin d'être mystifié davantage ?

Voici maintenant comment bien référencer son site sur Google en 2014.