Google clarifie l'utilisation de son outil de suppression de liens

Outil de suppression de liens.
Depuis le lancement de l'outil de désaveu de Google en octobre 2012, il est très critiqué par une majorité de webmasters qui restent sceptiques quant à son efficacité.

Déjà, 2 semaines après sa mise à disposition, Matt Cutts avait accordé une interview à Danny Sullivan pour apporter des précisions.

Mais, ces dernières semaines, les critiques ont repris de plus belle sur la blogosphère, notamment anglosaxonne.

En Francophonie, c'est Olivier Andrieu, spécialiste en référencement, qui s'est fait hara-kiri pour pousser un coup de gueule sur une certaine forme d'opacité concernant le traitement des demandes de suppression de liens. C'est vous dire si ce sujet commence à agacer plus d'un.

C'est donc dans ce concert de désapprobation de l'outil de désaveu de liens que, suite à une interpellation sur un forum officiel de Google concernant cette fois l'outil de suppression de liens, +John Mueller, Analyste des tendances chez Google a posté une contribution sur ce même forum afin d'essayer de clarifier l'utilisation de cet outil.

Voici la traduction de son message :

Peut-être quelques éclaircissements peuvent aider à comprendre ...

  • L'outil de suppression d'URL n'est pas destiné à être utilisé pour l'entretien normal d'un site. Cela fait partie de la raison pour laquelle nous avons une limite quant à son utilisation.

  • L'outil de suppression d'URL ne supprime pas les URL de l'index, il les supprime de nos résultats de recherche. La différence est subtile, mais c'est une partie de la raison pour laquelle ces soumissions ne changent en rien le nombre d'URL indexées pour votre site.

  • Le fichier robots.txt ne supprime pas le contenu de notre index, mais dans la mesure où ne ne seront plus en mesure de l'explorer à nouveau, il ne sera plus visible sur nos pages de résultats.

  • Afin de supprimer le contenu de notre index, nous devons être capable de l'explorer, et nous devons voir une balise meta robots noindex, ou un code résultat HTTP 404/410 (ou une redirection, etc.).

    Par conséquent, pour pouvoir explorer un contenu, l'URL ne doit pas être en mode "disallow" (accès interdit) par le fichier robots.txt.

  • Nous traitons généralement le code 404 de la même manière que le code 410, avec une petite différence qu'avec le code 410, l'URL n'a pas besoin d'être confirmée par une nouvelle exploration de GoogleBot. Elle est rapidement retirée de notre index.

  • Dans la pratique, ce n'est pas important mais si vous pouvez utiliser le code 410, faîtes-le afin que le contenu soit supprimé.

  • Pour les changements de site de grande taille, je vous recommande:

    • De ne pas utiliser le fichier robots.txt
    • D'utiliser une redirection 301 pour le contenu qui a déménagé
    • D'utiliser un code 410 (ou 404 si vous ne pouvez pas) pour les URL qui ont été retirées
    • De vous assurer que le réglage de la vitesse d'exploration est réglé sur "Laisser Google décider" (automatique) dans Google Webmasters Tools, de sorte que vous ne limitez pas l'exploration de notre robot
    • D'utiliser l'outil de suppression d'URL uniquement pour les questions urgentes ou très flagrantes.

    Jugez-vous ces explications sur l'outil de suppression d'URLs assez claires et suffisantes ?