7 choses récemment dites par Google Webmaster sur le SEO

Lors de la récente PubCon à Las Vegas, un trio de Googlers, composé de Gary Illyes, Nathan Johns, et Eric Kuan, a participé à une keynote pour la Google Webmaster Relations pour répondre aux questions sur un large éventail de sujets SEO.

7 choses récemment dites par Google Webmaster sur le SEO

Voici quelques unes des réponses intéressantes que Google a fourni aux participants à propos des liens à désavouer, featured snippets, et plus encore.

Ne désavouez des liens que si vous avez une action manuelle



Question : Google est-il assez intelligent pour ignorer les mauvais liens ou devrions-nous utiliser l'outil de désaveu des liens ?

Selon les Googlers, la façon la plus intelligente d'aborder cette question est assez simple :

  1. Si votre site fait l’objet d’une pénalité manuelle, alors vous pouvez désavouer des liens.

  2. Si votre site n'a pas été pénalisé, vous n'avez pas à vous soucier des liens à désavouer.

Ce qui confirme donc le conseil de John Mueller qui a toujours dit dans ces hangouts que l’outil de désaveu des liens devrait être utilisé avec beaucoup de précaution.

Gary Illyes a, pour sa part, ajouté lors de la keynote qu'il fait confiance au système de Google au point de ne pas vous inquiéter si vous recevez des liens provenant d’un site porno, par exemple.

Avant d’ajouter :

Considérant le temps nécessaire pour désavouer des liens, surtout si vous avez plusieurs milliers de backlinks, vous pouvez probablement trouver quelque chose de mieux à faire avec votre temps pour améliorer votre site.

Et lors d’un autre Hangout, John Mueller a confirmé les propos de Gary Illyes et a ajouté ce qui suit :

  1. Vous pouvez l’utiliser à 100% si vous avez une action manuelle et si vous ne pouvez pas accéder à ces liens via les autres webmasters pour les supprimer.

    L'équipe anti-spam qui gère les actions manuelles examinera le fichier de désaveu et le prendra en considération si tout est correct.

  2. Vous pouvez utiliser le fichier de désaveu pour vous assurer que vous ne recevrez pas d'action manuelle à l'avenir. Il pourrait ne pas fonctionner à 100%, mais vous pouvez l'utiliser.

  3. Si vous ne faites pas confiance que les algorithmes de Google sont assez intelligents pour automatiquement ne pas compter les mauvais liens, alors vous pouvez utiliser l’outil de désaveu.

    Mais logiquement, ça n'a pas de sens. Si Google pense que les liens sont bons, pourquoi les bloquer ? C’est à dire que Google va bloquer automatiquement les mauvais liens de toute façon, et s'il pense que ces liens sont bons, il n’y a pas de raison de les bloquer.


Attendez-vous à ce que les featured snippets soient volatiles


D’après Gary Illyes, vous devriez vous attendre à voir des extraits optimisés ou featured snippets encore “volatiles” à court terme, car cette fonctionnalité est encore en cours de développement actif.

Et ce, en raison du fait que le développeurs de chez Google ont émis de nouvelles idées pour l'algorithme afin de fournir des featured snippets plus précis, actualisés, et de haute qualité pour tous les appareils.

Gary Illyes a alors précisé :

Même si vous l'obtenez aujourd'hui, vous pourriez le perdre 24 heures après parce que nous changeons légèrement quelque chose dans la façon dont nous voulons déclencher l’extrait optimisé ou préciser quelles conditions un résultat doit satisfaire pour être présenté..

Ensuite, 24 heures plus tard, vous pourriez récupérer votre featured snippet.

Il a dit qu'il est bon que les gens pensent à la façon d'obtenir des extraits optimisés (Position 0), mais il ne peut pas offrir de recommandations officielles parce que la fonctionnalité est encore trop volatile.


Les pros du SEO sont prêts à payer Google pour la data des backlinks ?


Question : Il semble que Google a une ressource immense. Alors pourquoi Google ne fournit pas de données sur les backlinks via une version Pro (payante) de Google Search Console ? Quelque chose dans le genre de Majestic, Ahrefs ou Moz?

Google reconnaît avoir reçu cette suggestion auparavant.

Un petit sondage officieux de l'auditoire a constaté que à peu près tous les participants seraient prêts à payer entre 49 et 99 dollars à Google pour de telles datas.



Vous n'avez vraiment pas à vous soucier du budget Crawl de Google


Une question de l'auditoire concernait l'optimisation du budget Crawl. Gary Illyes dit que les webmasters n’ont pas vraiment à se soucier de gaspiller les ressources de Google :
Nous avons ce qu’il faut. Sauf si vous êtes de la taille de Facebook, vous n'avez pas à vous soucier de gaspiller nos ressources.

Google utilise les données de l'activité après le clic ?


Une question de l'auditoire était de savoir si Google utilise n'importe quel type de données de l'activité post-clic (par exemple, taux de rebond, temps passé) pour les classements.

Johns a confirmé que Google utilise des données post-clic (après un clic sur la page de résultats), mais seulement pour évaluer ses différents algorithmes, et pour savoir si les changements ont abouti à une modification positive globale des résultats de recherche.

Cependant, cela ne signifie pas que Google utilise des données post-clic à des fins de classement direct.


Les données des mots-clés ne reviendront pas


Les anciens pros du SEO veulent encore vraiment que leurs données de keywords soient de retour dans Google Analytics après avoir été perdues à l’époque du “Not Provided”.

Pour Gary Illyes :

Ne vous attendez pas à voir les mots clés revenir. Vous n’avez juste qu’à utiliser l'analyse de la recherche dans Google Search Console.

Gary Illyes a révélé une autre fonctionnalité à venir dans la Search Console : un moyen de filtrer la recherche vocale par rapport aux requêtes saisies.


Google effectue des modifications dans les algos Panda et Penguin


Eric Kuan de chez Google a révélé pour sa part que Google continue encore à faire des changements à la fois dans les algorithmes Panda et Penguin.

Toutefois, ces algorithmes restent en pilotage automatique la plupart du temps. Finalement, c’est comme pour tous les algos de Google qu’on modifie pour les faire évoluer ou s’adapter si nécessaire.

Comme le note Barry Schwartz, le seul gros problème ici est, si l'un de ces changements impacte votre site et que Google ne confirme pas quand il a modifié ces algorithmes. Difficile de s’y retrouver alors pour fixer la chute dans le ranking.