Matt Cutts : Quelles améliorations pour Google Webmaster Tools en 2014 ?

Suggestions de Matt Cutts pour GWT en 2014.

Matt Cutts, Responsable webspam chez Google, a posté un article sur son blog personnel pour demander à tous les SEO de lui faire savoir ce qu'ils attendent comme amélioration pour Google Webmaster Tools.

L'outil de Google pour les webmasters permet à tous les administrateurs de sites web de suivre les performances de leurs sites et surtout d'être alerté des actions manuelles pouvant être prises à l'encontre de leurs sites.

Avec cet outil, Google a aussi mis en place et amélioré un système d'alerte en cas de piratage du site des webmasters. Il en est de même pour la visualisation des backlinks pointant vers leurs sites.

En plus de tous ces points que Matt Cutts essaie de mettre en lumière dans son post, il fait aussi cas des douzaines d'heures d'Hangouts pour aider les webmasters en direct ainsi que des +500 vidéos d'aides et de conseils (15 millions de vues).

Matt Cutts, qui estime que Google Webmaster Tools peut encore s'améliorer, demande à tous de lui faire des suggestions SEO pour 2014. Pour sa part, il fournit la liste ci-dessous comme pouvant faire partie des améliorations :


  • Améliorer les rapports (signalements) de spam, de bugs, d'erreurs et de sécurité des webmasters.

  • Offrir une option de téléchargement des pages web que Google aura vues sur votre site en cas de piratage ou problèmes de serveur.

  • Offrir une liste de vérifications ou d'aides pour les nouvelles entreprises qui débutent sur internet.

  • Des rapports périodiques avec des conseils à chaque webmaster sur des thèmes tels que le mobile ou le temps de chargement des pages.

  • Permettre d'envoyer à Google des pings du contenu avant sa publication sur le web. Ainsi Google pourra dire où le contenu est apparu en premier sur le web.

  • Mettre en place de meilleurs outils pour détecter ou montrer les contenus dupliqués ou copiés.

  • Montrer les pages non valables.

  • Présenter la source des pages qui pointent (liens brisés) vers vos pages non existantes (erreur 404) afin que vous puissiez contacter ces sources pour leur proposer le bon lien.

  • Ou, mieux : Dire quelles pages sur votre site provoquent une erreur 404 ou ont des liens brisés.

  • Possibilité de soumettre facilement une liste de liens à supprimer.

  • Améliorer le vérificateur des robots.txt pour mieux gérer les fichiers longs.

Matt Cutts précise que les propositions ci-dessus font partie de ses réflexions personnelles. Mais, je pense que ça reste des pistes de travail pour Google.

Voici maintenant comment bien référencer son site sur Google en 2014.