Les propos de Matt Cutts sur le SEO qui font débat


Matt Cutts a livré sa vision de l'internet lors du keynote à San Francisco. 

Ainsi, au cours d'un débat organisé par Bradford, il a eu l'occasion de faire le tour du SEO et de l'attente de Google dans ses rapports avec les webmasters.

De cet entretien, on peut surtout retenir le fait que Google envisage de sortir de son rôle de moteur de recherche pour devenir in fine un moteur de connaissance, de savoir.

D'où l'importance capitale qu'il demande d'accorder à Google Knowledge Graph qui est dorénavant au coeur de toute la stratégie de Google. Les questions sont posées par le public présent.

Existe-t-il un projet qui vous permettrait de moins vous focaliser sur le contenu et de mieux comprendre la qualité d'une entreprise en fonction de ses services ou de ses produits ?


Matt Cutts : Le social deviendra un moyen extrêmement important pour comprendre ce qui est de meilleure qualité.

Les liens continueront d'être une part importante de cette compréhension pour Google, mais Panda et Penguin seront plus affinés (NDLR : pour de meilleurs résultats ?).

Les marketeurs et les webmasters n'arrêtent pas de demander "A quand la prochaine mise à jour de Penguin ?" et peut-être qu'ils le redoutent. Ce qui est sûr, c'est que les prochaines updates de Penguin vont provoquer encore quelques chamboulements dans les SERPs.

Quels sont les signaux sociaux utilisés par Google ?


Matt Cutts : Google ne peut se servir que des signaux sociaux renvoyés par des sources Open Graph. Google ne peut pas indexer les pages Facebook pour savoir qui a une bonne réputation ou a un impact dans le monde réel en tant que marque.

Il en est de même avec Twitter dont l'accord n'a pas été renouvelé. (NDLR : C'est pour cela que Google a même arrêté la recherche en temps réel sur son moteur).

NDLR : Alors, comment Matt Cutts peut-il dire que les réseaux sociaux influencent le référencement si Google ne peut pas crawler Twitter et Facebook ?


Que s'est-il passé avec Twitter ?


Matt Cutts : Les gens étaient surpris d'apprendre l'arrêt des résultats en temps réels sur Google. Ce qu'il faut savoir, c'est que Twitter est une plateforme privée et restreinte. Si Twitter décide de suspendre quelqu'un, il le peut.

Google pouvait "crawler" (indexer) Twitter tant que notre accord était encore valide.

C'est ainsi que Twitter avait bloqué nos robots pendant 1 mois et demi alors que les pourparlers n'avaient pas encore repris en vue du renouvelement de l'accord. Alors, aujourd'hui, Google reste prudent quant à prendre Twitter comme signal. Car, Twitter peut à tout moment tout arrêter (NDLR : Lire "Nouvelle mise à jour de l'Api de Twitter qui va faire très mal).

Tweet de Matt Cutts à propos de Twitter
Nous explorons différentes méthodes pour identifier qui est important dans la vie réelle. Nous voulons fournir des résultats de qualité qui soient en cohérence avec la réputation de chacun dans la vie réelle et les facteurs de qualité seront la clé. Raison pour laquelle nous indexons chaque jour près de 20 milliards de pages web.

Que pouvez-vous dire à propos des messages d'alertes reçus par les webmasters?


Matt Cutts : Google s'est engagé à être transparent. Et en devenant transparent, Google montre qu'il ne donne aucun avantage à qui que ce soit. De même, Google ne va pas non plus donner des informations spécifiques par rapport à ces algorithmes. Pour dire qu'on ne va pas non plus devenir trop transparent.

Que voulez-vous dire, vous Matt Cutts, lorsque vous parlez de sur-optimisation ?


Matt Cutts : Faire du bon SEO, c'est se focaliser sur le contenu pour les lecteurs, c'est faire en sorte d'avoir un site super rapide.

Mes propos passés concernent essentiellement l'achat de backlinks. Le SEO se suffit à lui-même.

Google devient-il de moins en moins un moteur de recherche pour s'ériger davantage en Editeur ? knowledge Graph vous permet de fournir immédiatement des réponses et donc, de réduire le trafic moteur vers certains sites tels que Wikipédia. Et Google Flight reprend le trafic d' Orbitz, etc. Combien d'éditeurs seront impactés par knowledge Graph ? Google n'est-il pas en train de confisquer tout le trafic web ?


Matt Cutts : Google s'occupe de fournir des réponses (NDLR : à des requêtes). Wikipédia s'occupe de la connaissance et probablement qu'il approuve (NDRL : notre démarche).

Quant aux marketeurs et autres référenceurs qui souhaitent augmenter leur trafic au maximum, ils feraient mieux de se concentrer sur la production de contenu ayant une valeur originale.

Lorsqu'un internaute saisit "quel temps fait-il ?", bien évidemment, Google est à même de fournir une telle réponse immédiatement. Car, il s'agit de faits objectifs.

Et lorsque vous souhaitez avoir des idées ou des avis avec une question telle que "quel est le meilleur endroit pour acheter une voiture ?", Google ne sera pas en mesure de vous donner une réponse simple.

Tout ceci pour dire qu'il revient aux marketeurs et référenceurs de proposer du contenu apportant des réponses précises à des requêtes objectives.

Où se situe la frontière pour que Google considère une requête comme objective ?


Matt Cutts : Les utilisateurs attendent plus chaque année de nous. Les utilisateurs souhaitent trouver plus de réponses directes sur les pages de résultats (NDLR : sans avoir besoin de visiter des sites web).

Google agit en fonction de ses propres intérêts. Et les webmasters, comment font-ils maintenant face à knowledge Graph ?


Google se préoccupe essentiellement de ce qui est bon pour l'utilisateur. L'Equipe Qualité/knowledge ne s'occupe pas de savoir combien d'argent Google va gagner. Ils cherchent à savoir ce qui sera bon pour l'utilisateur.

NDLR : Danny Sullivan de SearchengineLand qui s'énerve de cette réponse livre sa pensée qui suit.

Pour les sites qui ont été crées sur le partage de faits communs, j'estime que Google leur "pique" leur business. C'est sans doute bon pour l'utilisateur, mais Google extrait tout de même du contenu des sites web pour le leur fournir directement. Pendant ce temps, Google détient le monopole du trafic web.


Matt Cutts : Une fois de plus, Google ne se préoccupe que de la la meilleure expérience utilisateur possible. Mais nous sommes quand même conscient des webmasters.

Pour nous, les utilisateurs sont prioritaires. Et, nous devons nous en occuper, sinon ils iront voir ailleurs. Mais nous comprenons que ce sont les sites web qui font le Web. Le Web doit rester propre pour tous. Faute de quoi, les gens se tourneront vers les applications et la recherche internet ne fonctionnera plus.

Dans les 10 repères clés qui est la profession de foi de Google, nous mentionnons en premier "la recherche de l'intérêt de l'utilisateur".

Que pouvez-vous nous dire sur l'importance de Google+ dans la mesure où Google veut devenir social mais n'a pas accès aux autres réseaux sociaux ?


Matt Cutts : Nous n'avons pas encore donné assez de poids au bouton +1 . Google souhaite tenir compte des données sociales, mais les +1 ne sont pas rien non plus mais n'ont pas encore le poids escompté. Google attend d'abord les retours (commentaires) concernant Google Plus Your World.

Les produits Google tels que Youtube favorisent-ils le classement ?


Matt Cutts : Nous voulons que les gens aient confiance en Google.

Pourquoi Google n'a-t-il pas un système de notation propre à lui ? Si vous vous dîtes transparent, pourquoi vous ne mettez pas à disposition du public un service qui pourrait dire aux gens ce qui est réellement faux sur leur site ?

Matt Cutts : Un guide concret sur comment faire un bon site est un projet que Google veut mettre en oeuvre.

S'il y a du spam, nous voulons pouvoir dire "oui, nous avons trouvé du spam". Ce qui a rapport avec les alertes sur les liens non naturels.

Maintenant, nous avons commencé à dire : votre site est bon, mais nous n'avons pas confiance en certains de vos liens. J'espère que les webmasters peuvent eux-mêmes voir ce qui est faux et procéder aux corrections. C'est ma vision des choses.

Bien sûr, il arrive que le message envoyé aux webmasters prêtent à confusion et les gens paniquent. Par conséquent, nous enverrons des messages très clairs.

Il n'est pas utile de dire aux webmasters "Nous n'avons pas confiance en vous", mais nous ne donnons aucune indication.

Dans tous les cas, avant la fin de l'année, nous espérons fournir plus d'informations qu'aujourd'hui.

La communauté SEO est complètement perturbée depuis Panda et Penguin, et les gens sont en train de réécrire tous leurs contenus. Pouvez-vous nous en dire davantage ?


Matt Cutts : Panda était destiné à pénaliser les sites à contenus de faible qualité. Ce fut un grand changement, mais il correspondait à ce que nous pensions comme meilleur pour les utilisateurs.

L'année dernière, tout le monde ne parlait que de Panda et, maintenant la communauté SEO a compris. Elle comprend que le contenu de bonne qualité et unique est essentiel pour le SEO.

Il a donc fallu, après, jeter un oeil sur les backlinks. Ce fut la mission de Penguin. Certains sites web ont chuté et ceux qui bénéficiaient de partages sociaux et de liens naturels (c'est à dire non achetés) n'ont généralement pas été touchés.

Nous espérons que l'année prochaine, les référenceurs et webmasters comprendront cela et que les liens naturels deviendront la norme.

A propos de la réécriture de contenus : s'il s'agit du même contenu dupliqué sur plusieurs pages de votre propre site, c'est à dire que vous répétez votre propre contenu, vous ne pouvez pas être impacté. Mais quel intérêt y a-t-il à réutiliser un même contenu sur différentes pages.

Y a-t-il un moyen d'indiquer à Google quelles sont les pages les plus importantes sur un site ?


Matt Cutts : Pointez des liens vers ces pages importantes. Rendez-les facilement accessibles (NDLR : dès la page d'accueil).

Car, si vous estimez qu'une page est importante pour vos utilisateurs, c'est qu'elle est probablement importante pour Google.

Le taux de rebond fait-il partie de l'algorithme ?


Matt Cutts : Non, pas en tant que partie de l'algorithme de classement web général. A ma connaissance.
Au final, pas de grandes révélations. Un peu de langue de bois mais quelques éléments d'appréciation sur l'état d'esprit de Google et les objectifs poursuivis pour asseoir sa suprématie sur le Net.

Voici maintenant comment bien référencer son site sur Google en 2014.