Matt Cutts a livré sa vision de l'internet lors du keynote à San Francisco.
Ainsi, au cours d'un débat organisé par Bradford, il a eu l'occasion de faire le tour du SEO et de l'attente de Google dans ses rapports avec les webmasters.
De cet entretien, on peut surtout retenir le fait que Google envisage de sortir de son rôle de moteur de recherche pour devenir in fine un moteur de connaissance, de savoir.
D'où l'importance capitale qu'il demande d'accorder à Google Knowledge Graph qui est dorénavant au coeur de toute la stratégie de Google. Les questions sont posées par le public présent.
Existe-t-il un projet qui vous permettrait de moins vous focaliser sur le contenu et de mieux comprendre la qualité d'une entreprise en fonction de ses services ou de ses produits ?
Les liens continueront d'être une part importante de cette compréhension pour Google, mais Panda et Penguin seront plus affinés (NDLR : pour de meilleurs résultats ?).
Les marketeurs et les webmasters n'arrêtent pas de demander "A quand la prochaine mise à jour de Penguin ?" et peut-être qu'ils le redoutent. Ce qui est sûr, c'est que les prochaines updates de Penguin vont provoquer encore quelques chamboulements dans les SERPs.
Quels sont les signaux sociaux utilisés par Google ?
Il en est de même avec Twitter dont l'accord n'a pas été renouvelé. (NDLR : C'est pour cela que Google a même arrêté la recherche en temps réel sur son moteur).
NDLR : Alors, comment Matt Cutts peut-il dire que les réseaux sociaux influencent le référencement si Google ne peut pas crawler Twitter et Facebook ?
Que s'est-il passé avec Twitter ?
Google pouvait "crawler" (indexer) Twitter tant que notre accord était encore valide.
C'est ainsi que Twitter avait bloqué nos robots pendant 1 mois et demi alors que les pourparlers n'avaient pas encore repris en vue du renouvelement de l'accord. Alors, aujourd'hui, Google reste prudent quant à prendre Twitter comme signal. Car, Twitter peut à tout moment tout arrêter (NDLR : Lire "Nouvelle mise à jour de l'Api de Twitter qui va faire très mal).
Tweet de Matt Cutts à propos de Twitter |
Que pouvez-vous dire à propos des messages d'alertes reçus par les webmasters?
Que voulez-vous dire, vous Matt Cutts, lorsque vous parlez de sur-optimisation ?
Mes propos passés concernent essentiellement l'achat de backlinks. Le SEO se suffit à lui-même.
Google devient-il de moins en moins un moteur de recherche pour s'ériger davantage en Editeur ? knowledge Graph vous permet de fournir immédiatement des réponses et donc, de réduire le trafic moteur vers certains sites tels que Wikipédia. Et Google Flight reprend le trafic d' Orbitz, etc. Combien d'éditeurs seront impactés par knowledge Graph ? Google n'est-il pas en train de confisquer tout le trafic web ?
Quant aux marketeurs et autres référenceurs qui souhaitent augmenter leur trafic au maximum, ils feraient mieux de se concentrer sur la production de contenu ayant une valeur originale.
Lorsqu'un internaute saisit "quel temps fait-il ?", bien évidemment, Google est à même de fournir une telle réponse immédiatement. Car, il s'agit de faits objectifs.
Et lorsque vous souhaitez avoir des idées ou des avis avec une question telle que "quel est le meilleur endroit pour acheter une voiture ?", Google ne sera pas en mesure de vous donner une réponse simple.
Tout ceci pour dire qu'il revient aux marketeurs et référenceurs de proposer du contenu apportant des réponses précises à des requêtes objectives.
Où se situe la frontière pour que Google considère une requête comme objective ?
Google agit en fonction de ses propres intérêts. Et les webmasters, comment font-ils maintenant face à knowledge Graph ?
NDLR : Danny Sullivan de SearchengineLand qui s'énerve de cette réponse livre sa pensée qui suit.
Pour les sites qui ont été crées sur le partage de faits communs, j'estime que Google leur "pique" leur business. C'est sans doute bon pour l'utilisateur, mais Google extrait tout de même du contenu des sites web pour le leur fournir directement. Pendant ce temps, Google détient le monopole du trafic web.
Pour nous, les utilisateurs sont prioritaires. Et, nous devons nous en occuper, sinon ils iront voir ailleurs. Mais nous comprenons que ce sont les sites web qui font le Web. Le Web doit rester propre pour tous. Faute de quoi, les gens se tourneront vers les applications et la recherche internet ne fonctionnera plus.
Dans les 10 repères clés qui est la profession de foi de Google, nous mentionnons en premier "la recherche de l'intérêt de l'utilisateur".
Que pouvez-vous nous dire sur l'importance de Google+ dans la mesure où Google veut devenir social mais n'a pas accès aux autres réseaux sociaux ?
Les produits Google tels que Youtube favorisent-ils le classement ?
Pourquoi Google n'a-t-il pas un système de notation propre à lui ? Si vous vous dîtes transparent, pourquoi vous ne mettez pas à disposition du public un service qui pourrait dire aux gens ce qui est réellement faux sur leur site ?
Matt Cutts : Un guide concret sur comment faire un bon site est un projet que Google veut mettre en oeuvre.S'il y a du spam, nous voulons pouvoir dire "oui, nous avons trouvé du spam". Ce qui a rapport avec les alertes sur les liens non naturels.
Maintenant, nous avons commencé à dire : votre site est bon, mais nous n'avons pas confiance en certains de vos liens. J'espère que les webmasters peuvent eux-mêmes voir ce qui est faux et procéder aux corrections. C'est ma vision des choses.
Bien sûr, il arrive que le message envoyé aux webmasters prêtent à confusion et les gens paniquent. Par conséquent, nous enverrons des messages très clairs.
Il n'est pas utile de dire aux webmasters "Nous n'avons pas confiance en vous", mais nous ne donnons aucune indication.
Dans tous les cas, avant la fin de l'année, nous espérons fournir plus d'informations qu'aujourd'hui.
La communauté SEO est complètement perturbée depuis Panda et Penguin, et les gens sont en train de réécrire tous leurs contenus. Pouvez-vous nous en dire davantage ?
L'année dernière, tout le monde ne parlait que de Panda et, maintenant la communauté SEO a compris. Elle comprend que le contenu de bonne qualité et unique est essentiel pour le SEO.
Il a donc fallu, après, jeter un oeil sur les backlinks. Ce fut la mission de Penguin. Certains sites web ont chuté et ceux qui bénéficiaient de partages sociaux et de liens naturels (c'est à dire non achetés) n'ont généralement pas été touchés.
Nous espérons que l'année prochaine, les référenceurs et webmasters comprendront cela et que les liens naturels deviendront la norme.
A propos de la réécriture de contenus : s'il s'agit du même contenu dupliqué sur plusieurs pages de votre propre site, c'est à dire que vous répétez votre propre contenu, vous ne pouvez pas être impacté. Mais quel intérêt y a-t-il à réutiliser un même contenu sur différentes pages.
Y a-t-il un moyen d'indiquer à Google quelles sont les pages les plus importantes sur un site ?
Car, si vous estimez qu'une page est importante pour vos utilisateurs, c'est qu'elle est probablement importante pour Google.
Le taux de rebond fait-il partie de l'algorithme ?
Au final, pas de grandes révélations. Un peu de langue de bois mais quelques éléments d'appréciation sur l'état d'esprit de Google et les objectifs poursuivis pour asseoir sa suprématie sur le Net.
Voici maintenant comment bien référencer son site sur Google en 2014.