Google Penguin 3.0 est toujours en cours... Et ce n'est pas fini !


John Mueller à propos de Penguin 3.0


Google Penguin 3.0 a été lancé depuis maintenant un mois. Alors qu'on s'attendait à ce que son déploiement prenne fin le week-end dernier, +John Mueller vient de déclarer, dans un Hangout en date du 3 Novembre, qu'il se poursuivait encore.

Par conséquent, nous devrions continuer à observer des fluctuations dans les pages de résultats pendant un bon moment encore...

Un déploiement de Penguin déjà annoncé comme devant se faire très lentement, après une année sans mise à jour... Et, selon +John Mueller , il devrait prendre fin dans "quelques petites semaines".

John Mueller a aussi profité de cet Hangout pour livrer d'autres informations intéressantes en répondant aux questions des participants.

Google pense-t-il inclure un jour une notification de pénalité algorithmique dans Google Webmaster Tools ?

John Mueller a révélé que Google étudie depuis un certain temps cette possibilité qui est toujours en discussion dans l'équipe. Seulement, ils ont du mal à voir comment cela pourrait se faire. Et ce, compte tenu de la grande variété des critères couverts par leurs algorithmes lors de l'exploration d'un site web.

Il a alors annoncé qu'ils cherchaient d'autres façons d'introduire des données qui leur permettront d'informer les webmasters sur ce type de pénalités. Les discussions se poursuivent avec l'espoir que cela pourrait bientôt aboutir à des notifications détaillées de pénalités algorithmiques dans Google Webmaster Tools.




Concernant le filtre IP, est-il vrai qu'il peut influer sur deux sites différents sur la même adresse IP, vendant les mêmes produits ?

John Mueller a déclaré qu'il ne pensait pas que cela devrait être considéré comme très important à propos d'une question dont Google a conscience que cela peut se produire de façon naturelle.

Mais il a fait remarquer que si Google devait voir des milliers de sites similaires mis en place (sur une même adresse IP) tout en se concentrant sur un même mot-clé spécifique, c'est quelque chose que les algorithmes regarderont scrupuleusement afin pouvoir infliger des pénalités s'ils les considèraient comme étant des sites satellites.

C'est à dire des sites exclusivement créés et optimisés pour les moteurs de recherche avec des mots-clés choisis et un contenu sans intérêt...

Pourquoi les positions moyennes dans Google Webmaster Tools (Trafic de recherche -> Requêtes de recherche) sont-elles si différentes de celles des autres outils de vérification de classement ?

John Mueller a souligné le fait que l'information au sein des outils pour les webmasters, au sujet des classements, prenait en compte un certain nombre de choses, mais que finalement cela se résumait à ce que les gens voient lorsqu'ils font des recherches sur des requêtes spécifiques.

Ainsi, les classements dans les outils peuvent être affectés par le ciblage géographique, la personnalisation des résultats et comment les gens poussent leurs recherches dans les résultats affichés (visitent plusieurs pages de résultats) concernant leur requête. Cependant, vous devriez être capable de voir depuis le nombre d'impressions si ces classements sont légitimes comparativement à ce nombre d'impressions affiché.

Les liens provenant de sites web statiques, sont-ils pénalisants pour tout site ?

Il s'agirait dans cette question de liens posés dans des sites jamais réactulisés mais servant à pratiquer du negative seo pour influer négativement sur le classement des sites qui les reçoivent malgré eux.

John Mueller a souligné que Google est au courant de tels agissements dont il ne faudrait pas pour autant s'en inquiéter. Il n'y aurait donc, à l'entendre, aucun un impact négatif à craindre de la part de ce genre de backlinks.