Google BERT est déployé pour le classement et les featured snippets

Google déploie l'algorithme BERT qu'il dit être le plus grand pas en avant pour la recherche dans les 5 dernières années, et l'un des plus grands pas en avant dans l'histoire de Google Search

Google déploie les modèles BERT

La plupart d'entre nous sait que Google répond généralement aux mots, plutôt qu'aux phrases - et Google est au courant de cette “faiblesse” aussi.

Google a donc annoncé qu'il déploie une nouvelle technique de compréhension du langage basée sur l'apprentissage automatique (machine learning) appelée BERT (Bidirectional Encoder Representations from Transformers).

BERT aide Google à déchiffrer vos requêtes de recherche en fonction du contexte de la langue utilisée, plutôt que des mots individuels. Selon Google, “quand il s'agit de classement des résultats, BERT aidera la recherche à mieux comprendre 1 recherche sur 10 en anglais, aux États-Unis”.


Découvrez BERT, une nouvelle façon pour Google Search de mieux comprendre la langue et améliorer nos résultats de recherche.

Il est maintenant utilisé aux États-Unis en anglais, aidant avec 1 recherche sur 10. Il s'agira à l'avenir d'un plus grand nombre de pays et de langues.

BERT se réfère à des modèles qui traitent les mots par rapport à tous les autres mots d'une phrase.

BERT est donc une méthode de pré-entraînement des algorithmes de traitement automatique du langage, développée par Google en 2018. Cette méthode a permis d'améliorer significativement les algorithmes de traitement automatique de la langue.

Cela signifie que les modèles BERT peuvent interpréter le sens approprié d'un mot en regardant les mots qui viennent avant et après. Cela permettra de mieux comprendre les requêtes, par rapport au traitement des mots un par un dans l'ordre.


Qu'est-ce que cela signifie pour les SEO et les propriétaires de sites ?


Google utilisant des modèles BERT pour comprendre les requêtes affectera à la fois les classements de recherche et les extraits optimisés (featured snippets). Toutefois, BERT ne sera pas utilisé pour 100% des recherches.

C’est en fait les requêtes conversationnelles de type longue traîne qui seront impactées par BERT.

Pour l'instant, BERT sera utilisé sur 10% des recherches aux États-Unis en anglais. Google dit que BERT est si complexe qu'il repousse les limites du matériel de Google, ce qui est probablement l’une des raisons pour laquelle l’algorithme BERT est seulement utilisé sur une quantité limitée de recherches. Notamment celles de la longue traîne. Mais cela peut changer à l’avenir.

Puisqu’il utilise le machine learning, BERT saura apprendre de lui-même et s’améliorera au fil du temps pour être plus performant et pertinent sur tout type de requêtes.

Les utilisateurs de recherche Google aux États-Unis devraient commencer à utiliser des informations plus utiles dans les résultats de recherche, comme le précise Google dans son post d’annonce :

Particulièrement pour les requêtes plus longues et plus conversationnelles, ou les recherches où les prépositions comme “pour” et “à” importent beaucoup au sens, Google Search sera en mesure de comprendre le contexte des mots dans votre requête. Vous pouvez rechercher d'une manière naturelle.

Pour les featured snippets, Google utilise déjà un modèle BERT pour améliorer les résultats dans deux douzaines de pays où des extraits optimisés sont disponibles.

Google dit que BERT est passé par des tests rigoureux pour s'assurer que les changements sont en fait plus utiles pour les chercheurs.


Quelques exemples de BERT en action


Lors des tests, Google a constaté que BERT a aidé ses algorithmes à mieux saisir les nuances des requêtes et à comprendre les connexions entre les mots qu'il ne pouvait pas auparavant.

Voici une recherche pour “2019 brazil traveler to usa need a visa” (2019 voyageur du Brésil aux USA qui a besoin d'un visa). Vous pouvez voir comment BERT a aidé Google à comprendre que la requête concerne un Brésilien voyageant aux États-Unis, et non l'inverse.



Le mot « to » (aux , dans notre exemple) et son rapport aux autres mots de la requête sont particulièrement importants pour comprendre le sens. Il s'agit d'un Brésilien voyageant aux États-Unis, et non l'inverse.

Et Google de reconnaître :

Auparavant, nos algorithmes ne comprendraient pas l'importance de cette connexion, et nous avons retourné des résultats sur les citoyens américains voyageant au Brésil.

Avec BERT, Search est capable de saisir cette nuance et de savoir que le mot très commun "to" (à) compte en fait beaucoup ici, et nous pouvons fournir un résultat beaucoup plus pertinent pour cette requête.

Pour lancer ces améliorations, nous avons fait beaucoup de tests pour nous assurer que les changements sont réellement plus utiles et avons démontré la capacité de BERT à comprendre l'intention derrière votre recherche.


Avec le modèle BERT, nous pouvons mieux comprendre que « for someone » (pour quelqu'un) est une partie importante de cette requête, alors qu'auparavant nous avons manqué le sens, avec des résultats généraux sur le remplissage des ordonnances.


Améliorer la recherche dans plus de langues


Google déclare également appliquer BERT pour améliorer la recherche pour les gens à travers le monde.

Une caractéristique puissante de ces systèmes est qu'ils peuvent prendre des apprentissages d'une langue et les appliquer à d'autres langues.

Ainsi, Google peut prendre des modèles qui apprennent de l'amélioration de l'anglais (une langue où la grande majorité du contenu Web existe) et les appliquer à d'autres langues. Cela l’aide à mieux retourner les résultats pertinents dans les nombreuses langues dans lesquelles la recherche est offerte.

Et Google d'ajouter :

Pour les featured snippets, nous utilisons un modèle BERT pour améliorer les extraits présentés dans les deux douzaines de pays où cette fonctionnalité est disponible, et de voir des améliorations significatives dans des langues comme le coréen, l'hindi et le portugais.


Regard vers l'avenir


Avec ce changement, Google vise à améliorer la compréhension des requêtes, à fournir des résultats plus pertinents et à habituer les internautes à saisir les requêtes d'une manière plus naturelle.

Google n'a pas dit dans quelle mesure ce changement affectera les classements de recherche. Étant donné que BERT n'est utilisé que sur 10% des requêtes en anglais aux États-Unis, l'impact devrait être minime par rapport à une mise à jour complète de l'algorithme.

Mais, comme dit plus haut, cela pourrait s’étendre à plus de requêtes, grâce à l’apprentissage automatique.

Comprendre le langage est un défi permanent, et Google admet, même avec BERT, il peut ne pas avoir tout juste. Bien que l'entreprise s'engage à mieux interpréter le sens des requêtes complexes.

Découvrez ici l'impact de Google BERT sur le référencement.