BERT (Bidirectional Encoder Representations from Transformers) est un modèle de traitement du langage naturel développé par Google, intégré à son algorithme en 2019. Il permet à Google de comprendre le contexte et les nuances du langage dans les requêtes et les pages web.
Explication approfondie
Avant BERT, Google analysait les mots d’une requête de façon relativement linéaire. BERT analyse le contexte bidirectionnel : chaque mot est compris en fonction de tous les autres mots qui l’entourent. Cela permet de saisir les subtilités et ambiguïtés du langage naturel.
L’impact le plus visible est sur les petits mots fonctionnels (prépositions, articles) qui peuvent changer complètement le sens d’une requête. « Voyage à Paris pour Américains » et « Voyage depuis Paris pour Américains » sont maintenant correctement différenciés grâce à la compréhension du contexte.
Pour le SEO, BERT renforce l’importance d’écrire du contenu en langage naturel. Les textes sur-optimisés avec répétitions artificielles de mots-clés sont moins bien compris qu’un texte fluide utilisant naturellement les synonymes et formulations variées.
Avant BERT, la requête « peut-on voyager au Brésil sans visa en tant que Français » retournait des résultats génériques. Après BERT, Google comprend précisément la question et retourne des réponses directement adaptées à ce cas spécifique, sans que les pages ne contiennent nécessairement ces mots exacts.
Questions fréquentes
Les deux. Google utilise BERT pour mieux comprendre les requêtes ET pour analyser le contenu des pages. Il peut ainsi mieux faire correspondre les pages dont le contenu répond précisément à l'intention exprimée, même sans correspondance exacte des mots.
En écrivant naturellement pour des humains, sans bourrage de mots-clés. BERT comprend le contexte, les synonymes et les formulations variées. Un contenu fluide et informatif sera mieux interprété qu'un texte rigide répétant mécaniquement les mêmes termes.
Non, ils coexistent et se complètent. RankBrain gère principalement les requêtes ambiguës. BERT gère la compréhension fine du langage dans les requêtes et les pages. Google utilise aussi d'autres modèles comme MUM pour les tâches complexes.
À explorer aussi
Des notions proches pour approfondir votre compréhension du SEO.
Mettons ce savoir en pratique pour votre site.