Définition SEO

Google BERT

"

BERT (Bidirectional Encoder Representations from Transformers) est un modèle de traitement du langage naturel développé par Google, intégré à son algorithme en 2019. Il permet à Google de comprendre le contexte et les nuances du langage dans les requêtes et les pages web.

Comment BERT change la façon dont Google comprend les requêtes et le contenu ?

Avant BERT, Google analysait les mots d’une requête de façon relativement linéaire. BERT analyse le contexte bidirectionnel : chaque mot est compris en fonction de tous les autres mots qui l’entourent. Cela permet de saisir les subtilités et ambiguïtés du langage naturel.

L’impact le plus visible est sur les petits mots fonctionnels (prépositions, articles) qui peuvent changer complètement le sens d’une requête. « Voyage à Paris pour Américains » et « Voyage depuis Paris pour Américains » sont maintenant correctement différenciés grâce à la compréhension du contexte.

Pour le SEO, BERT renforce l’importance d’écrire du contenu en langage naturel. Les textes sur-optimisés avec répétitions artificielles de mots-clés sont moins bien compris qu’un texte fluide utilisant naturellement les synonymes et formulations variées.

Exemple concret

Avant BERT, la requête « peut-on voyager au Brésil sans visa en tant que Français » retournait des résultats génériques. Après BERT, Google comprend précisément la question et retourne des réponses directement adaptées à ce cas spécifique, sans que les pages ne contiennent nécessairement ces mots exacts.

FAQ — Google BERT

Vous avez un projet SEO ?

Mettons ce savoir en pratique pour votre site.