Définition SEO

Crawl

"

Le crawl est le processus par lequel les robots des moteurs de recherche parcourent automatiquement les pages d'un site en suivant les liens, afin de découvrir, analyser et transmettre leur contenu à l'index du moteur de recherche.

Comment fonctionne le crawl et quels facteurs l'influencent sur votre site ?

Le crawl est la première étape du référencement : sans exploration, pas d’indexation, et donc pas de positionnement. Les robots suivent les liens hypertextes de page en page. La profondeur de crawl désigne le nombre de clics nécessaires depuis la page d’accueil pour atteindre une page — plus une page est profonde, moins elle sera crawlée fréquemment.

Plusieurs facteurs influencent la qualité du crawl : la vitesse de réponse du serveur, la structure du maillage interne, les directives du fichier robots.txt, et la présence d’un sitemap XML. Un site lent ou mal structuré verra son budget crawl gaspillé sur des pages sans valeur.

Les erreurs qui freinent le crawl : les redirections en chaîne, les pages orphelines (sans aucun lien interne), le contenu dupliqué, les paramètres d’URL non maîtrisés, et les spider traps qui génèrent des URLs à l’infini.

Exemple concret

Un blog publie 500 articles mais les classe sur 10 niveaux de profondeur. Googlebot, après avoir exploré la page d’accueil et quelques niveaux, épuise son budget crawl sans jamais atteindre les articles les plus anciens. En restructurant le maillage interne pour que tous les articles soient accessibles en moins de 3 clics depuis la homepage, l’intégralité du contenu devient crawlable.

FAQ — Crawl

Vous avez un projet SEO ?

Mettons ce savoir en pratique pour votre site.