La directive noindex est une instruction donnée aux moteurs de recherche de ne pas inclure une page dans leur index. Elle s'implémente via une balise meta ou un en-tête HTTP, et empêche la page d'apparaître dans les résultats de recherche.
Explication approfondie
Mettre des pages en noindex améliore la qualité perçue du domaine : en empêchant Google d’indexer les pages sans valeur, on concentre son attention sur les contenus stratégiques. Les pages candidates au noindex : pages de connexion et espaces clients, pages de résultats de recherche interne, pages de panier e-commerce, pages de tags avec peu de contenu, et pages de pagination au-delà de la page 2.
Nuance critique : une page en noindex doit rester accessible à Googlebot (non bloquée dans robots.txt) pour que le robot puisse lire la directive et l’appliquer. Bloquer une page dans robots.txt ET lui ajouter un noindex est une erreur fréquente : Google ne peut pas voir le noindex s’il ne peut pas explorer la page.
La désindexation après ajout d’un noindex n’est pas instantanée : Google doit recrawler la page pour prendre en compte la directive, ce qui peut prendre de quelques jours à plusieurs semaines. Pour accélérer, utiliser l’outil d’inspection d’URL dans Search Console.
Un blog analyse son index et découvre que 40 % des pages indexées sont des pages de tags avec 1 ou 2 articles, des archives mensuelles et des pages de pagination — du contenu sans valeur propre. En ajoutant noindex sur ces pages, Google concentre son exploration sur les vrais articles, ce qui améliore la perception de la qualité globale du site.
Questions fréquentes
Pas exactement. Noindex est une directive qui empêche l'indexation future. La désindexation est le résultat. Après ajout d'un noindex, la désindexation n'est pas immédiate : Google doit recrawler la page pour prendre en compte la directive.
Non, la directive noindex dans robots.txt n'est plus supportée par Google depuis septembre 2019. Elle doit être implémentée via la balise meta dans le head de la page ou via l'en-tête HTTP X-Robots-Tag.
Potentiellement oui, en améliorant la qualité perçue du site par Google. En concentrant le crawl budget sur les pages à valeur et en évitant que des pages de faible qualité dégradent la réputation globale du domaine.
À explorer aussi
Des notions proches pour approfondir votre compréhension du SEO.
Mettons ce savoir en pratique pour votre site.