La désindexation est le processus par lequel une ou plusieurs pages — voire un site entier — sont retirées de l’index de Google, le catalogue de toutes les pages que le moteur de recherche a explorées et mémorisées. Une page désindexée n’apparaît plus dans les résultats de recherche (SERP) et ne génère plus de trafic organique, quelle que soit la qualité de son contenu ou le nombre de ses backlinks.
La désindexation est à distinguer de la non-indexation (une page n’a jamais été indexée) et de la dé-crawl (les robots Google ne visitent plus une page mais elle reste dans l’index). Elle peut être volontaire — décidée par le propriétaire du site — ou involontaire, souvent causée par une erreur technique ou une pénalité Google.
Désindexation volontaire vs involontaire
| Désindexation volontaire | Désindexation involontaire | |
|---|---|---|
| Définition | Décision délibérée du propriétaire du site de retirer une page de l’index Google | Retrait de l’index sans intention du propriétaire — erreur, pénalité ou bug |
| Causes principales | Balise noindex, blocage robots.txt, suppression de page, contenu obsolète ou confidentiel | Tag noindex en production par erreur, crawl budget épuisé, pénalité Google, contenu dupliqué massif, migration ratée |
| Détectable dans GSC ? | Oui — rapport Couverture → “Exclu par balise ‘noindex'” | Oui — rapport Couverture → “Erreur”, “Exclu” ou chute brutale des pages indexées |
| Impact SEO | Contrôlé — le propriétaire choisit quelles pages exclure | Critique — perte de trafic non désirée, souvent urgente à corriger |
| Action requise | Aucune si intentionnel | Diagnostic urgent + correction + demande de réindexation |
Les 6 principales causes de désindexation involontaire
1. Balise noindex en production (erreur la plus fréquente)
La cause la plus courante de désindexation accidentelle — et la plus facile à commettre. Lors du développement ou de la migration d’un site, une balise <meta name="robots" content="noindex"> est souvent ajoutée pour empêcher l’indexation de l’environnement de développement. Si cette balise n’est pas retirée avant la mise en production, l’intégralité du site peut disparaître de Google en quelques semaines.
<!-- ❌ ERREUR — balise à supprimer AVANT la mise en production -->
<meta name="robots" content="noindex, nofollow">
<!-- ✅ CORRECT en production -->
<meta name="robots" content="index, follow">2. Blocage dans le fichier robots.txt
Le fichier robots.txt peut interdire aux robots Google de crawler des sections entières du site. Si une règle Disallow: / est appliquée par erreur sur tout le site (ce qui arrive lors de migrations), Google ne peut plus indexer aucune page.
# ❌ CATASTROPHIQUE — bloque tout le site
User-agent: *
Disallow: /
# ✅ CORRECT — autorise tout
User-agent: *
Disallow:3. Pénalité Google manuelle
Une violation sévère des Google Search Essentials peut déclencher une action manuelle de désindexation par les équipes Google. Cette pénalité est notifiée dans Google Search Console → Actions manuelles.
4. Crawl budget épuisé
Les sites très volumineux (e-commerces avec des milliers de pages produits, de filtres et de variations) peuvent épuiser leur crawl budget — le nombre de pages que Googlebot est prêt à crawler sur votre site par période. Les pages non crawlées finissent par sortir de l’index faute de revalidation.
5. Contenu dupliqué massif sans canonicalisation
Un e-commerce avec de nombreuses variantes produits (tailles, couleurs) qui génère des URL distinctes sans balise canonical peut voir Google déprioritiser ou désindexer les pages considérées comme du contenu dupliqué.
6. Erreurs techniques (404, 500, redirections en boucle)
Des erreurs serveur persistantes (code 500) ou des redirections en boucle peuvent empêcher Googlebot d’accéder aux pages, qui finissent par sortir de l’index après plusieurs tentatives de crawl infructueuses.
Comment détecter une désindexation via Google Search Console
Google Search Console (GSC) est l’outil principal pour diagnostiquer une désindexation. Les rapports à consulter en priorité :
| Rapport GSC | Ce qu’il montre | Signal d’alerte |
|---|---|---|
| Présence sur le Web → Pages indexées | Nombre total de pages indexées par Google sur votre site | Chute brutale du nombre de pages indexées sur une courte période |
| Présence sur le Web → Raisons d’exclusion | Pages exclues de l’index avec la raison (noindex, erreur, dupliqué…) | “Exclu par balise ‘noindex'” sur des pages importantes |
| Actions manuelles | Pénalités appliquées manuellement par Google | Toute action manuelle active est une urgence absolue |
| Inspection d’URL | Statut d’indexation d’une URL spécifique | “URL non indexée” sur une page stratégique |
| Performances → Clics et impressions | Trafic organique sur la période | Chute brutale des impressions = pages non vues par Google |
Comment réindexer son site : étapes par cas
Cas 1 : balise noindex ou robots.txt en erreur
- Supprimer la balise
<meta name="robots" content="noindex">des pages concernées - Corriger le fichier robots.txt si des règles Disallow bloquent des sections importantes
- Dans Google Search Console → Inspection d’URL → saisir l’URL de la page → cliquer sur “Demander l’indexation”
- Pour un site entier : soumettre le sitemap XML dans GSC → Sitemaps pour accélérer le recrawl
- Délai de réindexation : 1 à 14 jours selon la popularité de la page
Cas 2 : pénalité manuelle
- Lire la notification dans GSC → Actions manuelles pour identifier la violation précise
- Corriger toutes les violations listées (contenu de faible qualité, liens artificiels, cloaking…)
- Si la pénalité concerne des backlinks toxiques : créer et soumettre un fichier de désaveu via l’outil Google Disavow
- Soumettre une demande de réexamen dans GSC → Actions manuelles → “Demander un réexamen” avec une explication détaillée des corrections effectuées
- Délai de traitement : 2 à 4 semaines
Cas 3 : désindexation algorithmique (Core Update)
- Identifier les pages concernées via le rapport Présence sur le Web
- Auditer la qualité du contenu des pages désindexées — contenu trop fin (thin content), dupliqué, sans valeur ajoutée ?
- Mettre à jour ou enrichir le contenu pour renforcer les signaux E-E-A-T
- Soumettre les URLs corrigées dans l’outil d’inspection GSC
- Délai : la récupération intervient lors de la prochaine Core Update Google (3 à 5 par an)
Vous avez détecté une chute de trafic ou des pages manquantes dans Google ?
Un audit SEO technique identifie en 48h les causes de désindexation, les pénalités actives et vous livre un plan de réindexation priorisé.
Cas pratique : désindexation accidentelle lors d’une migration de site
La migration de site (changement de CMS, refonte, passage en HTTPS, changement de domaine) est la situation à plus haut risque de désindexation accidentelle. Voici le scénario le plus fréquent :
- Le site est développé en staging avec
noindexglobal activé - Le site est mis en production mais le
noindexn’est pas retiré — ou le robots.txt bloque Googlebot - Google crawle le site, lit les instructions
noindex, et commence à retirer les pages de l’index - Le trafic organique chute progressivement sur 2 à 6 semaines
- L’équipe détecte la chute dans GSC — souvent trop tard car la désindexation est déjà avancée
Checklist anti-désindexation pour une migration :
- Vérifier que la balise
noindexest retirée de toutes les pages en production - Vérifier le robots.txt en production via
https://votresite.com/robots.txt - Vérifier le robots.txt via l’outil de test Google Search Console → robots.txt
- Soumettre le nouveau sitemap XML dans GSC immédiatement après la mise en production
- Surveiller le rapport “Pages indexées” dans GSC quotidiennement pendant les 30 premiers jours post-migration
FAQ — Désindexation
Qu’est-ce que la désindexation Google ?
La désindexation est le processus par lequel une ou plusieurs pages disparaissent de l’index Google — et donc des résultats de recherche. Elle peut être volontaire (balise noindex, robots.txt, suppression de page) ou involontaire (erreur technique, pénalité, migration ratée). Une page désindexée ne génère plus de trafic organique et ne peut pas être positionnée dans Google, quelle que soit la qualité de son contenu.
Comment savoir si mon site a été désindexé par Google ?
Les signaux à surveiller : (1) chute brutale du trafic organique dans Google Analytics 4 ou Google Search Console ; (2) rapport GSC → Présence sur le Web → Pages indexées — une chute soudaine du nombre de pages indexées est un signal d’alerte ; (3) GSC → Actions manuelles — vérifier si une pénalité est active ; (4) tester une URL spécifique via GSC → Inspection d’URL ou en tapant “site:votredomaine.com” dans Google pour voir les pages indexées.
Comment réindexer une page dans Google ?
Pour demander la réindexation d’une page : (1) s’assurer que la page ne contient pas de balise noindex et n’est pas bloquée par robots.txt ; (2) dans Google Search Console → Inspection d’URL → saisir l’URL → cliquer sur “Demander l’indexation”. Pour un site entier ou de nombreuses pages, soumettre le sitemap XML dans GSC → Sitemaps accélère le processus. Le délai de réindexation est généralement de 1 à 14 jours selon la popularité et la fréquence de crawl du site.
Quelle différence entre noindex et désindexation ?
La balise noindex est une instruction HTML ou HTTP qui demande à Google de ne pas indexer une page — c’est l’un des mécanismes de désindexation volontaire. La désindexation est le résultat — la page disparaît de l’index Google. Une page peut être désindexée pour de nombreuses raisons au-delà du noindex : erreur serveur persistante, pénalité manuelle, contenu dupliqué, blocage robots.txt, ou décision algorithmique de Google.
La désindexation est-elle permanente ?
Non — la désindexation n’est généralement pas permanente. Une fois le problème corrigé (balise noindex retirée, pénalité levée, erreurs techniques résolues), Google peut réindexer les pages lors de son prochain crawl. La demande de réindexation via l’outil d’inspection de Search Console accélère le processus. Seule exception : si le domaine a été définitivement supprimé ou si une pénalité manuelle grave n’a pas fait l’objet d’une demande de réexamen acceptée.
Pour aller plus loin
- SEO technique — les bases de l’indexation et du crawl Google
- Google Search Console — l’outil principal pour détecter et corriger les désindexations
- Spamdexing — les pratiques Black Hat qui entraînent des désindexations pénales
- Robots.txt — la principale cause de désindexation accidentelle en migration
- Notre expertise SEO — audit technique et réindexation pour e-commerçants
