Mise à jour du fichier robots.txt : dire à Google qu'il doit modifier le contenu indexé

WRInaute occasionnel
Bonsoir,

J'ai mis à jour le fichier robots.txt en début de semaine, après avoir remarqué que Google indexait les pages de recherches
(--> doublon dans les pages indexés, problème signalé par Google dans Google Webmaster > metatag en doublon).

Aujourd'hui je remarque une grosse "avancée" dans l'indexation des pages : d'environs 4 000 pages, je passe à 200 000
(les sitemaps soumis à Google Webmaster compte environ 100 000 pages)

Comment faire pour que Google face le tri ? Il a bien téléchargé le nouveau robots.txt

Je pensais à passer par l'outil "Supprimer l'URL" dans Google Webmaster, mais bon... :roll:
Merci pour votre aide :)
 
Nouveau WRInaute
Via l'outil de suppression tu peux retirer des pages par lot.
SI tes urls sont bien catégorisées avec un sous répertoire je crois que tu pourras toutes les retirer d'un coup (par exemple tonsite.com/recherche/blabla)
 
Discussions similaires
Haut