Bonsoir,
En jetant un coup d’œil dans le Webmaster Tool (ça faisait plusieurs semaines que je n'y étais pas allé), je constate à ma grande surprise avoir 270000 pages indexées... Très surprenant en sachant que mon site ne devrait en avoir pas plus de 1500 à tout casser.
En faisant des recherches sur Google avec les commandes site: et inurl: je m'aperçois que les 270000 pages en trop sont des urls qui reprennent dans n'importe quel ordre des rubriques de mon site (des répertoires dans l'url) et les rubriques d'un autre site (toujours les mêmes répertoire). J'ai contacté le webmaster du site en question qui m'a rapidement répondu ne pas en connaitre la cause, puisqu'il ne connaissait même pas mon site.
Comment faire pour désindexer toutes ces pages ? J'ai identifié les répertoires de l'autre site à indiquer dans mes urls qui doivent être désindexées. Si je l'indique en disallow dans mon robots.txt, les pages ne seront plus crawlées mais cela ne les désindexera pas.
Je ne peux non plus me taper 270000 urls à la main, et je ne peux pas non plus utiliser la meta noindex.
Comment faire, parce que là je sèche...
Merci pour votre aide :wink:
En jetant un coup d’œil dans le Webmaster Tool (ça faisait plusieurs semaines que je n'y étais pas allé), je constate à ma grande surprise avoir 270000 pages indexées... Très surprenant en sachant que mon site ne devrait en avoir pas plus de 1500 à tout casser.
En faisant des recherches sur Google avec les commandes site: et inurl: je m'aperçois que les 270000 pages en trop sont des urls qui reprennent dans n'importe quel ordre des rubriques de mon site (des répertoires dans l'url) et les rubriques d'un autre site (toujours les mêmes répertoire). J'ai contacté le webmaster du site en question qui m'a rapidement répondu ne pas en connaitre la cause, puisqu'il ne connaissait même pas mon site.
Comment faire pour désindexer toutes ces pages ? J'ai identifié les répertoires de l'autre site à indiquer dans mes urls qui doivent être désindexées. Si je l'indique en disallow dans mon robots.txt, les pages ne seront plus crawlées mais cela ne les désindexera pas.
Je ne peux non plus me taper 270000 urls à la main, et je ne peux pas non plus utiliser la meta noindex.
Comment faire, parce que là je sèche...
Merci pour votre aide :wink: