Suppression d'url interdites par le robots.txt

WRInaute impliqué
Bonjour à tous,
sur mon forum j'avais des pages que je ne souhaitais pas voir indexées, j'avais donc mis une balise no index. mais depuis quelques semaines je ne souhaite pas non plus qu'elles soient visitées par les robots, je les ai donc interdites via le robots.txt
le soucis c'est que depuis elles sont indexées avec ce texte en dessous :
"la description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site. en savoir plus"
Il y a des liens externes menant à ces pages, et comme les robots ne peuvent plus les visiter, ils ne peuvent plus voir qu'elles sont en no index (enfin google devrait quand même se poser des questions sur la pertinence de ses résultats en affichant des pages interdites aux robots...)
ma question est la suivante :
via google webmaster tool, j'ai demandé la suppression de ces pages, et elles ont été supprimé, seulement google mentionne la durée de 90 jours. est-ce-qu'elles vont être réindexé au bout de 90 jours, ou pas?
si la réponse est oui, que faire pour qu'elles ne soient pas réindexé, sans pour autant autoriser les robots à les visiter?
merci d'avance pour vos précisions.
 
Membre Honoré
alex84 a dit:
via google webmaster tool, j'ai demandé la suppression de ces pages, et elles ont été supprimé, seulement google mentionne la durée de 90 jours. est-ce-qu'elles vont être réindexé au bout de 90 jours, ou pas?
Si vous ne voulez pas les indexer à nouveau, il ne le fera pas.
 
Olivier Duffez (admin)
Membre du personnel
la bonne réponse, plus précise, est "si vous continuez d'en bloquer l'accès, il ne pourra pas les indexer"

@Alex84 : quand tu les as interdites de crawl, étaient-elles indexées ou pas ? si tu es certain qu'elles ne l'étaient pas, c'est en effet idiot de la part de Google
 
Discussions similaires
Haut