Prise en compte du fichier robots.txt

Nouveau WRInaute
Bonjour,
J'ai il y a plus de 2 mois modifié mes urls (url rewrtitting) sur un de mes sites et ai fait en sorte que les anciennes renvoient une erreur 410 pensant que google allait vite les indéxer, seulement les pages était toujours dans l'index alors j'ai fait un fichier robots.txt avec des action Disallow voila bien un mois mais je ne vois aucune url bloquées dans mon google webmaster tool, savez vous combien de temps cela prend t-il ?
Sinon pour info voici mon robots.txt
Code:
User-agent: *
Disallow: /annuaire-tag/
Disallow: /ajouter-un-site
Disallow: /add-site
Disallow: /*;jsessionid=

À noter que si je teste une url non désirée avec le formulaire sutr le tool, google m'indique bien qu'elle est bloquée avec la rêgle correspondante.
Merci !
 
Discussions similaires
Haut