URL bloquées

Nouveau WRInaute
Bonjour,

Je rencontre un problème pour indexer un site.
J'ai fais l'erreur de disalow à la racine via le robots.txt durant quelques jours (mise en prod).
J'ai par la suite vidé le fichier (il y a environ 10 jours) mais les urls restent bloquées (dernier passage aujourd’hui !).

Quelque chose doit m'échapper, je crois que la patience ne suffira pas... Une idée?

Url du site en question: http://enlever-taches.fr (on ne se moque pas :D ). Loin d'être un pro du référencement, si vous avez des suggestions au passage n'hésitez pas...

Edit:
1165168569.jpg


Merci
 
Nouveau WRInaute
zeb a dit:
T'est indexé c'est pas brillant mais c'est fait https://www.google.fr/search?q=site%3Aenlever-taches.fr
Bref rien a faire de plus si ce n'est tout le reste.

Merci mais c'est pas vraiment indéxé ça non : "La description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site. En savoir plus". Google index depuis peu les pages bloquées par le robots.txt (mais ne les crawlent pas). Enfin c'est ce que j'ai lu...
 
WRInaute accro
Si c'est indexé mais pas pris en compte a cause du robots.txt. Ce qui donc devrait changer dans X temps.
Le robots.txt c'est un truc à la con faut pas utiliser ça quand tu est en dev. Htaccess est plus adapté car il bloque physiquement l'accès. Un site en travaux on ne le montre pas.
Même en prod dans 90% des cas le fichier robots.txt peut être remplacé par un htaccess qui lui est forcement exécuté le robots même les moteurs s'en contrefichent ou au mieux le prennent mal en compte.

edit : pour accélérer le truc tu peux lier les pages et pinguer la source du lien plus la page cible ça risque de forcer la main mais c'est pas certain.
 
Discussions similaires
Haut