Interdire l'accès de GoogleBot à une page

Nouveau WRInaute
Bonjour,
Je souhaite interdire l'accès de plusieurs pages (un panier par exemple, formulaire d'authentification, etc...) à Google.
J'ai renseigné correctement, je pense, le robots.txt.
Sur "Webmaster Central" je vois toujours des lignes d'erreur "URL à accès restreint par un fichier robots.txt".
C'est une peu le chien qui se mord la queue...
Qu'ai-je oublié ou mal fait SVP ?
Merci.
 
WRInaute passionné
Je ne pense pas que ces "erreurs" soient gênantes, mais sinon, tu pouvais juste mettre des noindex nofollow sur ces pages que tu ne souhaite pas faire indexer.
 
Nouveau WRInaute
Ok super,
Si ces "Erreurs d'exploration" n'ont pas d'incidence, parfait.
Je vais tout de même mettre des nofollow, effectivement, on ne sait jamais.
Merci ;-)
 
Nouveau WRInaute
À quoi les erreurs liées aux URL restreintes par un fichier robots.txt correspondent-elles ?

Google n'a pas pu explorer l'URL en raison d'une restriction dans le fichier robots.txt. Ce problème peut avoir plusieurs causes. Par exemple, votre fichier robots.txt peut interdire totalement l'accès de Googlebot à votre site ; il peut interdire l'accès au répertoire dans lequel se trouve cette URL ou interdire l'accès à cette URL en particulier. Bien souvent, il ne s'agit pas d'une erreur. Vous pouvez avoir configuré le fichier robots.txt de manière à nous empêcher d'explorer cette URL. Dans ce cas, il n'y a pas lieu d'intervenir. Nous continuerons de respecter les paramètres du fichier robots.txt pour ce fichier.

Lorsqu'une URL comporte une redirection vers une URL bloquée par un fichier robots.txt, la première URL est également signalée comme bloquée par ce fichier et cela, même si l'outil d'analyse la considère comme Autorisé.
 
Discussions similaires
Haut