Robots.txt : empêcher l'indexation d'une page sans pénaliser les sous pages

WRInaute accro
Bonjour,

J'ai un site avec des url de type :
-http://www.monsite.zob/dossier/
-http://www.monsite.zob/dossier/sous-dossier1/
-http://www.monsite.zob/dossier/sous-dossier2/
-http://www.monsite.zob/dossier/sous-dossier1/article-ici

Je voudrais empêcher l'indexation de l'URL -http://www.monsite.zob/dossier/ SANS empêcher celle des sous dossiers et ce afin d'éviter le duplicate content (cette URL contient le contenu des deux sous dossiers).

Que dois-je mettre dans mon Robots.txt ?

Merci
 
WRInaute accro
Faire ceci est il pertinent ?
<meta name="robots" content="noindex, follow">

C'est une page de catégorie donc il faut impérativement que les liens soient suivis par contre je ne veux pas indexer la page.
A moins que je ne laisse google se débrouiller comme un grand et ne mettre ni robots.txt, ni noindex ?
 
Discussions similaires
Haut