Robots.txt [supprimer des pages ]

WRInaute impliqué
Bonjour

j'aimerais supprimer certaine page de mon site de GG, il y un formulaire de suppression sur google qui efface les pages en 24 h, à l'aide d'un fichier robot.txt .

que dois-je mettre sur ce fichier robots ? je veux seulement que la page accueil qui reste indexée .

merci pour votre aide
 
WRInaute discret
Bonjour,

Une solution, déplacer le site dans un sous-répertoire et laisser la page d'acceuil sur le "root". Le laisser à sa place en somme.

Ensuite, placez ceci dans le fichier robots.txt,

Code:
User-agent:	*
Disallow : /repertoire/

Autre solution, placer le ligne suivante dans le header de toutes les pages que vous ne souhaitez pas indexer :

<meta name="robots" content="noindex, nofollow" />

Les deux sont cumulables :D

Bien à vous,

Serge
 
Discussions similaires
Haut