Comment désindexé proprement ? 410 vs robot.txt ?

WRInaute discret
Bonjour,
Suite à une restructuration du site j'ai des milliers d'URLS supprimées (j'ai bien dit supprimées et non remplacées), avec donc une erreur 404 pour ces urls.
L'outil pour webmaster google commence donc à me signaler toutes les erreurs 404.

Je souhaite donc désindexé ces pages, je vois deux solutions :

1er solution : "j'utilise l'outil de google pour désindexer une par une les urls qui n'existe plus + j'ajoutes ces même URLS dans le robot.txt avec un disalow"

2ème solution: "j'utilise mon .htacess pour lister ces URLs supprimées et je les redirige vers une page 410".

Qu'elle solution est la plus propre et efficace ?

en vous remerciant.
 
WRInaute passionné
Le robots.txt ne permet pas de désindexer, il propose seulement des régles de crawl (qui ne sont pas forcement suivies par les moteurs).

Une 410 est la meilleure solution.
 
WRInaute discret
Oui je sais pour le robots.txt, c'est pour cela que je prend la précaution d'utiliser l'outil de désindexation juste avant.
Dans ce cas si j'utilise le 410 l'outil google ne sert à rien.
Dans la solution 1 c'est en gros : "je dis à google de désindexé tels pages et je luis dis de ne plus revenir dessus (grace au robots.txt)."

dans la solution 2 je luis dis : "découvre par toi même quelles pages sont supprimés et fait le boulot tout seul"

Je le vois comme ça. Et je me dis pas sure que la 2ème solution plaise à Google.
 
Discussions similaires
Haut