Bonjour
récemment j'ai supprimé un site entier dans Gwt, çà faisait 2 mois qu'il était en duplicate avec un autre site, et j'en avais marre d'attendre que google prenne mes redirections en compte.
Test 1 :
Je soumets la demande en fixant un robots.txt interdisant l'accès par google, quelques temps aprés la demande est prise en compte et le contenu supprimé.
Test 2 :
J'utilise l'option de ré inclusion, toujours avec le même robots.txt, quelques temps après tout le contenu est remis en ligne malgré l'interdiction du robots.txt
Conclusion
Tant que l'url a été crawlé, google le garde en base et ceci:
- même si, un robot txt en interdit le crawl
- même si une demande de suppression a été réalisé
Reste à savoir, si dans le cas de ces suppressions, google recalcule le poids de la page par rapport à l'existant ou s'il prends toute la base (contenu supprimé inclus), ce qui peut être particulièrement génant dans le cas de duplicate.
récemment j'ai supprimé un site entier dans Gwt, çà faisait 2 mois qu'il était en duplicate avec un autre site, et j'en avais marre d'attendre que google prenne mes redirections en compte.
Test 1 :
Je soumets la demande en fixant un robots.txt interdisant l'accès par google, quelques temps aprés la demande est prise en compte et le contenu supprimé.
Test 2 :
J'utilise l'option de ré inclusion, toujours avec le même robots.txt, quelques temps après tout le contenu est remis en ligne malgré l'interdiction du robots.txt
Code:
si (siteSupprime(site) && demandeDeReinclusion)
alors
- reinclure dans l'index (pas de check du robots.txt ici)
FinSi
Conclusion
Tant que l'url a été crawlé, google le garde en base et ceci:
- même si, un robot txt en interdit le crawl
- même si une demande de suppression a été réalisé
Reste à savoir, si dans le cas de ces suppressions, google recalcule le poids de la page par rapport à l'existant ou s'il prends toute la base (contenu supprimé inclus), ce qui peut être particulièrement génant dans le cas de duplicate.