Messages: 668

Enregistré le: 10 Jan 2004

Message le Jeu Fév 18, 2016 15:48

Bonjour

En rêgle générale combien de temps met Google à désindexer des pages (3000)
après lui avoir envyé un fichier xml, sur le webmaster tool

Merci de vos retours
Haut
11 Réponses
Messages: 37930

Enregistré le: 7 Juil 2004

Message le Jeu Fév 18, 2016 16:55

Bonjour,

C'est très variable suivant les sites, cela peut être quelques minutes à plusieurs mois.

N'hésitez pas à vous présenter au forum : ici et entre deux messages présenter vos avis aussi sur les sujets : ici.

Cordialement.
Haut
Messages: 668

Enregistré le: 10 Jan 2004

Message le Jeu Fév 18, 2016 18:42

Merci, c'est de plus en plus consternant la rapidité chez Google !
Haut
Messages: 12286

Enregistré le: 23 Nov 2005

Message le Jeu Fév 18, 2016 19:49

Tu as envoyé un fichier xml de pages redirigés ?
Haut
Messages: 668

Enregistré le: 10 Jan 2004

Message le Jeu Fév 18, 2016 21:07

C'est quoi que que tu nommes un fichier xml de pages redirigées.

Non, car je change tout, Rsponsive etc, sauf la home, je suis en ASP.net, donc j'ai tout mis en noindex sauf home,
ensuite je mets ma nouvelle plateforme. Et les pages de l'ancienne plateforme tomberont en 404.

Et vous en pensez quoi de la directive noindex non documentée mais supportée par Google. Ce "Noindex" dans le fichier robots.txt permet d'avoir le même effet que la balise meta robots noindex, c'est-à-dire interdire l'indexation d'un document.
User-agent: *
Noindex: /page-a.html
Noindex: /article-*
Haut
Messages: 12286

Enregistré le: 23 Nov 2005

Message le Jeu Fév 18, 2016 22:36

Si tu veux désindexer l'ancien site, le mieux reste de rediriger vers les nouvelles pages équivalentes. En laissant tout en 404, tu vas perdre tout l'acquis du site. A mon sens, c'est une très grosse erreur.
Haut
Messages: 668

Enregistré le: 10 Jan 2004

Message le Ven Fév 19, 2016 0:18

en aps.net c'est compliqué à gérer surtout sur +5000 urls, d'autant que toutes sont vraiment réécrites
Haut
Messages: 2079

Enregistré le: 9 Aoû 2005

Message le Ven Fév 19, 2016 0:19

Et vous en pensez quoi de la directive noindex non documentée mais supportée par Google


https://support.google.com/webmasters/answer/1663419?hl=fr
Haut
Messages: 668

Enregistré le: 10 Jan 2004

Message le Ven Fév 19, 2016 0:24

oui, je connais cette page, mais pas de réponse officielle sur la directive noindex dans le fichier robots.txt
Haut
Messages: 2079

Enregistré le: 9 Aoû 2005

Message le Ven Fév 19, 2016 1:00

mais pas de réponse officielle sur la directive noindex dans le fichier robots.txt


Noindex n'a rien a faire dans un fichier robots.txt

https://support.google.com/webmasters/answer/93710?hl=fr
http://robots-txt.com/meta-robots/
Haut
Messages: 12286

Enregistré le: 23 Nov 2005

Message le Ven Fév 19, 2016 8:53

en aps.net c'est compliqué à gérer surtout sur +5000 urls


http://www.isapirewrite.com/

Sachant que sur un volume comme celui-là, j'ai plutôt tendance à gérer mes redirections via une table de correspondance et un script qui vérifie ou non la présence de l'url dans cette table.
Haut
Messages: 23107

Enregistré le: 19 Avr 2002

Message le Ven Fév 19, 2016 9:56

je confirme que c'est une très mauvaise idée de ne pas rediriger chaque ancienne URL vers la nouvelle équivalente (en 301)
il est possible que la directive noindex dans le robots.txt fonctionne mais ce n'est pas la bonne méthode
Haut