Messages: 3

Enregistré le: 22 Avr 2015

Message le Lun Mai 18, 2015 11:38

Bonjour,

un lien erroné pointant vers une page erronée se baladait sur mon site et Googlebot a indexé 12000 pages (qui retournaient un statut 200) quand 4000 étaient jusqu'alors indexées.

Lorsque j'ai vu le nombre de pages indexées exploser dans Webmastertools, j'ai corrigé ce lien et mis des 404 sure ces pages qui n'existaient pas. Début mai, j'ai perdu des positions historiques sur de gros mots clés. A peu près à cette même date, Google a recrawlé 1000 des fausses URL et les a remontées en "introuvables" dans webmastertools.

1) pensez-vous que ces 1000 pages introuvables détectées peuvent être la source de nos pertes de positions ? Je lis partout que les 404 ne sont pas dangereuses pour le perf d'un site dans les résultats de recherche. Mais qu'en est-il lorsque Google en détecte un très grand nombre d'un coup ?

2) comme il reste encore un paquet de pages (11000) à crawler, on a eu peur que nos positions se dégradent encore plus après que plusieurs milliers de pages remontent en introuvables dans GWT. On a donc mis en place des 301 de ces pages vers une page pertinente (pas la home). Mais on voit désormais ces pages remonter en soft 404 dans GWT. Me conseillez-vous donc de remettre en place les 404, voire des 410 ou laisser les 301 ? Voyez-vous d'autres solutions ?

Merci d'avance pour vos retours

Maëlys
Haut