Nouveau WRInaute
Bonjour à tous,

Je vous explique un peu la situation. Je viens de prendre les "manettes" d'un site à forte volumétrie (dernier crawl effectué plus de 1 500 000 pages). Après avoir commencer à analyser le passage de GoogleBot avec Watussi Box je me suis aperçu avec horreur que plus de 90% de mes pages sont inactives (qui ne reçoivent pas de trafic de google). Vous allez me dire que c'est plus ou moins normal étant donné la masse d'url.
Après avoir catégoriser mes pages j'ai environ 6 types de pages qui reviennent quasiment tout le temps (avec la même structure d'url).

- 1ière catégorie : des petites annonces qui expirent tous les 3 mois qui ne m'apporte donc quasiment aucun trafic. Et surtout sur lesquels j'ai pas spécialement envie de me ranker.
- 2ième et 3ième et 4ième catégorie : des urls plus généralistes sur lesquels j'essaie de me positionner (celles qui m'apportent du trafic, mais trop peu à mon goût, là est le problème)
- 5 ième catégorie : des pages générées directement via mon moteur de recherche.
- 6ième catégorie : des pages générées par la pagination.

Ok c'est important d'avoir des pages à indexer, mais est-ce que vous ne pensez pas que cela ne sert à strictement rien d'avoir autant de pages crawlées par Google pour rien ? Dans le sens où la majorité de ces pages ne pourront être ranker.
Selon moi, googleBot perd du temps à crawler des pages qui n'en n'ont pas d'intérêt. Et au contraire il ne passe pas assez de temps sur les pages qui devraient être intéressantes.

Ma question est donc la suivante (c'est bon j'y arrive...) est-ce que cela vous semble cohérent que je mette des pages qui n'apporte pas de trafic de google et les pages sur lesquels je ne veux pas ranker en noindex, follow ?
Si je le fais, peut-être que je devrais le faire étape par étape pour éviter d'envoyer un mauvais signal à Google.

Mon idée serait la suivante, étape par étape :
1ere étape :
Mettre en noindex, follow les pages "petites annonces" qui expirent quoiqu'il arrive. Puis attendre pour voir comment réagit google, est si la fréquence du crawl sur mes autres pages augmentent.
2ième étape :
Laisser en index, follow la première page générée par le moteur de recherche et par les pages en catégorie 2, 3 et 4, puis mettre la pagination en canonical (même si on m'avait dis qu'il pouvait y avoir quelque problème en faisant ça)
A la rigueur je pourrai scinder la deuxième étape par type de catégorie de page également.

Qu'en pensez-vous ? Je vous avouerai que je suis un peu novice dans l'analyse des logs, mais cela me semble tout à fait indispensable avec un site avec une telle volumétrie.

Merci pour vos réponses.
 
WRInaute occasionnel
Hello,

Je ne suis pas un pro en la matière...
Mais pour moi, si une page n'a aucune valeur ajouté, c'est qu'elle est de trop.
Si elle vu par google mais ne reçoit pas de trafic, ça peut être tout simplement un problème de référencement.
Ta page peu être tout au fond des serps GG.

Sans avoir accès à ton site, je pense que pour ton cas, il faut aller beaucoup plus loin que les logs avant de faire le ménage de printemps.
Analyse pour une page non visité : la concurrence, sa position...
Et comprend pourquoi ta page n'est pas visité alors que d'autre site, oui par exemple...
Tu pourras mettre l'accent sur des problèmes d'arbo, maillage interne, structurel...
 
Nouveau WRInaute
Merci pour ta réponse. Cela confirme un peu ce que je pensais. Je suis d'accord avec toi, avant de me lancer dans le ménage de printemps il faut d'abord analyser le reste. Mais c'est ce que j'avais déjà fait.
Je vais continuer à chercher.
Je vous tiendrai au courant si il y a des avancées.
 
Discussions similaires
Haut