Site e-commerce : facettes / pagination ?

WRInaute discret
Bonjour,

Je gère un site e-commerce, dans la mode pour femme (hyper concurrentiel, mais bon).
Le site était vide pendant 6 mois.
Puis depuis 3 mois on a mis en ligne 20 pages de catégories et sous-catégories bien rédigées + dizaines de produits. Et de nouveaux produits sont ajoutés chaque jour.

Le trafic naturel stagne complètement, très peu de croissance depuis 3 mois.

Un problème possible : les pages de catégorie proposent des filtres d'affichage (nombre de produits affichés) qui sont mal gérés : l'URL avec le paramètre de filtre est également indexé.
/robe-soiree.html?limit=21
/robe-soiree.html

Le même contenu est donc dupliqué sur ces pages. Je pense que le site est pénalisé pour ça, chaque page de catégorie est présente au mieux en double...
Je trouve 181 pages dans l'index primaire de Google, et 825 au total. Est-ce qu'un écart aussi grand est corrélé à un site à problèmes ?
 
Olivier Duffez (admin)
Membre du personnel
contrairement à ce que tu indiques dans le titre de cette discussion, il ne semble pas s'agir de facettes ni de pagination
tu ne devrais tout simplement pas proposer à l'internaute de choisir le nb d'éléments affichés par page.
et si tu veux vraiment le garder, désindexe puis bloque les URL avec ?limit
 
WRInaute discret
Pardon, je pensais que c'était de la recherche à facettes (et j'étais parti sur la pagination à la base, ça a été plus clair en l'écrivant).

Comment est-ce que je désindexe les URL avec ?limit ?

Je ne peux pas placer de balise meta robots sur /robe-soiree.html?limit=21 sans la placer sur /robe-soiree.html , si ?
 
WRInaute accro
Pour ce type de page (filtres de type limit, order, view, etc...), j'opterais pour un rel="canonical", plutôt que du noindex ;)
 
Olivier Duffez (admin)
Membre du personnel
la canonique n'est pas prévue pour ça (le contenu n'est pas identique)
le mieux est de désindexer (balise meta robots noindex) puis quand c'est fait, de bloquer au crawl
 
Discussions similaires
Haut