Messages: 155

Enregistré le: 5 Aoû 2013

Message le Mer Juin 18, 2014 17:21

Bonjour,

Je gère un site e-commerce, dans la mode pour femme (hyper concurrentiel, mais bon).
Le site était vide pendant 6 mois.
Puis depuis 3 mois on a mis en ligne 20 pages de catégories et sous-catégories bien rédigées + dizaines de produits. Et de nouveaux produits sont ajoutés chaque jour.

Le trafic naturel stagne complètement, très peu de croissance depuis 3 mois.

Un problème possible : les pages de catégorie proposent des filtres d'affichage (nombre de produits affichés) qui sont mal gérés : l'URL avec le paramètre de filtre est également indexé.
/robe-soiree.html?limit=21
/robe-soiree.html

Le même contenu est donc dupliqué sur ces pages. Je pense que le site est pénalisé pour ça, chaque page de catégorie est présente au mieux en double...
Je trouve 181 pages dans l'index primaire de Google, et 825 au total. Est-ce qu'un écart aussi grand est corrélé à un site à problèmes ?
Haut
4 Réponses
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Jeu Juin 19, 2014 9:28

contrairement à ce que tu indiques dans le titre de cette discussion, il ne semble pas s'agir de facettes ni de pagination
tu ne devrais tout simplement pas proposer à l'internaute de choisir le nb d'éléments affichés par page.
et si tu veux vraiment le garder, désindexe puis bloque les URL avec ?limit
Haut
Messages: 155

Enregistré le: 5 Aoû 2013

Message le Jeu Juin 19, 2014 10:14

Pardon, je pensais que c'était de la recherche à facettes (et j'étais parti sur la pagination à la base, ça a été plus clair en l'écrivant).

Comment est-ce que je désindexe les URL avec ?limit ?

Je ne peux pas placer de balise meta robots sur /robe-soiree.html?limit=21 sans la placer sur /robe-soiree.html , si ?
Haut
Messages: 18187

Enregistré le: 23 Fév 2004

Message le Jeu Juin 19, 2014 10:20

Pour ce type de page (filtres de type limit, order, view, etc...), j'opterais pour un rel="canonical", plutôt que du noindex ;)
Haut
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Jeu Juin 19, 2014 10:51

la canonique n'est pas prévue pour ça (le contenu n'est pas identique)
le mieux est de désindexer (balise meta robots noindex) puis quand c'est fait, de bloquer au crawl
Haut