WRInaute accro
Je poste dans cette catégorie bien qu'il ne s'agit pas d'un test mais je pense que c'est bel et bien une étude de cas.
Je vous explique un peu mon problème ...
Cela concerne le référencement d'une galerie photo. La galerie est organisée en albums et chaque album peut contenir des sous-albums.
Je pense avoir deux problèmes de duplicate content qui sont dus au fonctionnement de la galerie :
1 : une photo peut appartenir à deux albums ou même plus ==> même contenu avec deux url différentes et très peu de choses qui changent entre les deux pages
(exemple d'url : ../photos/photographie.php?photo=264&album=49)
2 : chaque page de photo présente des liens aléatoires (sous forme de vignette cliquable) vers 4 autres photos. Mais étant donné que certaines photos peuvent appartenir à plusieurs albums, afin de ne pas privilégier ses photos par rapport aux autres, les liens sont faits sans préciser de notion d'album
(exemple d'url : ../photos/photographie.php?photo=264)
Vous voyez le problème ?
Une solution radicale serait de n'autoriser une photo que dans un et un seul album et j'aurai alors bijection page-photo, mais pour compliquer un peu les choses ce n'est pas l'option que j'ai choisie.
Le problème qui me pose le plus soucis est le deuxieme cas car le premier est relativement rare.
Déjà une première fois fin 2006 google s'est mis à me supprimer une à une de son index toutes mes pages photo. Je le vois en effectuant la recherche suivante :
site:monsite..../photos/photographie.php
Je suis tombé à moins de 10% de pages photographie indexées.
PREMIERE ACTION :
J'ai alors fait des modifications pour que sur les pages appelées avec le paramètre "album=" et celles appelées sans le paramètre, le titre et la description soient différents.
J'ai aussi modifié l'affichage de mon menu :
- dans un cas les liens vers les sous-menus sont masqués à l'affichage mais restent des liens
- dans l'autre cas les liens masqués sont simplement transformés en texte
Cette technique me permet en plus de renforcer les liens vers mes sous catégories . Par exemple quand je suis dans le sous-album "chiens" la page comportera uniquement les liens vers les catégories principales et vers les sous-albums de la catégorie "animaux" mais je n'aurai pas directement des liens vers les sous-catégories de la catégorie "paysages". Ca permet d'avoir une structuration au niveau des liens au lieu d'avoir toujours la même centaine de liens sur chaque page.
Très bien.... ça a fonctionné et google s'est remis à m'indexer mes pages.
Mais 6 mois plus tard ça recommence à nouveau et je perd une à une toutes mes pages "photographie"
SECONDE ACTION :
J'ajoute une seconde description qui ne s'affiche que sur les pages appelées directement sans notion d'album. Mais très peu sont renseignées pour l'instant.
Je fais aussi en sorte d'afficher des infos différentes sur cette page : un texte avec des liens qui revient sur toutes les pages et qui n'est pas présent dans l'autre cas.
Ca semble suffire et google me réindexe mes pages.
Mais 6 mois plus tard ça recommence à nouveau et je perd une à une toutes mes pages "photographie"
TROISIEME ACTION :
- J'ajoute dans un cas des citations aléatoire (une dizaine différentes pour l'instant) qui ne s'afficheront que sur un type de page et pas l'autre.
- Je modifie plus profondément les descriptions des deux types de pages
J'en suis presque sur le point d'utiliser des techniques interdites (texte caché bourré de mots clés qui ne sera pas visible par les internautes) pour arriver à faire comprendre à google que ces deux pages sont bel et bien différentes.
Enfin, oui, c'est vrai, elles ne sont pas si différentes que ça, je l'admet, mais google pourrait au moins m'en référencer une des deux. Sur Yahoo.com j'ai 3343 pages photographie.php d'indexées, ça représente 77% des pages. Chez GG je suis tombé en dessous des 17% alors qu'il y a encore deux mois j'en avais plus de 2000 (et moins de 700 aujourd'hui).
Je pense que depuis quelques semaines google est beaucoup plus restrictif dans sa détection de duplicate content et qu'il ne s'intéresse plus simplement à l'ensemble de la page et aux similarités qu'il peut y avoir entre les mots présents et leurs densité mais qu'il est capable de détecter un duplicate content dans le contenu et même dans les phrases exactes. Par exemple si une série de 20 mots sont strictement identiques et dans le même ordre entre deux pages d'un même site (et que ça ne revient pas sur toutes les pages donc que ça fait bien partie du contenu et non du décors), il ne référence aucune des deux en guise de pénalité. Si c'est entre deux sites différents il conserve le plus ancien des deux.
Je dirais que google est capable maintenant de détecter le "copié-collé" et donc le plagiat.
Est-ce que vos analyses vont aussi dans ce sens ?
Alors mes questions :
1) Est-ce vraiment un problème de duplicate content ou bien ça peut venir de tout autre chose ? Notamment je suis resté deux mois sans faire énormément de mises à jours, par contre les albums ont progressés ou stagné dans les SERP, il n'y a que les pages photo qui disparaissent.
2) Est-ce que mes méthodes pour chercher à éviter les duplicate-content sont considérées maintenant comme illicites par google qui pense que je cherche à tricher ?
3) Quelles solutions proposez-vous pour résoudre mon problème d'indexation de mes pages ? Mon site est avant tout basé sur la galerie et si elle n'est plus indéxée il n'y a plus aucun intérêt.
Une piste : j'ai peut-être trop ajouté d'albums et le menu devient prépondérant par rapport au contenu. Il faudrait que je rédige des descriptions plus longues dans ce cas. Mais alors pourquoi seules mes pages "photographie" sont affectées ? Je n'ai pas noté de désindexation pour d'autres pages qui ne sont pas en duplicate. Seule ma page "partenaires" a été sucrée car elle contenait une dizaine de bannières 468x60
Pour l'instant je continue dans mes actions pour faire en sorte que mes pages soient le plus différentes possibles. Je ne vois rien d'autre. :cry:
Je vous explique un peu mon problème ...
Cela concerne le référencement d'une galerie photo. La galerie est organisée en albums et chaque album peut contenir des sous-albums.
Je pense avoir deux problèmes de duplicate content qui sont dus au fonctionnement de la galerie :
1 : une photo peut appartenir à deux albums ou même plus ==> même contenu avec deux url différentes et très peu de choses qui changent entre les deux pages
(exemple d'url : ../photos/photographie.php?photo=264&album=49)
2 : chaque page de photo présente des liens aléatoires (sous forme de vignette cliquable) vers 4 autres photos. Mais étant donné que certaines photos peuvent appartenir à plusieurs albums, afin de ne pas privilégier ses photos par rapport aux autres, les liens sont faits sans préciser de notion d'album
(exemple d'url : ../photos/photographie.php?photo=264)
Vous voyez le problème ?
Une solution radicale serait de n'autoriser une photo que dans un et un seul album et j'aurai alors bijection page-photo, mais pour compliquer un peu les choses ce n'est pas l'option que j'ai choisie.
Le problème qui me pose le plus soucis est le deuxieme cas car le premier est relativement rare.
Déjà une première fois fin 2006 google s'est mis à me supprimer une à une de son index toutes mes pages photo. Je le vois en effectuant la recherche suivante :
site:monsite..../photos/photographie.php
Je suis tombé à moins de 10% de pages photographie indexées.
PREMIERE ACTION :
J'ai alors fait des modifications pour que sur les pages appelées avec le paramètre "album=" et celles appelées sans le paramètre, le titre et la description soient différents.
J'ai aussi modifié l'affichage de mon menu :
- dans un cas les liens vers les sous-menus sont masqués à l'affichage mais restent des liens
- dans l'autre cas les liens masqués sont simplement transformés en texte
Cette technique me permet en plus de renforcer les liens vers mes sous catégories . Par exemple quand je suis dans le sous-album "chiens" la page comportera uniquement les liens vers les catégories principales et vers les sous-albums de la catégorie "animaux" mais je n'aurai pas directement des liens vers les sous-catégories de la catégorie "paysages". Ca permet d'avoir une structuration au niveau des liens au lieu d'avoir toujours la même centaine de liens sur chaque page.
Très bien.... ça a fonctionné et google s'est remis à m'indexer mes pages.
Mais 6 mois plus tard ça recommence à nouveau et je perd une à une toutes mes pages "photographie"
SECONDE ACTION :
J'ajoute une seconde description qui ne s'affiche que sur les pages appelées directement sans notion d'album. Mais très peu sont renseignées pour l'instant.
Je fais aussi en sorte d'afficher des infos différentes sur cette page : un texte avec des liens qui revient sur toutes les pages et qui n'est pas présent dans l'autre cas.
Ca semble suffire et google me réindexe mes pages.
Mais 6 mois plus tard ça recommence à nouveau et je perd une à une toutes mes pages "photographie"
TROISIEME ACTION :
- J'ajoute dans un cas des citations aléatoire (une dizaine différentes pour l'instant) qui ne s'afficheront que sur un type de page et pas l'autre.
- Je modifie plus profondément les descriptions des deux types de pages
J'en suis presque sur le point d'utiliser des techniques interdites (texte caché bourré de mots clés qui ne sera pas visible par les internautes) pour arriver à faire comprendre à google que ces deux pages sont bel et bien différentes.
Enfin, oui, c'est vrai, elles ne sont pas si différentes que ça, je l'admet, mais google pourrait au moins m'en référencer une des deux. Sur Yahoo.com j'ai 3343 pages photographie.php d'indexées, ça représente 77% des pages. Chez GG je suis tombé en dessous des 17% alors qu'il y a encore deux mois j'en avais plus de 2000 (et moins de 700 aujourd'hui).
Je pense que depuis quelques semaines google est beaucoup plus restrictif dans sa détection de duplicate content et qu'il ne s'intéresse plus simplement à l'ensemble de la page et aux similarités qu'il peut y avoir entre les mots présents et leurs densité mais qu'il est capable de détecter un duplicate content dans le contenu et même dans les phrases exactes. Par exemple si une série de 20 mots sont strictement identiques et dans le même ordre entre deux pages d'un même site (et que ça ne revient pas sur toutes les pages donc que ça fait bien partie du contenu et non du décors), il ne référence aucune des deux en guise de pénalité. Si c'est entre deux sites différents il conserve le plus ancien des deux.
Je dirais que google est capable maintenant de détecter le "copié-collé" et donc le plagiat.
Est-ce que vos analyses vont aussi dans ce sens ?
Alors mes questions :
1) Est-ce vraiment un problème de duplicate content ou bien ça peut venir de tout autre chose ? Notamment je suis resté deux mois sans faire énormément de mises à jours, par contre les albums ont progressés ou stagné dans les SERP, il n'y a que les pages photo qui disparaissent.
2) Est-ce que mes méthodes pour chercher à éviter les duplicate-content sont considérées maintenant comme illicites par google qui pense que je cherche à tricher ?
3) Quelles solutions proposez-vous pour résoudre mon problème d'indexation de mes pages ? Mon site est avant tout basé sur la galerie et si elle n'est plus indéxée il n'y a plus aucun intérêt.
Une piste : j'ai peut-être trop ajouté d'albums et le menu devient prépondérant par rapport au contenu. Il faudrait que je rédige des descriptions plus longues dans ce cas. Mais alors pourquoi seules mes pages "photographie" sont affectées ? Je n'ai pas noté de désindexation pour d'autres pages qui ne sont pas en duplicate. Seule ma page "partenaires" a été sucrée car elle contenait une dizaine de bannières 468x60
Pour l'instant je continue dans mes actions pour faire en sorte que mes pages soient le plus différentes possibles. Je ne vois rien d'autre. :cry: