Tout savoir sur le filtre Duplicate Content de Google

Olivier Duffez (admin)
Membre du personnel
Le sujet étant de plus en plus au coeur des pb constatés par les WRInautes et tous ceux qui s'intéressent au référencement, j'ai décidé de constituer un dossier entièrement consacré au filtre de Google sur le duplicate content.

Bonne lecture et merci encore aux 5 participants !
J'espère que mon dossier vous plaira et vous sera utile...

Olivier
 
WRInaute passionné
Merci Olivier,

après un premier coup d'œil, je sens qu'on va en renvoyer du monde sur ce dossier qui semble on ne peut plus clair :)
 
WRInaute passionné
Cette analyse va servir de référence.
Les incompréhensions sur le sujet découlent souvent du fait que le paramètre a évolué dans le temps.
Auparavant, c'était largement plus pénalisant puisque c'est maintenant plutôt une "non pondération" à la place d'une pénalité de laquelle il était compliqué de sortir.
Malgré les progrès de Google à propos du Dup, il reste tout de même un point épineux qui concerne la popularité des pages. Il est toujours possible de piquer du contenu et mieux se positionner que la page d'origine si la page "voleuse" est plus populaire.
 
Olivier Duffez (admin)
Membre du personnel
thickparasite a dit:
Auparavant, c'était largement plus pénalisant puisque c'est maintenant plutôt une "non pondération" à la place d'une pénalité de laquelle il était compliqué de sortir.

je pense qu'il y en a un paquet qui vont témoigner que c'est pas tout à fait ça :!:
disons que le résultat du filtre peut être -90% de trafic Google...

Je précise que j'essaierai de compléter le dossier avec les éléments que j'ai peut-être oubliés.
Enfin, que me conseillez-vous pour éviter qu'on me copie cet article (comme la plupart de mes articles) ? ce serait dommage qu'il génère des contenus dupliqués :roll:
 
WRInaute passionné
Excellent 'tutoriel' et très bon choix d'y avoir adjoint plusieurs participants.

J'ai trouvé ça très intéressant de pouvoir avoir des visions différentes sur ce thème.
D'ailleurs, les réponses des participants aux questions ne se rejoignent pas souvent :)

J'ajouterai que le "filtre" peut parfois être appliqué de manière plus faible (de l'ordre de 75% de baisse de trafic organique par exemple)

Pour la demande de ré-examen, je rejoins les avis sur le fait que cela n'est pas adapté à ce cas de figure.

Merci aux participants !
 
WRInaute passionné
bravo Olivier ! Ca, c'est du dossier !

Le problème du Contenu dupliqué me préoccupe depuis longtemps, d'autant que dans le cas de mes sites, une partie non négligeable des contenus n'est pas ma propriété et se retrouve de ce fait sur tous les sites de cinéma (synopsis, images, vidéos ...)

En ce qui concerne le contenu texte, en particulier le synopsis des films, celui-ci est plus ou moins imposé par le distributeur (synopsis officiel, qui parfois change dans le temps, comme peut changer l'office officielle ou la bande annonce officielle etc ...)

Allez sur un site cinéma, copiez le synopsis d'un film dans la barre de recherche de google et vous serais impressionné par le nombre de résultats.Malgré tout, de nombreuses pages contenant ce synopsis officiel ressortent sur une recherche sur le titre du film (j'ai vérifié certaine requêtes et je trouve jusqu'à 90% des 50 premiers résultats avec ce même synopsis)

Il ne semble donc pas que ces pages soient "filtrés/pénalisées".Peut-être tout simplement parce que le synopsis ne représente qu'une faible partie du contenu texte des pages, peut-être aussi parce que google n'applique pas la même échelle de "pénalisation" selon les thématiques.

Un exemple pour illustrer cette dernière hypothèse concerne les manuels des commandes linux. Tapez "man ls" par exemple dans google et vous verrez que la majorité des résultats sont des pages reprenant à l'identique et mot pour mot le résultat de la commande "man ls" de linux.

J'aimerais bien avoir vos avis la dessus :D
 
WRInaute passionné
WebRankInfo a dit:
je pense qu'il y en a un paquet qui vont témoigner que c'est pas tout à fait ça :!:
disons que le résultat du filtre peut être -90% de trafic Google...

C'est exact car il faut aussi parler du facteur temps. En l'occurrence, on peut même débattre sur l'éternité que Google met parfois à trier le Dup. Je pense notamment à l'application du rel="canonical" qui peut vraiment prendre longtemps... très longtemps avant de faire effet.
Bien souvent, les sites qui sont soi-disant pénalisés pour cause de Dup n'ont pas laissé le temps agir.
Évidemment, je ne parle pas des scrapers et autres tentatives de spam qui sont bel et bien pénalisés. Pour le commun des sites qui va avoir son contenu repris sous différentes URLs internes ou même ses articles repris ailleurs, je persiste dans la "non pondération" plutôt que pénalité à proprement parler.

Il y a aussi un autre sujet qui mérite d'être débattu. Cela concerne les recommandations de Google qui suggère de laisser crawler le Dup interne avant d'agir si jamais il ne s'en sort pas. Ils disent à la limite de mettre rel="canonical", mais pas de meta noindex ou blocage via robots.txt.
Pour ma part, je préfère largement prendre des précautions en amont.

Ah oui, un truc que je ne pense pas avoir lu dans l'article (ou alors j'ai pas vu/lu) concerne le fameux lien vers la source d'origine. C'est quand même le moyen le plus clean d'éviter un souci quand on reprend un texte déjà présent sur la Toile.
 
WRInaute accro
fandecine a dit:
Allez sur un site cinéma, copiez le synopsis d'un film dans la barre de recherche de google et vous serais impressionné par le nombre de résultats.Malgré tout, de nombreuses pages contenant ce synopsis officiel ressortent sur une recherche sur le titre du film (j'ai vérifié certaine requêtes et je trouve jusqu'à 90% des 50 premiers résultats avec ce même synopsis)
Cela rejoint ce que j'avais déjà dit, mais pas précisé à Olivier pour son dossier. Au dela d'un certain nombre de copies, Google ne pénalise plus via ce contenu car celui-ci est considéré, disons, comme citation et peut donc être pertinent. Testez par exemple les conditions d'utilisations pour Adsense que Google nous a fait rajouter sur nos sites. Vous verrez que le résultat est très surprenant, on trouve des centaines de pages dans la SERP avant le fameux encart de filtrage.

Il ne semble donc pas que ces pages soient "filtrés/pénalisées".Peut-être tout simplement parce que le synopsis ne représente qu'une faible partie du contenu texte des pages, peut-être aussi parce que google n'applique pas la même échelle de "pénalisation" selon les thématiques.
Il est vrai aussi et Google l'avait déjà dit que le contenu dupliqué même en totalité sur une page, mais venant de différentes sources peut-être pertinent. C'est une source d'info différente des autres, cependant, c'est encore très aléatoire cette partie et la gestion de celle-ci par la filtre. Nul doute que ça ira en s'améliorant.
 
WRInaute accro
thickparasite a dit:
Ah oui, un truc que je ne pense pas avoir lu dans l'article (ou alors j'ai pas vu/lu) concerne le fameux lien vers la source d'origine. C'est quand même le moyen le plus clean d'éviter un souci quand on reprend un texte déjà présent sur la Toile.
Ca rejoins une partie de ce que je disais sur le dossier. J'ai déjà eu le cas d'un site reprenant l'intro de mon article avec lien vers mon article et pour autant, c'est lui qui sortait sur les phrases dupliquées, mais aussi sur la requête visée. Bon ça commence à dater comme expérience, le filtre est peut-être réglé sur ce point depuis.

Qui test sur un site jeune de mettre son intro + lien sur Scoopeo par exemple pour voir qui ressortira sur Google ?
 
WRInaute passionné
Bonjour à tous et merci à Olivier de m'avoir fait participer.

Bravo pour ce dossier pour le moins consistant. A part les longues diatribes d'Ybet, j'avais rarement vu aussi conséquent ;-)

Ce dossier est d'autant plus utile que, comme le fait remarquer 5 legs, les avis des uns et des autres divergent parfois. Sans doute parce que les cas vécus sont différents, mais aussi parce que Google a sans doute fait évoluer les choses au fil du temps. Nos retours ne sont que des expériences personnelles.

En résumé, je rejoins toutefois L.Jee et Laurent, il est toujours possible pour un site ayant une certaine autorité de se positionner avant la source d'origine.
 
WRInaute occasionnel
excellent article olivier,
très détailler, je partage l'avis de sr..
le duplicate content à beaucoup évoluer au cours du temps donc nos expériences sont divers et les avis des conséquences d'une détection DC n'est pas la même..
merci ;)
 
WRInaute passionné
tiens! ça me rappelle qu'en 2008, lorsque j'avais pointé cette problématique,
Google serait donc dorénavant en mesure de détecter le duplicate content sur de petites parties de pages voire des petites parties de phrases (plutôt que d’effectuer l’analyse sur le contenu global d’une page). Il n’est donc plus possible de créer des pages “patchwork” reprenant un peu de contenu par ici, un peu de contenu par là et mélangeant le tout.
il y avait eu pas mal de ricanements (plus ou moins grinçants) ici et là:

- Google tue le mythe des pénalités pour duplicate content
- SEO + parano = pipo
- les futures pénalités de Google révélées
- mythe contenu dupliqué sur Google

heureusement certains avaient été moins prompts au démolissage.
 
WRInaute accro
carole heinz a dit:
tiens! ça me rappelle qu'en 2008, lorsque j'avais pointé cette problématique,
Google serait donc dorénavant en mesure de détecter le duplicate content sur de petites parties de pages voire des petites parties de phrases (plutôt que d’effectuer l’analyse sur le contenu global d’une page). Il n’est donc plus possible de créer des pages “patchwork” reprenant un peu de contenu par ici, un peu de contenu par là et mélangeant le tout.
il y avait eu pas mal de ricanements (plus ou moins grinçants) ici et là:

- Google tue le mythe des pénalités pour duplicate content
- SEO + parano = pipo
- les futures pénalités de Google révélées
- mythe contenu dupliqué sur Google

heureusement certains avaient été moins prompts au démolissage.
j'avais reçu en 2008 le même accueil que toi et encore pire quand j'ai lancé Costaud et que j'ai été le premier clairement à obliger les descriptions uniques et a refuser la moindre phrase copiée. J'ai eu nombre de messages sur ces topics ou beaucoup s'amusaient à me faire passer pour un con en disant que le duplicate n'était que le fruit de mon imagination et que Google n'en tenait pas compte. Quel plaisir de voir que deux ans après, que tous ces détracteurs sont les premiers à te mettre en garde contre le duplicate ou a avoir sorti des annuaires a description unique ou modifier leurs CGU (gagné :mrgreen:)...
 
WRInaute passionné
carole heinz et L.Jee, c'est promis ! Demain, à la messe je brûle un cierge géant en votre nom :mrgreen:
 
WRInaute passionné
@ Carole, L.Jee
Vous vous en sortez bien, quand on voit ce que s'est pris Galilée ;-)
 
WRInaute accro
Tu veux plutôt dire qu'il n'a pas été affirmé ici qu'il tournait autour de Google, non ? ;)
 
WRInaute accro
fandecine a dit:
Le problème du Contenu dupliqué me préoccupe depuis longtemps, d'autant que dans le cas de mes sites, une partie non négligeable des contenus n'est pas ma propriété et se retrouve de ce fait sur tous les sites de cinéma (synopsis, images, vidéos ...)
...

Allez sur un site cinéma, copiez le synopsis d'un film dans la barre de recherche de google et vous serais impressionné par le nombre de résultats.Malgré tout, de nombreuses pages contenant ce synopsis officiel ressortent sur une recherche sur le titre du film (j'ai vérifié certaine requêtes et je trouve jusqu'à 90% des 50 premiers résultats avec ce même synopsis)

Un exemple pour illustrer cette dernière hypothèse concerne les manuels des commandes linux. Tapez "man ls" par exemple dans google et vous verrez que la majorité des résultats sont des pages reprenant à l'identique et mot pour mot le résultat de la commande "man ls" de linux.
Fandecine, me rappelle d'un post ou tu m'a envoyé boulé sur le duplicate en citant ton site de cinéma (mais t'en veux pas et ma réponse n'est surement pas négative).

Excellent article d'Olivier mais deux "notions" sont à ajouter pour comprendre pourquoi un site se fait casser et pas un autre (ou même pourquoi un site descend un peu et l'autre se fait litéralement casser).

D'abord une certaine notion de confiance d'un site. Plus il est gros (pas forcément en visiteur d'aillieurs) plus il a la chance de casser les autres copieurs ou copiés (Il n'y a pas de réelle notion de la page au niveau date pour Google). La deuxième est lié à des thématiques spéciales qui sont moins touchées que d'autres. Un composant d'ordinateur a plus de pages le concernant que de nombre de pages de critiques d'un site: les sites informatiques ont plus de chance d'être vérifié que les sites d'annonces de film (c'est une théorie) mais qui semble se vérifier.

Reste l'ancienneté du site mais surtout de la page. Deux sites avec le même article depuis longtemps sur la même page ont peu de chance d'être sanctionnés. Par contre, là où le problème apparaît, c'est quand le vieux site fait des modifs (contenu de la page, structure). Souvent c'est là que ca casse, comme si GG revérifiait toutes les pages du site
.
sr a dit:
A part les longues diatribes d'Ybet, j'avais rarement vu aussi conséquent ;-)
.
Désolé je suis plutôt bavarre.

sr a dit:
Ce dossier est d'autant plus utile que, comme le fait remarquer 5 legs, les avis des uns et des autres divergent parfois. Sans doute parce que les cas vécus sont différents, mais aussi parce que Google a sans doute fait évoluer les choses au fil du temps. Nos retours ne sont que des expériences personnelles.
.
Quelques tests aussi mais comme j'ai répondu plus haut à Frandecine, d'autres critères entrent en compte, sans compter aussi des trucs plus ou moins connus qui défavorisent une page. On analyse le duplicate content mais un tas d'autres critères (anciens et nouveaux) interviennent. On a beau être des bêtes (dans les deux sens), on ne vérifie à fait que quelques critères, juste trouver qu'une modif de page la fait monter ou descendre. Google doit bien en utiliser une centaine avec des pondérations. La cause n'est pas perdue mais c'est impossibkle à gagner.
 
WRInaute impliqué
Il y a aussi le cas de duplicate content entre des pages d'un site web qui reproduit (avec l'accord de l'éditeur) le contenu (partiel) d'un livre qui se trouve ou, plus souvent, se trouve plus tard repris ds google books.

Si quelqu'un a des infos /liens à ce sujet, je suis intéressée, merci d'avance

.
 
WRInaute discret
Bravo, je retrouve la qualité d'une enquête à la SEOMOZ dans ce billet (En espérant que c'est une preuve de qualité pour vous). Vraiment super travail d'équipe.
 
WRInaute occasionnel
Si vraiment Google utilise le filtre de la manière qu'il est décrit sur l'article en question, et bien ça ne fait qu'éxacerber mon sentiment anti-google qui ne cesse d'augmenter depuis des mois.

Franchement, faudrait qu'ils arrêtent non?

Je veux dire, mon site par exemple contient une présentation de mes services et de moi même qui apparaît sur toutes les pages et tous les sous-domaines (chacun ciblé pour un pays différent) et en plus, les descriptions des services se ressemblent pas mal pour la simple et bonne raison que les services eux mêmes se ressemblent.

Je vais quand même pas m'emmerder à décrire chacun de mes services à coups de synonymes et de formules alambiquées juste pour faire plaisir à Google non? Et puis je trouve tout à fait légitime de me présenter à mes clients sur toutes les pages de mon site (vu que les gens ne tombent pas forcément sur la page de présentation). Sans parler des barres de navigations assez conséquantes qui doivent forcément apparaître sur toutes les pages.

Pour résumer, Google me gonfle.

Ah ça fait un bien fou de l'écrire :)
 
Olivier Duffez (admin)
Membre du personnel
Mais tes barres de navigation même conséquentes ne gênent pas je pense.
Pour ce qui est de ta présentation présente (dans la même langue si j'ai bien compris) sur plusieurs endroits du site, tu ne risques pas d'avoir le filtre qui te sanctionnes, tu risques "simplement" qu'une seule de ces descriptions sortent dans Google.

Enfin tant mieux si ça t'as fait du bien d'écrire ce post, parfois on en a besoin en effet !
 
WRInaute accro
WebRankInfo a dit:
tu risques "simplement" qu'une seule de ces descriptions sortent dans Google.

Enfin tant mieux si ça t'as fait du bien d'écrire ce post, parfois on en a besoin en effet !

là oui.

Par contre
WebRankInfo a dit:
Mais tes barres de navigation même conséquentes ne gênent pas je pense.

c'est oublier que GG fait parfois l'inverse entre la partie navigation (y compris les textes) et la partie contenu. Si la partie navigation est trop importante, ce qui arrive c'est que le moteur inverse contenu - navigation et là on tombe sur du duplicate interne.
Le duplicate content est une des causes de modification de positionnement (remarque que j'ai pas dit pénalité ou sanction mais bien modif de positionnement) depuis deux ans mais ce n'est pas la seule.

sleidia a dit:
Je vais quand même pas m'emmerder à décrire chacun de mes services à coups de synonymes et de formules alambiquées juste pour faire plaisir à Google non?

Je serais à ta place, j'essayerais même pas de le faire (parle référencement). En "bricolant" les textes, c'est souvent pire puisque là, il ne reprendra plus ces textes comme navigation mais bien comme contenu avec en plus ... une détection de synonymes. GG est très fort pour celà.
 
WRInaute accro
sleidia a dit:
Je vais quand même pas m'emmerder à décrire chacun de mes services à coups de synonymes et de formules alambiquées juste pour faire plaisir à Google non?
tu ne crois pas que l'internaute, s'il visite plusieurs de tes pages et qu'il retrouve, sur chacune, la même présentation de ton entreprise, ça risque de le fatiguer, même écrit à coup de synonymes
 
WRInaute occasionnel
Donc, faut croire que je suis condamné d'office!
J'ai testé avec http://www.webconfs.com/similar-page-checker.php et d'un sous domaine à un autre, j'ai 90% de similaritude.
Et pourtant j'essaie simplement de faire en sorte que mon site soit vu dans les pays cibles (ya pas d'autres manière que ça à ma connaissance).

Je ne fais pas de spamming et pourtant je risque gros semble-t-il.

Vous savez pas où on peut acheter des poupées vaudou à l'effigie de Google?? ;)
 
WRInaute accro
si les pays cibles sont dans des langues différentes, ça ne pose aucun problème
si c'est dans la même langue et le même contenu, pourquoi en faire plusieurs pages ?
 
WRInaute occasionnel
Leonick a dit:
sleidia a dit:
Je vais quand même pas m'emmerder à décrire chacun de mes services à coups de synonymes et de formules alambiquées juste pour faire plaisir à Google non?
tu ne crois pas que l'internaute, s'il visite plusieurs de tes pages et qu'il retrouve, sur chacune, la même présentation de ton entreprise, ça risque de le fatiguer, même écrit à coup de synonymes

La présentation en question doit faire au bas mot 100 mots et est casée dans deux encarts situés tout à droite de la page.
Et puis quand qqn l'a lu une fois, il ne va plus porter les yeux dessus une seconde fois par la suite. C'est juste une question de bon sens et de compréhension du mode de lecture de la majorité des gens. Le cerveau a le pouvoir d'ignorer ce qu'il a déjà vu auparavant alors autant en profiter pour se présenter dès la première page pour qqn qui tomberait d'office sur une page interne (vu que l'internaute est fainéant par définition et qu'il ne va donc pas forcément cliquer sur la page de présentation).

Le problème c'est surtout les descriptions des services.
Je vends de la création de sites internet avec une interface d'administration dédiée.
Or, pour chaque type de site proposé (contenu, e-commerce, immobilier, réservation hôtelière, etc), il y a une floppée de fonctionnalités similaires dans cette interface. Donc, forcément il y a de la répétition.

Bref, ça me gonfle que Google nous prive de nos choix éditoriaux même quand ils sont sensés.
J'en ai marre de cette dictature éditoriale. Il faut composer des sites comme Google veut et ce que Google veut ça ne me plait pas.

J'attends la mort de Google avec grande impatience si vous voulez savoir.
 
WRInaute occasionnel
Leonick a dit:
si les pays cibles sont dans des langues différentes, ça ne pose aucun problème
si c'est dans la même langue et le même contenu, pourquoi en faire plusieurs pages ?

Très simple : dans les pays ciblés spécifiquement, il y a le Canada, les USA, le Royaume Uni, l'Australie, Malte.
Bizarre mais (comme tu l'as justement fait remarqué) ils causent tous anglais :)

Or, avec un seul nom de domaine non ciblé géographiquement, Google s'obstine à le rendre invisible (ou très peu visible) en Australie par exemple.

Donc, Google m'oblige à créer un sous domaine australia.mondomaine.com lequel je cible géographiquement en australie via GWT et comme par hasard, j'ai tout de suite des australiens qui commencent à visiter mon site.

Les sous domaines me permettent aussi d'afficher directement les tarifs dans les devises concernées (ex: dollars australien pour l'asutralie). Ce qui est sympa pour les visiteurs qui n'ont pas à utiliser un menu déroulant ou je ne sais quoi d'autre pour sélectionner la devise.

Ils me permettent aussi d'afficher du contenu spécifique aux pays concernés (les 10% non similaires).
 
WRInaute passionné
Vois les choses d'une autre manière et ce sera sans doute plus facile à comprendre pour toi.
Tu peux aussi te souvenir des résultats de MSN il y a 6 ou 7 ans pour voir quels dégâts cela provoquait.

En gros, tu as 10 pages qui ont quasiment le même contenu.
Imagine que pour une requête, Google affiche tes 10 pages dans sa première page de SERP.
Bien sur, toi, tu serais satisfait ;-) Mais pense à l'internaute. Quel serait l'intérêt pour lui d'avoir ce type de résultats.

Le filtre existe entre autre pour cela, pour éviter de présenter 10 fois le même contenu aux internautes, que ce contenu soit sur un seul site ou sur plusieurs.

Maintenant, je comprends que cela soit casse pied pour toi de t'adapter à ce fait... Mais c'est comme cela.

Par ailleurs, si tu es le seul dans ton cas, tu devrais peut être prendre exemple sur tes concurrents mieux placés que toi dans GG, Yahoo, Bing, etc. Comment organisent-ils l'information sur leur site ? Et parmi ces sites, ne trouves tu pas certains d'entre eux plus agréables que le tien ?

C'est peut-être le moment de remettre en question tes apriori (moi, je le fais souvent et parfois, j'ai bien fait).
 
WRInaute occasionnel
sr a dit:
...
Le filtre existe entre autre pour cela, pour éviter de présenter 10 fois le même contenu aux internautes, que ce contenu soit sur un seul site ou sur plusieurs.
....

Bah si Google voulait vraiment bien faire les choses, il montrerait seulement un des sites sur la page de résultats au lieu de les désindexer/déranker tous bêtement.

sr a dit:
...
Par ailleurs, si tu es le seul dans ton cas, tu devrais peut être prendre exemple sur tes concurrents mieux placés que toi dans GG, Yahoo, Bing, etc. Comment organisent-ils l'information sur leur site ?....

Mes concurrents sont, comme la majeur partie des boites françaises, complètement franco-français. Ils se moquent de ne pas être visibles en australie ou dans je ne sais quel autre pays. Moi j'ai l'avantage de pouvoir communiquer aussi bien en français qu'en anglais et en japonais, alors autant me servir de cette faculté pour mon business tant qu'à faire.

sr a dit:
...
C'est peut-être le moment de remettre en question tes apriori (moi, je le fais souvent et parfois, j'ai bien fait).

Je me remets très souvent en question mais il faut ausi faire la différence entre "se remettre en question" et "courber l'échine en offrant le tube de vaseline" :)

Je suis conscient qu'on a pas forcément le choix, mais c'est pas une raison pour tout accepter non plus.
 
WRInaute discret
Ce problème de duplicate content est particulièrement délicat pour des sites comme le mien, qui sont obligés de publier des quatrièmes de couvertures de livres, qui sont forcément reprises telles quelles sur des centaines de sites.
Et je comprends bien le souci de Google de proposer un ensemble de liens pertinents, mais dans le cas de sites d'e-commerce, cela peut revenir à ne pas rendre le service attendu par l'utilisateur.
Un exemple: un internaute cherche à se procurer un livre d'occasion assez rare. Il a besoin de parcourir de nombreux sites pour espérer le trouver. Si Google limite ses résultats à quelques sites, l'internaute a peu de chances de trouver ce qu'il cherche.
Donc la question que je me pose c'est est-ce que Google est capable de faire la différence entre un site d'e-commerce et un site d'information ?
 
WRInaute passionné
celui qui cherche un livre rare ne va pas chercher en tapant une phrase de son contenu. il va plutôt rechercher "achat livre xxx". C'est donc sur ce genre de texte que tu as des chances de ressortir si tu as bien travaillé ton site et son ref.
 
WRInaute discret
Le gars qui va chercher par exemple "Stalker" des frères strougatski, va plutôt taper "stalker strougatski", enfin c'est ce que me dit analytics (plus de 90% des clics proviennent de recherches sur des noms d'auteur ou des titres de livres).
Si dans la fiche du livre en question j'ai la même quatrième de couv' que tout le monde et que ma page n'est pas indéxée par Google pour cause de duplicate, l'acheteur ne me trouvera jamais.
En l'occurence ça ne change pas grand chose vu que je suis en seconde page pour cette requête, et que de plus ce livre n'est plus disponible, mais bon, c'est un exemple.
 
WRInaute passionné
si la quatrième de couverture ne sert a rien pour ton ref mais te pénalise il faut peut-être l'enlever, la déplacer ou l'afficher en javascript.

Sinon je n'ai jamais vu d'info ni de test mais est-ce que mettre une citation entouré de <blockquote> ne permet pas d'indiquer a Google que c'est une citation et donc d'éviter les sanctions?
 
WRInaute discret
Ah ! Voilà quelque chose à creuser, l'influence des <blockquote>!
Par contre si j'enlève les quatrièmes de couv' pour faire plaisir à Google ça va fortement chagriner mes visiteurs et mes abonnés. C'est à eux qu'il faut penser avant tout, n'est-ce pas ? mais l'idée du javascript est également à creuser, en effet.
 
WRInaute accro
fandango a dit:
Si dans la fiche du livre en question j'ai la même quatrième de couv' que tout le monde et que ma page n'est pas indéxée par Google pour cause de duplicate, l'acheteur ne me trouvera jamais.
je pense qu'au niveau du duplicate gg ne fera pas sortir ton site s'il est duplicate sur une expression, mais uniquement pour l'expression dupliquée
pour le reste, ça devrait pouvoir ressortir
 
WRInaute accro
Et encore si l'expression est beaucoup reprise, comme c'est le cas avec une citation, de grandes chances que Google ne filtre rien du tout.
 
WRInaute discret
J'espère ! Pour l'instant ça va, j'ai 91.000 et quellques pages indéxées (bien que fort mal positionnées, quelles que soient les améliorations qu'on essaie d'apporter), mais il m'est arrivé de disparaître pendant deux ou trois jours complètement, j'avais signalé le phénomène ici et on m'avait tout de suite répondu : duplicate content.
 
Nouveau WRInaute
Merci pour toutes ces informations, je me suis régalée...
Bien que peu active sur le forum, je le consulte souvent, cet article sur le duplicate content de Google est on ne peut plus instructif, voici l'expérience cuisante du e-commerçant que je suis.
Nous avons effectué différentes modifications sur le site, toujours dans l'optique d'améliorer la navigation et le service aux clients.
Entre temps nous avons autorisé la diffusion de notre catalogue chez un "partenaire" en octobre.
En novembre nous totalisions sur le mois environ 75000 visiteurs uniques, en décembre nous sommes passés à 34000.
Comme nous avons entre autre changé de version de site, d'hébergement etc... nous n'avons pas cerné le problème tout de suite.
C'est en retrouvant une de nos images (sans watermark) sur un autre site que nous avons découvert l'étendue des dégats.
En effectuant des recherches plus approfondies nous avons découvert ceci (nous ne citerons aucun des protagonistes): notre catalogue est repris en totalité sur plusieurs market place, comparateurs de prix, plate-forme d'affiliations.
Ainsi nos titres de produits et la plupart de nos images mènent tout droit vers des sites parqués, des comparateurs de prix, des market place... Certains se servent de nos produits pour rediriger vers des sites ou nos produits ne sont même pas en vente, vous comprendrez l'intérêt de ces derniers quand vous verrez qu'ils sont affiliés de certaines plate formes d'affiliation, ainsi ils se positionnent devant nous, voire à notre place, occultant ainsi notre visibilité sur google.
Depuis trois semaines nous contactons chacun des protagonistes pour leur faire supprimer notre catalogue, certains le font rapidement, d'autres font l'impasse en nous répondant que "notre prétendu catalogue" leur a été transmis par x ou x plate-forme et nous demandent de prouver que ce catalogue est bien le nôtre.
Il vous suffit pour comprendre de copier-coller le nom d'un de nos produits sur google pour voir les résultats, la recherche sur google images est également édifiante.
Bien entendu vos conseils seront bienvenus.
A quand un poste sur les comparateurs de prix, et sur les market place?
 
WRInaute accro
lafeeperle a dit:
A quand un poste sur les comparateurs de prix, et sur les market place?
gg étant en train de travailler sur son propre comparateur de prix depuis plusieurs années, dès qu'il sera opérationnel, ça sera la fin des comparateurs n'apportant rien dans les SERP (du genre je prend un catalogue, je mixe avec les remarques récupérées sur ciao et consors et n'ayant aucun contenu propre). Et personnellement, en tant qu'internaute lambda, ça m'arrangerait bien
 
WRInaute accro
L'internaute Lambda, tant qu'il trouve le produit dont il a envie, il s'en fou de l'avoir trouvé sur une plateforme ayant pillé son cocncurent ou sur le super Comparateur Google ;)
 
Nouveau WRInaute
C'est un point de vue... défendable, pour peu qu'il reste quelques commerçants qui vendent ces produits, le jour ou tous auront fermé pour cause de cannibalisation, il ne restera comme dans le commerce "en dur" que quelques grandes surfaces ou tous les produits se ressemblent et que l'on peut trouver partout dans le monde.
Le "commerce de proximité" a péri comme çà, il en sera de même dans quelques années pour les "petits sites e-commerce".
Vaste débat...
 
WRInaute accro
les commerces de proximité existent toujours pour peu que tu prennes le temps d'y aller ;) Je fais pas mal de mes courses dans de petits commerces (faut bien faire vivre des gens qui se bougent plutôt que les supermarchés). D'un autre côté les moyens de transports se sont démultipliés, docn la proximité n'a plus forcément lieux d'être ;)
 
WRInaute accro
L.Jee a dit:
L'internaute Lambda, tant qu'il trouve le produit dont il a envie, il s'en fou de l'avoir trouvé sur une plateforme ayant pillé son concurrent ou sur le super Comparateur Google ;)
l'internaute lambda, quand il recherche des infos sur un produit et qu'il ne tombe que sur des comparateurs de prix ne lui donnant absolument pas les infos qu'il cherche il en a marre. Donc si gg pouvait faire le ménage et supprimer 90% des comparateurs qui n'apportent absolument rien à l'internaute, ça serait salutaire.
L'avantage du duplicate, c'est que dès le début on sait qu'on n'apprendra rien de plus et on peut quitter immédiatement le site alors qu'avec un contenu retravaillé mais dont l'information reste la même, ça n'apporte absolument rien à l'internaute.
 
Nouveau WRInaute
Disons que le probleme est un peu plus complexe...
Partant du principe que google favorise en priorité les sites plus anciens, plus populaires ou ayant un meilleur PR, alors le site d'origine "disparait" dans la masse, devient invisible et meurt... Allez expliquer à votre banquier que vous êtes cannibalisé par un ou plusieurs comparateurs ou market place, et vous aurez la surprise du faciès le plus bizarre de l'année... Déjà 3Dsecure a affaibli les petits sites e-commerce, la place aux comparateurs maintenant.
 
WRInaute passionné
il y aura toujours de la place pour le petit commerce qui apporte un service ou des produits différents. Quand je vois la queue qu'il y a chez les commerçants de qualité de mon quartier je ne suis pas inquiet pour leur survie.

Je remercie google de favoriser la diversité avec la suppression des contenus identiques : c'est pas parfait mais ca va dans le bon sens. Ca permet aussi de détecter des problèmes que l'on ne voyait pas forcément avant. C'est donc positif.

J'invite tous ceux qui ne l'ont pas fait à mettre en place des outils de contrôle pour détecter rapidement les copies de ses propres textes ou ceux qui sont trop similaires. Outre la détection des petits malin c'est un bon moyen pour se démarquer de la concurrence en optimisant ses textes.
 
Nouveau WRInaute
Merci pour ce très intéressant dossier.

Après sa lecture ainsi que d'autres discutions sur le forum, je me pose encore la question de savoir si la pratique que j'ai mise en place sur monescapade.fr peut paraître comme du duplicate content :
J'ai différentes pages/urls qui présentent un listing d'hébergements en fonction d'un critère géographique (ou autre mot clé / tag), exemple :
http://gites.monescapade.fr/gites-rhone-alpes
http://gites.monescapade.fr/gites-isere
http://gites.monescapade.fr/gites-venosc-c38534
http://gites.monescapade.fr/gites-parc-national-des-ecrins-t549

Le hic est que pour certains critères, notamment géographique comme région/département j'ai un listing sensiblement identique avec donc des pages à 50-60% identiques.

C'est une stratégie que l'on peut appliquer à n'importe quel catalogue de produits, de biens immobilier ou en encore d'article. A votre avis est ce qu'on peut recommander cette technique et si je l'applique pour augmenter ma long trail est ce que je met en danger le bon référencement du site ?
 
Nouveau WRInaute
Bonsoir à tous !

Après consultation de cet article et ayant suivi quelques liens, je me suis rendu compte qu'un certain annuaire dans lequel j'ai référencé l'un de mes sites propose ni plus ni moins que le texte de notre home ainsi que nos métas.
Quelqu'un d'entre vous est-il référencé sur cet annuaire : w*banthill.com ?
Quelles sont les réelles conséquences que cela peut engendrer ?
Opteriez-vous pour une desinscription dans ces conditions ?
Merci d'avance pour vos conseils avisés.
JP
 
Nouveau WRInaute
Je constate qu'il y a beaucoup de questions sur le sujet mais peu de réponses pertinentes, y aurait il un réel problème avec google? et avec annuaires et moteurs de recherche?
Certains sites utiliseraient ils des méthodes douteuses et qu'en pense google, et notre cher Olivier?
 
WRInaute accro
Première question : As-tu lu le dossier ? Car tout est dit dedans.
Seconde : Oui, lis le dossier tu verras ;)
Troisième : Google en pense qu'il n'aime pas et qu'ils pénalisent les sites aux méthodes douteuses quant il les trouve.
 
Nouveau WRInaute
Oui j'ai lu le dossier, fort intéressant d'ailleurs.
Ce qui me gêne c'est le manque de réponses aux questions posées dernièrement, mille excuses mais je ne suis pas "pro" du référencement, je paie quelques prestataires pour cela. Mais de là à payer Google, puis des market place qui par ailleurs se positionnent sur mes mots clés, puis sur mes méta, puis sur mes images et cannibalisent ma visibilité, je me demande jusqu'où cela peut aller? et si ces méthodes sont bien "correctes", quand à ce que google réagisse, encore faudrait il qu'il s'en aperçoive... puisque les petites boites ainsi perdent toute visibilité.
 
WRInaute accro
J'ai l'impression que tes question ne concernent pas vraiment le duplicate content car tu parles de techniques "interdites", de "payer" etc. Aucun rapport avec le duplicate content.
 
Nouveau WRInaute
En fait si puisque , suite à une forte chute de visites, donc de CA, je me suis rendue compte que tout mon catalogue était disponible (voir message plus haut) dans des comparateurs de prix, que mes articles, titres et descriptions menaient parfois sur notre site parfois vers d'autres sites.
Les market place et autres comparateurs de prix reprennent tous les textes et images, c'est bien du duplicate content non???
 
Nouveau WRInaute
WebRankInfo a dit:
Peux-tu reformuler les questions qui selon toi sont restées sans réponses ?
message précédent:
Merci pour toutes ces informations, je me suis régalée...
Bien que peu active sur le forum, je le consulte souvent, cet article sur le duplicate content de Google est on ne peut plus instructif, voici l'expérience cuisante du e-commerçant que je suis.
Nous avons effectué différentes modifications sur le site, toujours dans l'optique d'améliorer la navigation et le service aux clients.
Entre temps nous avons autorisé la diffusion de notre catalogue chez un "partenaire" en octobre.
En novembre nous totalisions sur le mois environ 75000 visiteurs uniques, en décembre nous sommes passés à 34000.
Comme nous avons entre autre changé de version de site, d'hébergement etc... nous n'avons pas cerné le problème tout de suite.
C'est en retrouvant une de nos images (sans watermark) sur un autre site que nous avons découvert l'étendue des dégâts.
En effectuant des recherches plus approfondies nous avons découvert ceci (nous ne citerons aucun des protagonistes): notre catalogue est repris en totalité sur plusieurs market place, comparateurs de prix, plate-forme d'affiliations.
Ainsi nos titres de produits et la plupart de nos images mènent tout droit vers des sites parqués, des comparateurs de prix, des market place... Certains se servent de nos produits pour rediriger vers des sites ou nos produits ne sont même pas en vente, vous comprendrez l'intérêt de ces derniers quand vous verrez qu'ils sont affiliés de certaines plate formes d'affiliation, ainsi ils se positionnent devant nous, voire à notre place, occultant ainsi notre visibilité sur google.
Depuis trois semaines nous contactons chacun des protagonistes pour leur faire supprimer notre catalogue, certains le font rapidement, d'autres font l'impasse en nous répondant que "notre prétendu catalogue" leur a été transmis par x ou x plate-forme et nous demandent de prouver que ce catalogue est bien le nôtre.
Il vous suffit pour comprendre de copier-coller le nom d'un de nos produits sur google pour voir les résultats, la recherche sur google images est également édifiante.
Bien entendu vos conseils seront bienvenus.
A quand un poste sur les comparateurs de prix, et sur les market place?

Voici mon premier message, et votre avis est important...
 
WRInaute accro
Oui c'est bien cela, je comprends mieux le soucis de ce fait. Mais je vois mal quoi te dire si ce n'est de ne pas utiliser ces comparateurs avant que ton site soit "reconnu" par Google... C'est un peu un dilemme là en fait pour les e-commerce. Soit tu fournis un contenu différents de celui de ton site, soit tu ne les utilises pas, soit tu ne comptes pas sur ces plateformes pour booster tes ventes pas facile. Il faut trouver le bon conpromis.
 
WRInaute accro
je ne sais pas si c'est lui qui s'est mis dans les comparateurs ou juste certains comparateurs qui ont trouvé du contenu à bon compte
 
WRInaute passionné
Ben quoi qu'il en soit ça devient dangereux cette histoire. Pour couler un concurrent, suffit de copier son contenu et tu lui fais déjà perdre des places...
 
Nouveau WRInaute
J'ai vite fait de contacter ces comparateurs et market place pour leur demander de supprimer notre catalogue, il reste certains, que je ne citerai pas mais taper - Perle larme tagua orange - dans google et vous verrez qu'il est positionné juste avant nous.
le sommet c'est ceci http://74.125.77.132/search?q=cache:ObegEhpVUsQJ:www.zoomici.fr/catalo ... fr&strip=1 , ils ont reçu un recommandé début Avril les priant de désactiver le catalogue et également ces sites (supprimer l'espace entre le. et le l de lesfees):
# http://www. lesfeescreatives.10e.be/
# http://www. lesfeescreatives.1ko.be/
# http://www. lesfeescreatives.9mag.com/
# http://www. lesfeescreatives.9map.com/
# http://www. lesfeescreatives.achat-pas-cher-par-internet.com/
# http://www. lesfeescreatives.monsiteinternet.net/
# http://www. lesfeescreatives.pt1m.com/
# http://www. lesfeescreatives.tf2.fr/
# http://www. lesfeescreatives.zoom-here.com/
# http://www. lesfeescreatives.zoom-ici.com/
# http://www. lesfeescreatives.zoomhere.com/
# http://www. lesfeescreatives.zoomici.com/
# http://www. lesfeescreatives.zoomici.info/
# http://www. lesfeescreatives.zoomici.org/
Alors est-ce toujours bien légal ces méthodes??? Je peux également vous envoyer en mp quelques copies d'écran édifiantes, car maintenant les traces commencent à disparaitre
 
Nouveau WRInaute
L.Jee a dit:
Oui c'est bien cela, je comprends mieux le soucis de ce fait. Mais je vois mal quoi te dire si ce n'est de ne pas utiliser ces comparateurs avant que ton site soit "reconnu" par Google... C'est un peu un dilemme là en fait pour les e-commerce. Soit tu fournis un contenu différents de celui de ton site, soit tu ne les utilises pas, soit tu ne comptes pas sur ces plateformes pour booster tes ventes pas facile. Il faut trouver le bon compromis.
Notre site e-commerce est actif depuis 5 ans, nous avons effectué effectivement des changements récemment notamment une mise à jour de la version du CRM, c'est tout, bien entendu le site évolue constamment pour offrir des nouveautés à nos clients, mais pas de modification majeure. Toutefois nous n'aurons jamais la notoriété d'une market place, on ne peut pas rivaliser avec des sites proposant 200 voire 300 000 articles et quelques dizaines de développeurs aux manettes.
 
Olivier Duffez (admin)
Membre du personnel
il est très difficile de répondre de manière précise, même pour un cas particulier, alors tu imagines d'aller faire des généralisations...
quelques conseils en vrac :
- mesurer combien ça coute d'être dans le marketplace/comparateur
- mesurer combien ça rapport d'être dans le marketplace/comparateur
- évaluer combien ça fait perdre de visibilité et même de trafic à cause des places qu'ils finissent par obtenir devant ton site dans Google avec ton contenu

déjà à ce niveau on doit pouvoir tirer des conclusions et agir en conséquence (continuer ou pas ce partenariat)

ensuite ça ne fait jamais de mal de fournir au marketplace/comparateur une version allégée de ton catalogue
 
Nouveau WRInaute
Merci pour cette réponse, mais concernant les noms de domaines, qu'en pensez-vous?
A t' on le droit de prendre le nom d'une société . son nom de domaine? ou trouver la réponse? cette pratique me semble inédite?
Qu'en pensez-vous? Pour le résultat la réponse est rapide... 6.23 euros de CA avec cette entreprise...
 
Olivier Duffez (admin)
Membre du personnel
concernant les noms de domaine, cela sort du cadre du référencement et c'est en effet une pratique tout à fait condamnable...
 
WRInaute accro
Firewave a dit:
Même reconnu par google tu dégages vite fait quand l'affilié a plus de beaucoup BLs que toi.
totalement faux .... C'est justement ce qu'on a cherché à comprendre l'année passée.
lafeeperle a dit:
Oui j'ai lu le dossier, fort intéressant d'ailleurs.
Ce qui me gêne c'est le manque de réponses aux questions posées dernièrement, mille excuses mais je ne suis pas "pro" du référencement, je paie quelques prestataires pour cela. Mais de là à payer Google, ...
Payer GG ne servira à rien, le duplicate n'est pas une forme de marketing mais une modif de l'algo ...

L.Jee a dit:
Première question : As-tu lu le dossier ? Car tout est dit dedans.
Seconde : Oui, lis le dossier tu verras ;)

J'ajouterais que L'Jee et quelques autres ont beaucoup bossés sur ces problèmes dpuis deux ans. L'article de WRI est intéressant et a le mérite de rassembler (via des réponses de webmasters qui ont bossé ou on été confronté sur justement ce problème) différentes réponses et questions. Mais tu peux lire aussi les différents résultats et tests qui ont été effectués les deux dernières années dans "tests et études des cas" https://www.webrankinfo.com/forum/f/tests-et-etudes-de-cas.2/
lafeeperle a dit:
En fait si puisque , suite à une forte chute de visites, donc de CA, je me suis rendue compte que tout mon catalogue était disponible (voir message plus haut) dans des comparateurs de prix, que mes articles, titres et descriptions menaient parfois sur notre site parfois vers d'autres sites.
Les market place et autres comparateurs de prix reprennent tous les textes et images, c'est bien du duplicate content non???
Oui. Beaucoup de petits sites se sont fait complètement cassés en mettant les même titre et description de leurs produits en les vendant aussi sur e-bay. Mais les comparateurs sont des cas à part qui se sont fait pour la plus part aussi cassés pour duplicate content (au même titre que les annuaires d'aillieurs).
Firewave a dit:
Ben quoi qu'il en soit ça devient dangereux cette histoire. Pour couler un concurrent, suffit de copier son contenu et tu lui fais déjà perdre des places...
On le répète depuis deux ans, c'est beaucoup plus complexe. Pour "couler" un concurrent, il faut un site de confiance (et plus le site est vieux avec des articles originaux plus il est en gros C'est ce qu'on reproche justement à cet algo, c'est qu'il y a pas de logique.
lafeeperle a dit:
Merci pour cette réponse, mais concernant les noms de domaines, qu'en pensez-vous?
A t' on le droit de prendre le nom d'une société . son nom de domaine? ou trouver la réponse? cette pratique me semble inédite?
Hors sujet, mais non.

lafeeperle a dit:
Nous avons effectué différentes modifications sur le site, toujours dans l'optique d'améliorer la navigation et le service aux clients.
Entre temps
Là aussi, la petite équipe a trouvé souvent ce problème ... Un vieux site copié de copié décide de changer quelque chose (genre le design, les liens de navigation, la structure, ...) et GG revient vérifier le site et le casse pour dupplicate (quand je dis que GG est n'importe quoi pour ce problème).
et pour terminer ...
WebRankInfo a dit:
il est très difficile de répondre de manière précise, même pour un cas particulier, alors tu imagines d'aller faire des généralisations...
C'est impossible tant ca différe d'une chose à l'autre, d'un site à l'autre (ou plutôt la thématique). Même en ayant bossé en équipe dans l'ombre des MP de WRI, on a jamais réussi à tout comprendre, juste un morceau de la carapasse (et encore) mais surement pas les problèmes de Google. Pour la question "casser un concurrent en duplicate", c'est possible ... (mais je vois déjà quelques tordus se réjouir) mais faut avoir les sites et des très gros se sont fait complètement cassés pour avoir essayé sans le faire exprêt.

[Je sais, je suis bavard], au moins, l'article (et le travail) d'Olivier a été de poser les questions intéressantes sur ce problème à des webmasters qui ont fait toute une série de tests (quelques uns sont encore en cours) et à d'autres qui ne sont pas forcément des sommités dans les journaux mais de sérieux référenceurs. Il doit être pris comme un super résumé mais pas comme les cas particuliers.
 
WRInaute accro
Casser ses concurrents avec du duplicate à part dans les concours SEO, je n'ai encore jamais vu ça. Preuve que Google n'est pas aussi idiot qu'on le pense. Ybet dit qu'il n'y a pas de logique, pour moi c'ets plutôt que nous ne sommes pas assez intelligents/tordus (rayer la mention inutile) pour la comprendre tout simplement.

Si quelqu'un (Firewave principalement) a un exemple d'un site cassé par un concurrent avec du duplicate, je veux bien le voir (en mp of course) car je n'y crois pas ;)
 
WRInaute passionné
A regarder du côté des affiliations par exemple. Certains n'ont pas fait attention en donnant leur catalogue et ils se retrouvent avec les affiliés devant eux et loin devant eux.

totalement faux .... C'est justement ce qu'on a cherché à comprendre l'année passée.

Et bien les choses ont changé depuis l'année passée.
 
Nouveau WRInaute
Leonick a dit:
je ne sais pas si c'est lui qui s'est mis dans les comparateurs ou juste certains comparateurs qui ont trouvé du contenu à bon compte
En fait c'est les deux... J'ai autorisé un site à diffuser mon catalogue, et je l'ai retrouvé quelques semaines plus tard sur toutes les plates formes et comparateurs. Certains comme Price Minister avec qui nous travaillons depuis plusieurs années redirigent bien effectivement vers notre site, d'autres (il faut savoir que sur la plupart des comparateurs les commerçants doivent payer au cpc ou en % sur les ventes pour apparaitre dans le haut de la liste) les commerçants qui sont en "gratuit" sont repris dans une liste (qui s'appelle NONAME) et leurs articles sont utilisés pour rediriger vers d'autres plate formes (que je ne citerai pas ici) ou les produits ne sont pas vendus. Dois-je vous rappeler que au passage l'affilié touche sa com sur les clics redirigés?
 
Nouveau WRInaute
ybet a dit:
Firewave a dit:
Même reconnu par google tu dégages vite fait quand l'affilié a plus de beaucoup BLs que toi.
totalement faux .... C'est justement ce qu'on a cherché à comprendre l'année passée.
lafeeperle a dit:
Oui j'ai lu le dossier, fort intéressant d'ailleurs.
Ce qui me gêne c'est le manque de réponses aux questions posées dernièrement, mille excuses mais je ne suis pas "pro" du référencement, je paie quelques prestataires pour cela. Mais de là à payer Google, ...
Payer GG ne servira à rien, le duplicate n'est pas une forme de marketing mais une modif de l'algo ...
Concernant la citation "payer google, il fallait lire jusqu'au bout, J'ai voulu dire: Je paie des adwords pour me positionner sur des mots clés intéressants pour le site, les comparateurs (sur nos mots clés) se positionnent également, comme ils ont plus de moyens, ils paient le clic beaucoup moins cher, et (avec les mots clés de notre catalogue) vont placer leurs annonces sur ces mêmes mots clés. Je paie également des prestataires en référencement naturel... et malgré tout comme les comparateurs et market place ont un pr plus important , ils se positionnent également AVANT nous sur nos articles.
A noter également le référencement des images hébergées sur ces comparateurs et market place.
Un produit dont l'image est hébergée chez eux (même si l'image provient de notre site) redirigera vers LEUR site.

L.Jee a dit:
Première question : As-tu lu le dossier ? Car tout est dit dedans.
Seconde : Oui, lis le dossier tu verras ;)

J'ajouterais que L'Jee et quelques autres ont beaucoup bossés sur ces problèmes dpuis deux ans. L'article de WRI est intéressant et a le mérite de rassembler (via des réponses de webmasters qui ont bossé ou on été confronté sur justement ce problème) différentes réponses et questions. Mais tu peux lire aussi les différents résultats et tests qui ont été effectués les deux dernières années dans "tests et études des cas" https://www.webrankinfo.com/forum/f/tests-et-etudes-de-cas.2/
lafeeperle a dit:
En fait si puisque , suite à une forte chute de visites, donc de CA, je me suis rendue compte que tout mon catalogue était disponible (voir message plus haut) dans des comparateurs de prix, que mes articles, titres et descriptions menaient parfois sur notre site parfois vers d'autres sites.
Les market place et autres comparateurs de prix reprennent tous les textes et images, c'est bien du duplicate content non???
Oui. Beaucoup de petits sites se sont fait complètement cassés en mettant les même titre et description de leurs produits en les vendant aussi sur e-bay. Mais les comparateurs sont des cas à part qui se sont fait pour la plus part aussi cassés pour duplicate content (au même titre que les annuaires d'aillieurs).
Ebay n'est qu'une "petite" partie visible de l'iceberg...
Firewave a dit:
Ben quoi qu'il en soit ça devient dangereux cette histoire. Pour couler un concurrent, suffit de copier son contenu et tu lui fais déjà perdre des places...
On le répète depuis deux ans, c'est beaucoup plus complexe. Pour "couler" un concurrent, il faut un site de confiance (et plus le site est vieux avec des articles originaux plus il est en gros C'est ce qu'on reproche justement à cet algo, c'est qu'il y a pas de logique.
lafeeperle a dit:
Merci pour cette réponse, mais concernant les noms de domaines, qu'en pensez-vous?
A t' on le droit de prendre le nom d'une société . son nom de domaine? ou trouver la réponse? cette pratique me semble inédite?
Hors sujet, mais non.
Ce n'est pas hors sujet, bien au contraire, voici un extrait des métas utilisées pour se positionner sur notre nom de domaine:
# achat par correspondance vente en ligne
# achat par internet vente en ligne
# acheter en ligne e-commerce
# acheter par internet vente en ligne
# commander en ligne vente en ligne
# fées créatives rochonvillers 57 france vente à domicile rochonvillers
# les fées créatives rochonvillers 57 france vente à domicile
# les fées créatives rochonvillers 57 france vente à domicile moselle
# les fées créatives rochonvillers 57 france vente à domicile perles
# les fées créatives rochonvillers 57 france vente à domicile zoomici
# ligne de les fées créatives rochonvillers 57 france
# loisirs les fées créatives rochonvillers 57 france vente à
# rochonvillers moselle entreprise les fées créatives rochonvillers 57 france vente
# rochonvillers moselle les fées créatives rochonvillers 57 france vente à
# vente ecommerce vente en ligne
# vente en ligne
# vente en ligne achat par internet
# vente par correspondance vente par internet
# vente par internet achat en ligne

lafeeperle a dit:
Nous avons effectué différentes modifications sur le site, toujours dans l'optique d'améliorer la navigation et le service aux clients.
Entre temps
Là aussi, la petite équipe a trouvé souvent ce problème ... Un vieux site copié de copié décide de changer quelque chose (genre le design, les liens de navigation, la structure, ...) et GG revient vérifier le site et le casse pour dupplicate (quand je dis que GG est n'importe quoi pour ce problème).
et pour terminer ...
WebRankInfo a dit:
il est très difficile de répondre de manière précise, même pour un cas particulier, alors tu imagines d'aller faire des généralisations...
Depuis un mois que j'ai découvert le probleme je peux vous garantir que nous sommes loin d'un cas "particulier"
C'est impossible tant ca différe d'une chose à l'autre, d'un site à l'autre (ou plutôt la thématique). Même en ayant bossé en équipe dans l'ombre des MP de WRI, on a jamais réussi à tout comprendre, juste un morceau de la carapasse (et encore) mais surement pas les problèmes de Google. Pour la question "casser un concurrent en duplicate", c'est possible ... (mais je vois déjà quelques tordus se réjouir) mais faut avoir les sites et des très gros se sont fait complètement cassés pour avoir essayé sans le faire exprêt.

[Je sais, je suis bavard], au moins, l'article (et le travail) d'Olivier a été de poser les questions intéressantes sur ce problème à des webmasters qui ont fait toute une série de tests (quelques uns sont encore en cours) et à d'autres qui ne sont pas forcément des sommités dans les journaux mais de sérieux référenceurs. Il doit être pris comme un super résumé mais pas comme les cas particuliers.
Google malheureusement ne fait pas de "cas particulier" il applique un algorithme, à mon sens dépassé par les événements et les petits malins qui vivent en essayant de contourner et en appliquant des méthodes douteuses via les failles du système.
 
WRInaute accro
Firewave a dit:
A regarder du côté des affiliations par exemple. Certains n'ont pas fait attention en donnant leur catalogue et ils se retrouvent avec les affiliés devant eux et loin devant eux.

totalement faux .... C'est justement ce qu'on a cherché à comprendre l'année passée.

Et bien les choses ont changé depuis l'année passée.
Non les choses n'ont pas changé, c'est uniquement un niveau de confiance des sites pour GG qui en fait passer un ou l'autre. Mais en plus il y a des bizaretés ... genre un petit nouveau site qui copie un ancien et le fait baisser pendant quelques semaines. Que ce soit un forum, un site de petites annonces, un comparateur ou un annuaire, il n'y a pas de logique définie (ou plutôt comme dit L'Jee nous ne sommes peut-être pas assez intelligent/tordus pour comprendre.

En cas de contenu dupliqué, c'est impossible de savoir à tout les coup lequel va passer et lequel va disparaître.
 
WRInaute accro
lafeeperle a dit:
Google malheureusement ne fait pas de "cas particulier" il applique un algorithme, à mon sens dépassé par les événements et les petits malins qui vivent en essayant de contourner et en appliquant des méthodes douteuses via les failles du système.
Je pense pas que tu analyse ce problème par le bon coté, tout le travail réalisé par une équipe de ce forum sur ces "sanctions" pendant deux ans n'a pas essayé de trouver une faille dans le système de Google mais bien d'essayer de comprendre pourquoi des sites propres se sont fait complètement cassés du jour au lendemain: des très gros mais aussi des moyens et des ... petits.
 
WRInaute passionné
Je suis d'accord avec toi sur le fait qu'on ne peut pas prédire à 100% ce qui va se passer. Mais dans l'absolu on connait des indicateurs qui appellent à un risque plus ou moins grand de DC pouvant entrainer une sanction du site le moins link.

Ce n'est pas question d'être intelligent ou tordu pour comprendre. Google n'est pas infaillible, alors là pas du tout sinon le métier de référenceur n'existerait pas.

Je pense que beaucoup ici surestiment les capacités d'analyse de google. Ce n'est qu'un script, puissant certes mais avec autant de failles que de personnes qui travaillent dessus. Le fait que le travail soit fait par tranche et par différentes personnes fait qu'il y a un gros risque qu'il y ait des incohérences voir tout simplement des bugs.

Google ne communiquant pas dessus on croit que Google fait ça exprès, or il est sûr que ce n'est pas du tout le cas. S'ils maitrisaient réellement tous les leviers du script ils seraient plus confiant niveau communication externe et ne feraient pas autant dans l'approximation. Après il est vrai qu'ils cherchent à cacher le fonctionnement précis du script pour éviter le détournement, mais ça ne veut pas dire qu'il fonctionne parfaitement. IL n'y a aucun programme parfait et je pense que google comporte autant si ce n'est plus de bugs que la moyenne des programmes. Sauf qu'on ne peut pas juger si c'est un bug ou pas vu qu'on n'a pas de visibilité.
 
Nouveau WRInaute
Mon but n'est pas de "casser" le travail de l'équipe, bien au contraire , car je vous lis très régulièrement, même si mon temps ne me permet pas d'y participer régulièrement.
Simplement les comparateurs de prix sont des sites "récents", beaucoup d'entre eux se positionnent comme des "instruments de comparaison neutres" c'est absolument faux, puisque certains dirigent effectivement vers de vrais commerçants (en haut de la page, ceux qui paient au clic, puis ceux qui paient au %) et enfin en bas de page ceux qui sont référencés gratuitement. Ensuite il y a la "notation" du commerçant, là également les catalogues au cpc ont une meilleure note que ceux en gratuit, même si la pertinence du gratuit est plus importante et même si le comparateur s'est positionné devant sur le mot clé. Il est possible également de rediriger l'internaute via le "délai de disponibilité" voire via le "délai de livraison" ou encore via "les frais de port".
Le pire c'est que la plupart des comparateurs ayant "pignon sur rue" ont signé avec la FEVAD et le gouvernement en place une Charte, et se sont engagés à mettre à jour leur base de données quotidiennement voire deux fois par jour, à cette heure je n'en ai trouvé que deux qui respectent cet engagement.
Jusqu'à présent peut être votre travail s'est concentré sur les annuaires, mais le mien est depuis 5 ans de vivre de ce site, et mes 35 h de sommeil hebdomadaire mises à part, tout mon temps est consacré à étudier (avec mes pauvres moyens car je ne suis pas référenceur) la position de mes concurrents versus celle de notre site.
Ce que je découvre depuis quelques semaines est tout bonnement hallucinant.
 
WRInaute passionné
Je pense également que les comparateurs de prix et les affiliations sont ceux qui sont le plus susceptibles d'être touchés. Certains affiliés essayant de couler le site mère pour devenir la porte exclusive de gains pour le site principal.
 
WRInaute accro
Firewave a dit:
Je pense également que les comparateurs de prix et les affiliations sont ceux qui sont le plus susceptibles d'être touchés. Certains affiliés essayant de couler le site mère pour devenir la porte exclusive de gains pour le site principal.
Ils n'essayent pas, ... comme les annaires, ils jouent au plus gros qui passe (ca marche ou pas selon les cas) sans réellement savoir qui est le plus gros. Leur technique n'est pas réellement basée sur du référencement, juste sur un nombre de pages important avec une bonne stratégie de liens internes (c'est aussi la méthode des gros sites de vente en ligne)
 
Nouveau WRInaute
Tout ceci est édifiant, mais quelle solution pour rattraper le coup?
Nous avons récupéré une partie de nos images, actuellement Résultats 1 à 21 sur un total d'environ 13 100 pour Perle site:www.lesfeescreatives.com contre 99 il y a un mois, mais pour le positionnement sur les pages de recherche , il est très difficile de remonter. Avez-vous une solution?
 
WRInaute accro
Firewave a dit:
Créer un maximum de Backlinks partout ou changer le contenu.
Fireware, d'abord chapeau pour le nombre de posts en si peu de temps. (mauque les smyleys avec le sourire de remerciement)

Mais pour la réponse .... tout faux. Te conseille de jeter un coup d'oeil sur les posts des sanctions dans tests et études des cas, tu va retouver comme par hasard ceux qui répondent ici mais d'autres aussi.

1. On ne casse pas du duplicate avec des liens (juste le PR qui revient mis pas de positionnement). Sinon, je copie n'importe quel site et j'envois en maximum de liens pour faire passer ma copie et faire couler l'autre (même si je connais au moins deux site collaboratifs qui permettent probablment de casser n'importe quel site standard plus ou moins gros).
2. Si j'ai beaucoup travailler sur ces "sanctions", c'est aussi parce que j'étais touché ... des copieurs marocains pour la plus part mais surtout trois site ou j'avais simplement remis à la sauce le même cntenu. En mai 2009, le vieux site plus mis à jour depuis des années a cassé les deux "gros" en quelques semaines. Pas besoin d'utilise copyscape pour changer les similitudes, ca marche pas (pour avoir passer des soirées entières à modifier mes pages).

> Lafeeperle

D'abord, on sait pas pourquoi une page qui copie passe (ou non) devant une originale (ce qui a fait dire à l'Jee qu'on était pas assez tordu pour comprendre). Dans ton cas, tu a été copié (et pas l'inverse). Ne change rien (je sais,c'est débile mais en modifiant les textes, GG va revenir faire un tour et te mettre réellement comme copieur, ce qui sera pire).
Le truc est juste d'essayer de faire monter le site en confiance pour GG, pas avec des paquets de liens qui pointnt dessus mais juste quelques liens intéressants vers quelques pages internes (et pas forcément des pages essentielles)

Est-ce qu'on peux connaître l'adresse de ton site?
 
WRInaute passionné
J'ai lu les analyses que vous avez faites et je ne partage pas les conclusions. Pour moi ça reste des cas particuliers et dans l'absolu ce que je vois moi ce sont des sites qui copient et qui link comme des fous après une période de probation pour passer devant l'original et à chaque fois ça marche.

Après peut-être que tu as raison et que sur la durée on récupère sa place. Mais pour un site de e-commerce on ne peut pas se payer le luxe de rester au fond, même pas un peu. Ca coûte de l'argent, on perd du stock. Et il vaut mieux dans ce cas de figure rajouter/modifier du contenu et/ou rajouter des BLs sur les pages internes pour leur donner plus de poids que celles des copieurs.
 
WRInaute passionné
Je n'ai fait aucun test, mais ça me semble logique pour notre ami GG que BL vers un site = vote de confiance...
Mais je fais confiance aux pros :D :D
 
WRInaute accro
A

Olivier a positionné le problème, on va voire maitenant ce qui a déjà été testé, par moi et par d'autres (certains ont déjà répondus mais en deux ans, j'ai aussi beaucoup échangé de MP avec des gros et de petits webmasters de WRI et autres pour essayer de trouver des solutions quand ca vous tombe dessus, qui ont marché ou non d'aillieurs). Je reprend aussi ce qui a été fait en tests (quelques pages qui réagissent sur une requête farfelue n'ont jamais été une réelle base en référencement, juste une idée de direction).
PS: désolé sir Firewave croit que j'ai juste analysé des cas particuliers mais les tests sont fait sur des vrais sites plus ou moins sanctionnés (j'ai jamais supporté les labo de biologies en humanités, disséquer une souris "morte" pour voire des espèces de maladies du rein à 15 ans n'a jamais fait un médecin de 15 ans). Pour retrouvé tous les posts, c'est impossible (faudrait Madrileno en 4X). Mais pas non plus tout confondre, il y a deux ans, GG a nettement modifié son algo, pour le duplicate mais aussi d'autres problèmes (genre les liens répétitifs à outrance, ce qui est le cas de la feeperle (communiqu"é en MP).

1. [tests] Le coup des liens, on l'a essayé avec trois pages sur mon site principal ybet.be. Le première dupliquée envoyait des liens vers les deux autres sur une requête farfelue. E-kiwi avait envoyé un lien vers une des deux pages barrée et ... le PR (à l'époque) était passé de cassé à 0 mais la, page restait invisible (à peine sur résultats complémentaires. Pas un petit site, un d'actualité si je me souvient ... plutôt de confiance.
2. [+/- tests]. Un site qui n'existe plus reprenait une phrase standard pour les dupliqués dans les annuaires. Par essais, j'ai repris dans le café de WRI cette phrase reprise dans plusieurs descriptifs de site (c'était en partie un annuaire). Celui qui s'est encore plus écrasé est le site original. QUAND JE PARLE DE SITE DE CONFIANCE, c'est pas pour le plaisir de mettre de mots ...
3. [réel] Pour les annuaires, ceux qui ressortent avecles recherches entre "" pour des descriptions dupliquées sont quasiment toujours les mêmes (à peine une dizaineà) et ... tous les autres ont sauté . L'Jee a aussi montré dans ses posts que la modif pouvait cassé un site (pas que les annuaires): https://www.webrankinfo.com/forum/duplicate-content-peut-couter-tres-cher-t ... 21831.html et https://www.webrankinfo.com/forum/sortir-une-penalite-pour-duplicate-conten ... 24141.html (comment il a sorti un annuaire de la panade).
4. Copyscape (puisqu'il est cité par Olivier). Quelques posts au dessus, j'ai mentionné 3 sites. Le premier -http://www.users.skynet.be/ybet fait mùaitenant 200 VU par jours mais il a 10-11 ans même s'il n'est plus mis à jours. Pourtant, il a cassé ybet.be (dans les 8000) qui a 6-7 ans sur des chapitres complets et materiel-informatique.be (+5 ans) sur des pages complètes. J'ai essayé en deux ans de modifier les phrases (genre conjugaison, synonymes, ....) ca bougeait pas réellement jusqu'au moment ou en avril - mai, les deux "nouveaux se sont fait cassés sur des parties entières. J'ai essayé les redirections 301 dans le header (la seule solution dans l'hébergement du FAI) pendant deux mois et ... n'importe quoi. <Finalement, j'ai remis les pages, supprimé titre et description avec un gros lien vers ybet.be. C'est seulmement là que GG a ressorti les pages cassées des deux autres sites.
5. Les copieurs. Je laisse facilement à distance tous les sites gratuits qui copient sans discuter mes notes (y compris adresses drirectes vers mes images. Pour les images, j'ai essayé deux directions. La première est de modifier l'adresse sur mes sites et de remplacer celle qui apparaît sur l'autre site un truc genre une image reprenant un texte "je suis un sale copie* eur du si*te ...) .Ca n'a pas déclassé le copieur. J'ai éssayé aussi le coup du commentaire dans les images avec l'adresse du site. Non seulement GG n'en n'a pas tenu compte pour les copieurs mais à même (il me semble) déclassé mes propres pages. Au passage, un farceur africain met en ligne toutes les pages pârlant de réseau (les unes à la suite de l'autres) d'un dictionnaire informatique (mater...). Et c'est le site original qui casse (Demandé de les enlevé, ce qu'il a fait avant de mettre en ligne à la suite de l'autre les pdf d'ybet qui a cassé l'autre - c'est quand quon a le droit aux smyleys) . Bon, j'ai bricolé sur le serveur et perdu 70 visuiteurs de la côte d'Ivoire bloqués par Apache). Mais reste ce site et un autre ... Contacté les administrateurs (américains) et comme lafeeperle, pas réellement de tenter un procès (en plus là c'est aux Etats Unis). Devinez la réponse de GG (puisque le deuième est son brol de partage d'information), pour une action en justice (avant de commencer), comptez 10.000 € (sans commentaires pour GG, ca me donne déjà une idée de sa "gestion du duplicate"). Comme mentionné plus haut, oublir copyscape (j'ai longtemps essayé), l'algo de GG est nettment au-dessus.

Je sais, je suis bavard et négatif (du mois sur WRI). Ca c'est pour les points négatifs. Maitenant, qu'elles sont les pistes qui ont "marché". Un gros annuaire est sorti il ya deux ans sans ... rien faire. (Génial mais c'est un cas à part).
1.les annuaires qui ont modifé les descriptions de quasiment tous les sites sont passés aussi (le témoignage de L'Jee mais aussi la nouvelle m"éthode d'inscription d'Hawkeyes).
2. les sites de vente en ligne (les petits) se sont fait cassés par E-bay, webmar* et autres en mettant les mêmes descriptions le plus souvent. Dans l'hiver, toujours par MP, j'en ai "sauvé deux" qui ont simplement supprimé quelques annonces mauis surtout complètement modifé le titre et la description sur ces sites. Au passage, pour un site d'agence immobilière, les directives sont quaré&ment de créer un nouveau titre et des cription, d'une part sur le site et pour tous les autres (sites d'annonces) une autre ... qu'ils se battent entre eux sur GG n'est pas mon problème mais le réel site est protégé
3.(c'est pas ma direction mais elle a été testé par d'autres et semble marché le plus souvent), la page a été renommée et le contenu complètement modifié (sans rediection de l'ancienne).
4. Une citation. Pour le premier article des pénalités, je m'étais arrangé pour que les pages de mes articles soient vconnus avant de mettre les conclusions sur WRI. Celle qui est le mieux passé est -http://www.ybet.be/news-fiche.php?numero=6 reprenant une citation du boss de WRI mais pas dans le texte, clairement au niveau html. Pour avoir analysé d'autres sanctions (le duplicate est une partie), ne mettez pas le lien en plein texte mais bien délimité dans le code html (la page est maintenant celle qui sort).
5. J'ai pas à revenir sur les liens "copains", ...https://www.webrankinfo.com/forum/t/les-liens-aident-ils-au-referencement.117678/ (on évite de mettre des liens pour les liens, c'est un test en cours mais c'est juste les lien - GG n'analyse pas le serveur, le webmaster via le compte GG, le compte adsense, ..... J'avoue, on a tout essayé et comme dis par je sais plus qui l'année dernière "j'adore comment ybet joue avec GG" mais je joue pas, les tests de moi comme d'autre sont fait sur des sites qui tournent ou devraient tourner). Au passage, trop de liens "copains" entre deux sites tue les deux mais sans, le nouveau décole pas.

Reste les idées pour corriger les dégâts (je parle pour des sites standards). Un vieux site copié n'a aucun risque tant qu'il ne modifie .... rien (pas même la structure de liens), dès qu'il modifie quelque chose (y compris le simple header), le robot vient faire un tour et c'est lui (l'origianl) qui tombe. (je sais c'est fdébit mais c'est comme celà).
Copié pâr un autre site, là ca commence mal. La première chose est de contacter le webmaster gentiment pour lui demander de l'enlever. Si c'est un hébergement gratuit (du moins en France et en Belgique), pas de réponse, directement l'hébergeur (ce sont eux qui virent qurément le site. Si c'est un site avec nom de domaine, généralement, le type sait pas vos preuves et va pas trop discuter non plus sauf .... Ben là, les sauvegardes par huissier (j'ycrois guère) mais le commentaire dans les images est ausi une solution (pas pouyr GG comme mentionné plus haut). Le contenu duplicate doit disparaître. Pas les moyens juridiques ou financiens pour faire supprimé la page copiée .... On ne modifie pas sa page! (au passage on ne met pas de liens externes dessus pour des petits sites). Le résultat est pire pour GG, la modif le fait revenir et retrouve des restes de structures identiques (ce qui vous envoit comme copieur et ... contrefaçon pour l'algo). L'algo réagit comme si c'était vous le copieur .... et c'est l'entièreté du site qui descend. La seule réelle solution est de passé en confiance pour GG, quelques liens (j'ai dis quelques) vers des pages NON SANCTIONNEES, et pas genre acheté ou de forums ou d'annuaires qui permettent plusieurs liens vers les pages internes (je parle de costaud.net puisque j'ai aussi essayé - je casse pas son superbe annuaire, juste je donne quasiment toutes les pistes qui ont été testées -).

En gros, il n'y a pas de potion magique pour le duplicate (pour en sorir), des "bonnes pistes" testées par un bonne trentaine de webmasters sur (on va dire) une petite 200 sites (pour les liens vers les sites et pages, on a beaucoup bossés, avec des sites surement pas liés par les webmasters, tous des sites existants depuis pas mal de temps, des techniques qui semblent propres pour GG).

MAIS
1. vente en ligne, les titres et descriptions doivent être différents entre VOTRE site et ceux des annonces (on laisse les loups d'Internet se dévorer entre eux)
2. Annuaire, à moins d'être TRES gros, pas de description copiées
3. Pour les sites standards, des phrases à vous .... Un truc m'a étonné sur mon site principal, toutes les news sont cassées sauf -http://www.ybet.be/news-fiche.php?numero=27 (ca change des annonces standards informatiques habituelles). J'ai aussi pensé que des GG boys (ou girls) lisaient les pages mais c'est quasiment impossible, GG est un simple programme. Tout ce qui a l'air original au niveau construction de page, vocabulaire passe. (Si un webmaster linguite peut essayer de mettre une page qui a l'air d'être du français mais réellement incompréhensible pour un francophone .. je suis sur qu'elle passera).

Attention, la structure de navigation peut aussi cassé un site en duplicate (le site de lafeperle est de ceux là mais je pense avoir déjà analysé son site avec un autre pseudo), tous les problèles de "pénalités" ne sont pas que le duplicate content.

Tiens pour une fois, je signe un post
Patrick, ybet
 
Nouveau WRInaute
Très utile ce dossier ainsi que ce nouveau filtre.

Moi ce qui me faire peur dans ce filtre quand même, c'est la possibilité qu'il supprime le site éditeur du contenu original en premier.

Enfin bon, faut faire confiance au algo Google :)
 
Nouveau WRInaute
Bonjour,

En feuilletant WRI, je tombe sur cet article qui m'a attiré fortement l'attention. Je suis bien novice mais me permets qd même la question.

Dans le site que je suis en train de réaliser, chaque page reprends une petite phrase explicative sur l'orthographe d'un mot qui est un de mes mots clés principaux. L'idée était de bien référencer les 3 versions du mot clé.
"La Cœlioscopie s’écrit parfois célioscopie ou coelioscopie, mais on se réfère à la même technique Urologique."

Il y a-t-il un risque de Duplicate ?

Merci d'avance
 
Nouveau WRInaute
webneime a dit:
Très utile ce dossier ainsi que ce nouveau filtre.

Moi ce qui me faire peur dans ce filtre quand même, c'est la possibilité qu'il supprime le site éditeur du contenu original en premier.

Enfin bon, faut faire confiance au algo Google :)

Pour un annuaire, un site de "texte" ce n'est peut être pas dramatique, maintenant un catalogue de 1000 références, repris 20 fois sur 20 sites comparateurs ou 20 market place , au milieu de 500 000 autres références, c'est forcément le "petit site" qui disparait, puisque c'est 100% de ses textes qui sont dupliqués... Les gros sites eux sont protégés puisque 100% de leur catalogue ne peut pas être repris.... l'algorithme de google est faussé dans ce cas. De plus Google en cas de multiples résultats ne propose que 2 ou 3 pages, si le visiteur ne va pas au delà de la première page ( et vous savez comme moi que c'est le cas de 95 % des personnes qui font des recherches) c'est foutu, alors combien d'après vous vont aller cliquer sur le bas de la 3ème page pour trouver un article?
 
WRInaute accro
lafeeperle a dit:
Pour un annuaire, un site de "texte" ce n'est peut être pas dramatique
Je sais chacun défend sé chapelle mais une petite idée pour les dégats chez eux aussi -http://www.ybet.be/news-fiche.php?numero=3 dans les graphiques, (descendre eun dessous ), on parle bien de 200.000 visiteurs par jours

lafeeperle a dit:
maintenant un catalogue de 1000 références, repris 20 fois sur 20 sites comparateurs ou 20 market place , au milieu de 500 000 autres références, c'est forcément le "petit site" qui disparait
Oui et non, d'abord, à chaque chngement de site (structure, contenu, lien, .... le robot refait un tour et reteste pour le duplicate (sinon il ne resterait pas beaucoup de sites sur Internet pour GG). (J'avoue avour communiqué avec leffeperle mais aussi avec fireweave par MP) C'est une des raison de ton déclassement , "aidé" par la nouvelle structure de ta versio de site (justement, je donne des formations webmaster et c'est ce qui a été donné ce soir, ... la structure des sites en fonction des liens).


lafeeperle a dit:
Les gros sites eux sont protégés puisque 100% de leur catalogue ne peut pas être repris....

Te rassure, à part quelques uns qui sont juste avantagés (et encore), aucun site n'est protégé (à part youtube racheté par GG et wikipedia [mauvaise langue o]nprobablement que GG espère le racheter [mauvaise langue off]).
Le positionnemen,t est un algorytme mathématique, c'est pas des avantages pour un ou pour l'autre. Les chou chous de GG, c'est une espèce de myte.

Dans ton cas, te suggère de poster sur ton site des demandes d'explications dans https://www.webrankinfo.com/forum/f/referencement-google.1/ en metionnant l'adresse de ton site , d'autres donneront aussi des explications pour ton site, ses problèmes et d"éfauts mais aussi ce qui doit être modifié.
 
Nouveau WRInaute
ybet a dit:
lafeeperle a dit:
Pour un annuaire, un site de "texte" ce n'est peut être pas dramatique
Je sais chacun défend sa chapelle mais une petite idée pour les dégâts chez eux aussi -http://www.ybet.be/news-fiche.php?numero=3 dans les graphiques, (descendre en dessous ), on parle bien de 200.000 visiteurs par jours
Réponse, je dirais plutôt chacun est dans le même bateau, ce que je voulais dire c'est, mais encore une fois je ne suis pas spécialiste et ce forum à pour raison d'exister l'entraide des webmasters, qu'il y a peu de chance qu'un annuaire soit copié ou repris à 100%, mais peut-être est-ce que je me trompe.
lafeeperle a dit:
maintenant un catalogue de 1000 références, repris 20 fois sur 20 sites comparateurs ou 20 market place , au milieu de 500 000 autres références, c'est forcément le "petit site" qui disparait.
Oui et non, d'abord, à chaque changement de site (structure, contenu, lien, .... le robot refait un tour et reteste pour le duplicate (sinon il ne resterait pas beaucoup de sites sur Internet pour GG). (J'avoue avoir communiqué avec lafeeperle mais aussi avec fireweave par MP) C'est une des raison de ton déclassement , "aidé" par la nouvelle structure de ta version de site (justement, je donne des formations webmaster et c'est ce qui a été donné ce soir, ... la structure des sites en fonction des liens).
J'ai bien compris cette info et je vais m'appliquer à suivre ces bons conseils, et je t'en remercie "publiquement"

lafeeperle a dit:
Les gros sites eux sont protégés puisque 100% de leur catalogue ne peut pas être repris....
Ce que j'ai voulu dire c'est qu'il est plus difficile de reprendre 100 % d'un catalogue de 500 000 références (genre La redoute ou la Fnac), qui plus est est mis à jour et modifié quotidiennement par une équipe de professionnels. Ils sont effectivement "protégés" du risque que leur contenu soit considéré comme du duplicate.

Te rassure, à part quelques uns qui sont juste avantagés (et encore), aucun site n'est protégé (à part youtube racheté par GG et wikipedia [mauvaise langue o]probablement que GG espère le racheter [mauvaise langue off]).
Le positionnement est un algorithme mathématique, c'est pas des avantages pour un ou pour l'autre. Les chou chous de GG, c'est une espèce de mythe.
C'est également ce que je pense, mais un algorithme, c'est simplement "bête et méchant", d'où l'intérêt de cette conversation, comprendre pourquoi et comment Google considère le DC, en l'occurrence: Eviter de transmettre son catalogue a des "pseudo revendeurs" qui revendent tout, y compris des visites (adsense, affiliations et tutti quanti), et multiplient ainsi le risque de voir leur site "pure player" (car un commerçant "brick and mortage" ne court pas ce risque) "blacklisté ou déclassé" par google qui va retrouver 100% de votre contenu au milieu de 10% (plus ou moins) de contenu de dizaines de sites ayant "pignon sur rue", vous savez ceux parmi les "plus importants en France", les mêmes qui avec des programmes automatiques se positionnent sur VOS mots clés dans Adwords...mais je ne donnerai pas de noms, non non

Dans ton cas, te suggère de poster sur ton site des demandes d'explications dans https://www.webrankinfo.com/forum/f/referencement-google.1/ en mentionnant l'adresse de ton site , d'autres donneront aussi des explications pour ton site, ses problèmes et défauts mais aussi ce qui doit être modifié.
J'avais déjà posté il y a quelques temps, obtenu quelques réponses, mais bien peu par rapport à maintenant. Pour le référencement, comme cité précédemment, je suis passée par une agence, puis une seconde agence, puis maintenant une troisième depuis peu, nous verrons ce qu'il en est dans quelques temps, si "DIEU" (alias GG) prête vie à notre petite boutique
Je vais de ce pas visiter les autres posts du forum que tu me conseille: https://www.webrankinfo.com/forum/f/referencement-google.1/ , peut être pourrais-je y trouver des infos, voir aider quelques personnes. Merci encore pour ces réponses et l'intérêt que çà soulève.
 
Discussions similaires
Haut