Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Sep 29, 2008 12:39

kmenslow a écrit:ICI . Cette rubrique voyage est passé d'un PR 3 à un PR grisé.


me méfierais quand même du duplicate aussi http://www.google.be/search?hl=fr&rlz=1 ... 9%22&meta=

(entre autre), la suite n'est pas prise en compte par Google pour la détection.
Haut
Messages: 49

Enregistré le: 15 Juin 2004

Message le Lun Sep 29, 2008 12:44

Bah justement je n'aime pas jouer au con avec google... j'ai simplement fait un échange de liens avec deux sites...
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Oct 01, 2008 21:52

Dernière ligne droite

D'abord, j'avoue avoir longtemps hésité à mettre cette partie, deuxièmement, merci aux webmasters qui ont participé, troisièmement, si je faisais confiance dans l'équipe de Google pour sa pertinence, ... j'en doute de plus en plus. Les conclusions sont pas pas franchement géniale pour tous. J'en dirais assez mais pas trop. Désolé aussi si je serais moins présent sur WRI dans les prochaines semaines, ... les sites que j'ai analysé m'ont un peu cassé le moral, et j'ai maintenant quelques coups de mains à donner.

Cette partie prend les corrections, ce qui a marché bien, ce qui a marché pas trop mal et ce qui a pas trop fonctionné.
On a même pensé que les résultats d'AOL utilisant les résultats épurés de Google donnait des indications, des tests de % de mots, des trucs plus ou moins débiles où un ardennais essayais de son coté aussi des solutions farfelues (mais les différents déclassements liés aux petites manies des webmasters, quoique finalement logique dans l'esprit d'un moteur de recherche, sont tout aussi farfelues).
Dans cette série, il y a eut quatre équipes qui ont participé. D'abord mes potes (j'avoue surtout 1) plus mes propres déductions, deuxièmement la partie "comprendre", en troisième les idées "comment corriger" et en dernier des autres ... Cette fois, ce posts va aussi les remercier, un juste retour de leur aide.

Les méthodes que je vais donner ici sont mitigées, souvent ca passe, mais pas chaque fois. Je vais juste donner des pistes.

Avant de débuter, quelques notions nouvelles.
1. les groupes de sites.
2. les sites jugés de confiance
3. les liens et corrections.

Je vais commencer par les groupes de sites. Le Whois, certains pense que Google (Registar) les utilise. Je le pense aussi, mais la technique est nettement plus statistiques. GG ne voit pas un webmaster mais des groupes de sites qui ont une petite tendance à se faire des liens amicaux (donc pas forcément naturels). J'envois un lien d'un site vers un autre de mes site, normal, ... par contre, pour les tests de sanctions: NIET. On le sait déjà depuis des mois avec Blogger mais on avait un peu forcé la dose il y a deux ans pour un concours :? J'en ais tenu compte dans les tests et visiblement, GG regroupe les webmasters en fonction des liens entre sites: directe, échange, croisés, ... Deux groupes de sites pas liés, ca passe. Ca va peut-être changé les donnes complètement, si pas maintenant, du moins dans les mois qui viennent (et le référencement, c'est aussi prévoire).
Les sites Jugés de confiance, j'ai gentillement joué avec Google, lui soumettant des pages clairement duplicate. Le but de départ était de mettre une page avec du texte duplicate (pas un peu en plus, tant qu'à faire :wink: ) entre des sites de gabarits différents. J'en ai utilisé 7 ou 8 pour le principal. D'abord l'original (les annonces refusées de darut.eu, l'original avec un mois d'avance), WRI (le tests sur le forum), mon WWW, un autre petit des miens plus quelques autres petits aussi que les webmasters ont accepté d'essayer (vite supprimés pour ne pas mettre en péril leur site, 10 visiteurs par jours, ca semble humoristique peut-être mais des sites commerciaux genre location de vacance, c'est suffisant).
En dernier, le but était de voire si quelques liens externes (pas du même groupe de webmaster) permettait de revenir (sans modifications) en PR et ... en recherches.

Les tests. Les parties principales sont (pour le moment) sur la page de mon WWW. Comme les déclassements commencent aussi à apparaître, elle reseront plus longtemps :?
1. Dans les liens, il y a vers un autre de mes site OEM (donc 2 sites liés). J'ai juste un peu corrigé le contenu (sans forcer, dirait même sans réellement forcer). Dernière modif de la page en elle même 19/09, mis en lien le 15. La nouvelle version est connue de GG depuis quasiment 15 jours. PR grisé mais ca faut du temps, mais toujours pas reprise dans les recherches. Déjà une indication sans corriger, pas de modif. Un liens "copain" avec de toutes petites modifs, pas de résultats non plus.
2. le duplicate Sur Darut.eu, largement sanctionné pour la nouvelle version de positionnement, une annonce détectée comme .... IP fausse recoit le texte


Désolé, mais notre système de localisation a détecté que le pays de celui qui a déposé l'annonce ne correspond pas à celle mentionnée dans l'annonce. Cette offre peut être une tentative d'extorsion.

Cette annonce a été modérée par Darut.eu


Jusque là ... mais ca rappelle le post sur WRI
http://forum.webrankinfo.com/permis-obligatoire-pour-aller-sur-internet-faudra-pens-t99280.html

:lol: mais non je l'avais pas fait exprêt :cry: :P . Au départ, le site qui reprend le massage reste dans les recherches et WRI deviens premier deux jours (avec ou sans les "") On es le 11 /09. 3 jours plus tards, WRI en Duplicate disparaît des recherches puis revient deux jours plus tard (jusque là, je m'y attendait, d'autres pages suivaient le même chemin depuis des années) ... et pourtant, WRI revient. En même temps, le 15 je démarre cette page http://www.ybet.be/1a.htm
Un seul lien de ma page d'accueil (aucun copain ou autres):
. un petit texte avec ancun duplicate
. un lien vers ertzvb (du titre et contenu)
. le duplicate
. un lien vers une nouvelle page ertzvc

Mon idée est de vérifier si le premier lien (avant le duplicate) est suivi et l'autre ... non. Début des hostillités, le 15, Google connait la page A, mon WWW et reprend les deux sur ertzva (en plus il propose la correction orthographique ertz - j'ai choisi la difficultée). Deux jours et la page disparaît sur ertzva. Le 23, envoit d'un lien d'HervéG (on n'a normalement aucun liens de nos sites). Le lien est connu, même si pas dans le cache le 25. et ... la page ertzva réapparaît + en troisième la page d'hervé.
Génial un lien externe, pas de relations entre les sites fonctionne...
Si je peut tirer un conclusions sur cette partie, un seul lien d'un webmaster qui n'envoit pas des liens normalement vers une page d'un groupe de webmaster connu par GG fait passer la page (je sais, c'est une petite reqête). Merci aussi à http://www.webrankinfo.com/forums/profi ... le&u=72581 le lien est juste venu plus tard :wink:
Reste les deux pages suivantes, ertzvb et ertzvc (les liens sur la page duplivate :wink: ).

Inconnu depuis le début (page A connue), le petit lien de HervéG et ... les pages B et C arrivent dans les recherches
http://www.google.be/search?sourceid=na ... 2&q=ertzvb Le cache date de 10 jours précédament, ce farceur de Google et ses dates de cache fausse. Il connait les pages internes, il les oublie juste. Un petit lien EXTERNE et la page duplicate passe .

Déjà deux trucs, un lien du même groupe et pas ou peu de modifs: non, , un lien externe (on va dire pas dans le groupe) et la page duplicate passe... Liens naturels . On est à peu prêt fixé sur les partenariats et autres échanges de liens. Une remarque, j'ai fait sortir du grisé une page en envoyant un gros lien d'un autre de mes sites. Elle est passé PR2 mais toujours sanctionné.

En deuxième, mon petit dictionnaire s'est fait sanctionné quelques pages avec des copies partielles sur des petits sites. Tiens on va jouer ....
-http://www.materiel-informatique.be/fqdn.php, une copie sur ce site -http://www.zegeek.fr/acronyme copie les définitions des autres (jusque là c'est une petite habitude de beaucoup de site) et j'ai corrigé (c'est moi qu'on copie et c'est moi qui corrige . Ben oui, sauf que j'ai repris là sticte définition copié dans un de mes dictionnaires de mon WW et envoyé le lien sur FQDN vers la page de mon autre site (je sais c'est vicieux mais légitime). Résultats, la modif du 26/08 (un mois quand même): le copieur toujours dans les choux, la page de mon WWW toujours bien présente, ... et la page de mon autre site repasse PR2. Génial .... mais toujours pas reprise dans les recherches sur Google.
Pas de chance diront certain mais pour moi, pourquoi cette page de mon WWW pas sanctionnée par Google, ni en PR (mais c'est juste un afichage et pas non plus dans les recherches. Remnter en PR ne prouve finalement pas grand chose; Un petite requ^te, la sancion est levée, pour la requête principale ... non. Google est rancunier et conserve une trace.

Reste la dernière partie, la plus délicate.
1. je copie une page - ou suis copié (ou même une simple phrase), je disparaît ou non?
2. Un autre site copie ma page, une partie de ma page ou même une phrase, je disparaît?
3. Ouf, je m'arrange toujours pour que mes nouvelles pages soient toujours connues par GG avant les copieurs, aucun risques :lol:

Revenons un peu aux sites qui en sont sortis. Désolé pour les liens (pour les modos :wink: ), mais c'est aussi pour leurs longs mails d'explication (et il n'y a ici aucun liens vers mes sites).

Tous n'ont pas acceppter de les citer et je respecte leur idées.
Commencons par Compare le net, Surreau dans un P m'a donné ce qu'il a fait (tiens le site qu'il lui tient à coeur est plutôt un jeu de carte
Compare le net (un gros morceau - et c'est même lui qui le dit :wink: est revenu depuis le 15 août). Dans mes tests de duplicate d'annuaires,fin août il réapparassait. Juste deux choses, supprimé le tas de liesn "intersitesj, lisez ses sites à lui qui s'envoyait des liesn de partout pour en dissocier quelques unes et les reprendre uniquement en page d'index (exit les footer)
J'ai aussi demandé à Webstrom (j'avoue, avec mon caractère, on s'est un peu diputé par MP), il a essayé toutes les combinaisions mais reste sanctionné;: son site http://www.webstorming.fr/
achtungbaby avec http://www.echosdunet.net n'a normalement rien touche mais remonte.
Itraque, touché sur quelques sites, rien touché et pas revenu ...

Ca à l'air de "pas toucher, revenu ...." Pourtant: ca donne un paquet de petits sites cassés net".

On parle de sites vus de confiance par Google. Dans mon petit tests de duplicate (le post le forum) WRI a écrasé le petit site. ybet.be est arrivé, repris en "oublié" sur les recherches et plus l'original mais mon WW reste (pas de chance pour l'autre)
Quelques webmasters se sont tapés sur e-bay, webmarchand, ... (pas forcément des messages sur ce forum). je me tape même sur un Web 2.0 américain.

vieux site, non
PR, non plus
premier sortit, non plus (j'ai essayé sur WRI en mettant des pages dans mon WWW, premier connu et mis le même sur des sites de copains pas liés mais plus connu). même avec un mois d'avance, c'est le plus gros qui est passé

Par contre ... (je vois les failles de GG vues par quelques uns, comment casser un site).
1. Faut déjà un site de confiance de GG. Difficile à savoir quel niveau.
2. le retour de manivelle, je l'ai aussi tester (ben un petit site qui fonctionnait un peu, pas lié pour GG s'est pris de 200 VU/jour vers ... rien)

J'avoue avoir pas tester (quoique ca m'es tombé dessus à mes dépend) un truc 2.0 copie les pages d'un site et c'est l'original que descend et là c'est un gros, pas un PR5 (c'est pas le classement, juste pour donner une idée). Copier WIKI pe .... aucune chance, Wiki copie et .... (pas de chance)

Peut-être le temps de calibrer ces sites de confiance, y compris virer ces sites copieurs mais en attendant:

PS: Normalement, tous mes serveurs seront inaccessibles d'un pays africains la semaine prochaine, raz le bol qu'ils me copient dans les web 2.0 américains, les interdisent d'un seul coup

Pour les "petits webmasters", mon boulôt est surtout pour eux: ne mettez pas vos articles sur E-bay, amazon, .... avec les mêmes description, j'ai pas dis pas les mettre, juste changer les textes
Je vais aller manger, et corrigerai ce (long) post demain. Puis, .... je reprendrai une vie normale
Modifié en dernier par ybet le Jeu Oct 02, 2008 20:34, modifié 2 fois.
Haut
Messages: 2050

Enregistré le: 22 Nov 2005

Message le Jeu Oct 02, 2008 15:34

Merci beaucoup Ybet et à tes comparses également pour ce retour d'expérience très intéressant.

Il va être de plus en plus compliqué de jouer au chat et à la souris avec notre ami GG, apparemment il a remplacé le chat par un tigre...

Une preuve de plus que la communication de GG est très éloignée de ce qu'il fait réellement :evil:
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Jeu Oct 02, 2008 21:51

dadovb a écrit:Une preuve de plus que la communication de GG est très éloignée de ce qu'il fait réellement :evil:

Comme mentionné en début de mon posts, en dire mais sans trop en dire ...
Dans mes quelques sites, j'en ais deux qui sont (à mon avis) jugés bons. le WWW plus un petit site régional sans prétentions. Avec le deuxième (pas une bête de course et je ferais pas des essais - ca aussi j'ai compris :wink: ) j'ai probablement la possibilité de supprimer de Google des sites "sans importance" (et le but de ce petit site est plutôt l'inverse, il a même viré des recherches sur Hôtel XXX (la ville) tous les sites de référenceurs qui gagnent le % sur les réservations.
Dans le nouveau sytème Google, c'est ca qui est dangereux, plus un classement de PR mais de confiance. Le niveau est probablement fait par des humains mais déclasse le petit site pas trop visité par les robots ni les vérificateurs. Son classement descend et un plus "confiant" monte.

Sans trop rentrer dans les détails, si GG corrige pas, le duplicate de petits morceaux de phrases, c'est la mort assurée pour les petits sites d'amateurs.
On se demande pourquoi, j'ai attendu pour mettre en ligne cette dernière partie ... Tiens comme éditeurs DOZ sur ma région, c'est justement ce que j'essaye depuis quelques années, faire passer des sites d'amateurs intéressant qui sont pas des modèles de SEO, juste des sites fait par de petits amateurs passionés (mais ils mettent pas d'adsence :twisted: ).

Par contre, si un réel petit site amateur prend un baffe de ce style, un MP .... on trouvera bien pour le faire passer. Chier..ie de WEB 2.0 vu par Google. Des idées d'ingénieurs sans réels idées de la réalité. On pense un truc pour corriger des trucs tricheries et ... pas de chance pour les problèmes au tour.

Je suis un peu pessimiste dans mes résultats (c'est aussi un peu ma nature parfois) . Google va corriger, la dernière GD est (en partie) dans ce sens et des sites corrects repassent (y compris sans trop de modifs, mais ce sont finalement des sites incontournables mais c'est pas la majorité de toute les pages WEB) .
On parle plus de dégâts collatéraux, on parle de casser les bricoleurs, genre synonymes, conjugaison (jusque là, c'est son boulôt), de casser les copieurs (c'est juste qui copie qui qui me fait un peu peur).

GG a monté un algo ces derniers mois très costaud. Mais faire passer un requête mineur ertzvcv sur un page complètement en duplicate pour faire suivre des liens vers deux pages "parasites" (je sais ces des tests) uniquement par un lien d'HervéG qui lui semble naturel (SIC, c'est une page partenaire PR2) ca dépasse tout et n'importe quoi.

Mais çà, c'est aussi la mort des référenceurs standards et l'ouverture vers les achats de liens made Google.

Ca va faire bientôt 5 ans que je poste sur WRI, on a toujours réussi à s'adapter :wink: aux bons comme ou aux mauvaises direction de GG (d'autres aussi et ils ont probablement plus pris que nous :lol: ). Les deux cotés adapterons sans doute leur stratégies.

Ca déclasse des sites sans prévenir depuis des mois, et la nouvelle donne déclasse des petits sites. C'est bien là le problème L'algo "vert de Google", nettoit plus propres mais supprime les décos des faillances de la cuisine


PS: on va trouver :lol: on est pas un algo, juste des humains.
Haut
Messages: 14

Enregistré le: 3 Juil 2006

Message le Ven Oct 10, 2008 4:56

Excelent post, qui m'a d'ailleurs fait rappeler que mes forums étaient grisés depuis plus d'un an, j'ai fini par laisser tomber.

Cependant j'ai remarque une chose en faisant un test tout à l'heure, si je test l'indexation de mes forums, Google considère les requêtes comme frauduleuses à partir de la 12eme page de résultats. :!:
http://www.google.fr/search?hl=fr&safe= ... art=0&sa=N
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Ven Oct 10, 2008 12:13

Zup Arkhen a écrit:Excelent post, qui m'a d'ailleurs fait rappeler que mes forums étaient grisés depuis plus d'un an, j'ai fini par laisser tomber.

Le mien aussi et toutes mes parties OScommerce également (s ca peut te rassurer). C'est lier à la structure des sous-catégories (l'entrée garde son PR). Les pages sont encore connues et reprises dans quelques recherches, même si ce n'est pas réellement dans les premières positions.

Me suis pas inquiété n,on plus pour ces parties :wink:
Haut
Messages: 4058

Enregistré le: 18 Oct 2006

Message le Sam Oct 18, 2008 14:57

J'avais pas vu ce topic !


Félicitations.
Haut
Messages: 33

Enregistré le: 11 Oct 2005

Message le Sam Oct 25, 2008 1:48

Tout d'abord bravo Ybet pour cette étude intéressante et pour le temps que tu y a consacré. Cela m'a appris ou confirmé plusieurs choses, c'est très intéressant.

En ce qui concerne le Duplicate content, sujet que je suis d'assez prêt car il s'agit pour moi d'un problème majeur qui n'a pas réellement de solution pour google, je suis quand même assez (très) surpris par tes conclusions. Notamment lorsque tu affirme qu'une page peut-être considérée comme inutile voire malhonnète par google lorsque seulement quelques mots sont similaires à d'autres pages existantes.

Je ne comprends pas comment Google peut avoir implanté un tel degré de sévérité dans son algorythme en sachant pertimment que cela planterait des milliers et des milliers de pages en dehors de cela tout à fait pertinentes.

Il semble évident que devant le nombre de pages exitantes un très grand nombre comporteront inévitablement quelques mots consécutifs identiques. Certains ont soulevé l'exemple des eshop, des annuaires, des citations mais il me semble que n'importe quel site, aussi bon soit-il est concerné.

A partir du moment ou un sujet est traité par de plus en plus de sites, ces derniers, aussi pertinents et "honnetes" soient-ils, comporteront forcément des similitudes dans leur texte car il n'existe pas 150 mots pour exprimer la même chose : plus le sujet passionne (ou rapporte), plus les sites seront nombreux et donc plus il y aura de risques de voir 4-5 mots similaires répétés sur des pages différentes. De la même façon que deviennent dans ce cas tous les sites qui reprennent, par exemple, sur la page d'accueil les 2 ou 3 premières lignes d'un article rédigé récemment ? Les 1eres lignes des derniers messages du forum, de commentaires ? C'est une pratique extrèmement courante et très utile aux visiteurs. Cela veut dire que les pages concernées seraient alors jugées inutiles et deviendraient grisées ?

Il serait inutile de faire un site sur les livres, l'informatique, l'histoire ou quelque sujet bien précis puisqu'inévitablement on retrouverait des formulations identiques à des pages existantes sur le même sujet. Comme d'autres l'ont soulevé dans leurs commentaires, je vois mal comment les boutiques en ligne, les sites de tourisme ou encore les dictionnaires pourraient survivre. J'ai donc du mal à croire que google puisse juger une page inutile simplement parce qu'il retrouve 5-6 mots consécutifs identiques noyés dans un texte beaucoup plus long.

Pour moi le duplicate content est ingérable pour les moteurs de recherche : soient ils visent large et dans ce cas facilitent la tache des copieurs et des webmasters qui recopient la même page sur différents sites, soient ils durcissent les filtres mais pénalisent dans ce cas de nombreux sites qui ont pourtant créé leur site avec amour et dans les règles (c'est beau). Ce qui serait pour moi une erreur dans le deuxième cas.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Dim Oct 26, 2008 4:01

Inwan a écrit:
Pour moi le duplicate content est ingérable pour les moteurs de recherche : soient ils visent large et dans ce cas facilitent la tache des copieurs et des webmasters qui recopient la même page sur différents sites, soient ils durcissent les filtres mais pénalisent dans ce cas de nombreux sites

D'abord merci pour ton long paste;deuxeimement, comme certains membres de WRI le savent, la dernière partie a été mise, si pas à contre coeur - elle devait ête mises sur WRI - mais au moins pas avec plaisir. Pourtant, GG a choisit de durcir le filtre.
Savoir qui a copié l'autre n'intervient pas ... (ce qui est encore plus débile).

Je n'intervient plus sur ce poste par dépitude peut-être mais aussi parce que des tests sont toujours en cours, de moi et de beucoup d'autres, notamment parce que après ce post, j'ai analysé beaucoup de sites pénalisés de copains et donné mes conclusions (qui sont pas forcément bonnes mais une piste pour regagner les visiteurs). Ils sont en train d'essayer des corrections, mes idées et les leurs - toutes les pistes sont bonnes, seulement certaines meilleures probablement.
Pour les pages déclassées, j'ai déjà donné des exemples de phrases ... un nouvel exemple "sont souvent du copier / coller" ... et ca semble anodin

Pourtant, ca évolue, GG ne bloque plus le cache dans les requêtes avec "" après les fautes d'ortographe et ne sanctionne plus trop les pages ... depuis 15 jours. Sur mon site, j'avais repris exce*ll la page est revenue
http://www.google.fr/search?hl=fr&q=excell&meta= c'est un gros exemple mais j'en ai vu d'autres ... (Ouf déclasser une page pour une faute d'orthographe :roll: ).

Deuxième différence, les pages déclassées sont grisées, mais des pages déclassées gardent leur PR en fonction des liens externes. On avait déjà trouvé quelques chose avec le petit lien sur ma page de tests de hervéG, Google avait mis en résultat les pages recevant un lien d'une page sanctionnée (duplicate, recherche en fautre d'orthographe .... à part les liens sur la page, ... la totale)
Ben oui, les liens externes d'autres webmasters dégrisent la page :lol: mais la laissent en sanction :? (désolé d'avoir fait aussi les mêmes tests avec des copains qui ne viennent pas sur WRI sur d'autres pages, et pas sur le même site).
Je gère pas beaucoup de sites mais 3 en informatique. Le 1 est un site de 10 ans plus mis à jour depuis quasiment 5 ans. Le WWW reprend le premier (date de 5 ans) et continue à être mis à jour. Le dico reprend des parties plus restrictive et date de 3 ans. Dans la majorité des cas, le dico s'est fait cassé par les deux premiers (jusque là). Dans quelques cas, le vieux a cassé les deux autres :oops: , et ... le petit dernier (le dico) a aussi cassé les deux autres sur des termes génériques.

Les trois ne sont pas identiques mais reprennent des phrases ou parties de phrase identiques et copiés à gauche et à droite par d'autres sites en plus. J'ai analysé les liens externes et c'est pas le petit premier qui en a le plus mais bien les deux autres, en qualité et en quantité.
Haut
Messages: 33

Enregistré le: 11 Oct 2005

Message le Ven Oct 31, 2008 14:56

je comprends que tu sois dépité, ca fait souvent ca quand on test en profondeur le fonctionnement des moteurs de recherche et qu'on se rend compte des difficultés. Moi j'ai pris un maximum de recul par rapport aux débuts et maintenant j'essaie de ne plus me trop me

Pour revenir à tes conclusions, peut-etre que google fait des tests pour tenter de trouver la meilleure parade au duplicate content. Qu'il est conscient que c'est un chantier majeur et particulièrement délicat et à besoinde passer par là pour ajuster au mieux sa parade. Je ne sais pas. Quoi qu'il en soit, s'il advient que des pages peuvent peuvent disparaitre des serp pour une suite de mot aussi courte et aussi anodines que tes conclusions ca va être un vrai problème. D'autant que ca reste assez aléatoire étant donné que certaines pages restent, d'autres avec plus de duplicate ne sont pas concernées etc...

Je peux pas croire que google puisse adopter un tel filtre puisque ca semble particulièrement injuste pour les webmasters touchés (5 mots similaires et le reste de la page parfaitement pertinent -> pfiout au placard) et trop aléatoire justement. On verra bien, merci pour tes conclusiosn en tout cas notamment sur les pages grisées.

Je voudrais quand même une confirmation quand même avant de finir : donc pour toi, les sites qui ont été largement déclassés dans les serp vers mars-avril 2008 ce serait dû à un trop grand nombre de pages grisées (elles même pour diverses raisons : duplicate etc...) ou pas ?
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Sam Nov 01, 2008 21:56

> Irwan, pas dépités pour avoir analysé les problèmes en profondeur, mais parceque par exemple se faire déclasser (pas grisée, juste déclassée -> donc apparaît encore dans les recherche, mais c'est plus compliqué) une grosse page mise à jour régulièrement depuis des années parce qu'un gamin a fait sont travail de fin de bac en copiant le texte sur son site en utilisant Powerpoint pour sa présentation, ou un site ifrance créé par un autre gamin qui met à peine 5 pages en copiant des pages d'autres sites ... et déclasse les sites originaux.

Le dépit vient pas des tests (qui sont toujours en cours, même si je reste plus silencieux - faudra attendre :wink: , seuls quelques uns qui ont participé aux tests et ont aidé ce post recoivent des informations régulières, mais ce sont des conclusions sur le moment, pas des certitudes), juste que GG détecte 5 mots à la suite et déclasse l'ensemble des pages, y compris une page pas modifiée depuis 5 ans par rapport à un guignol qui copie la page complètement en décembre 2007 ... et GG tient pas compte de l'ancienneté?
J'ai fait ma partie pour les annuaires :wink: , m'intéresse maintenant (depuis plus d'un mois) à des vrais sites. C'est pire. Et mes tests actuels sont plutôt agressifs (du genre modifier la page en duplicate mais remettre le texte copié sur un site plus gros - je prend des risques mais c'est ma nature :wink: ).

Pourtant, il y a du changement:
. Google est revenu nettement en arrière avec les fautes d'orthographe
. les pages recevant des liens externes (pas du même groupe de webmaster) ressortent de PR grisé, mais continuent à être sanctionnée ... :wink: et oui, les liens d'hervéG ont appris comment faire ressortir des pages grisées pour duplicate ou autre mais je continue mes petites analyses.

Ca fait presque deux mois que je teste sur un paquet de mes pages spécifiques en les modifiant, détectant le moindre duplicate (la technique est dans les posts ou sur mon site), mais de plus en plus, ca devient débile. GG s'emèle complètement les pinceaux.

Dépité, oui par Google. Si des pages de contenus anciennes (parle pas d'annuaires) se font casser par des copies de sites jugés de confiance et (ce qui est encore plus inquiétant) par des sites complètement grisés, comme copieurs, ca donne quoi pour des sites de quelques visiteurs par jours créé par un petit webmaster amateur qui crée son propre texte sans esprit de référencement ...? (mais dans une des réponse ci-dessus, j'ai déjà signalé que si le cas se présente, un petit MP et m'arrange pour que ca repasse devant le gros site).

Enfin, c'est peut-être moi qui me fait des illusions, les sanctions ne sont peut-être que dans ma tête :oops: ... (opps, ce ne sont pas des sanctions, Google est juste un programmme de classification de contenu). Ben voyons.

Entre nous, un de mes site parle de ma région, c'est un site magique qui pousse tout ce qui est intéressant (quelques uns sur WRI le connaissent). J'imagine même pas l'annuaire si je reprend comme description celle des sites que J'AI inscrit avec mon propre texte de lien et la propre description (certains font pas 2 visiteurs par jours :wink: ), ils disparaissent de Google (c'est mon opinion et elle est sujette à caution, j'avoue).

PS, en suivant les sanctions (et ce post), je me suis pas forcément intéressé aux gros sites commerciaux mais surtout aux petits sites. Sans me considérer comme une vedette, dans ma petite région, on fait cà -http://www.dahut.be/regroupement.php et les participants sont pas forcément des webmasters qui s'occupent de Wri :wink:
Haut
Messages: 33

Enregistré le: 11 Oct 2005

Message le Mar Nov 04, 2008 2:26

Oui google est complètement à la ramasse en ce qui concerne le duplicate content. Et c'est un gros problème, étant donné que c'est un de ses critères majeurs pour calculer les résultats des requètes, puisque il est fréquent que des sites honnètes en patissent au détriment de copieurs.

C'est d'ailleurs la raison pour laquelle j'ai commencé à m'y intéresser : un de mes sites était pénalisé du fait que plusieurs sites (sites poubelles fait à la va vite pour faire des liens ou glaner quelques visiteurs) contenaient texto une ou plusieurs pages que j'avais rédigées pour mon site. Non seulement certaines de mes pages, pourtant bien plus anciennes, ont été remplacées dans les résultats de google par celles des copieurs mais de plus ma page d'accueil a perdu des positions sur de nombreux mots clé et je suis persuadé après plusieurs analyses que c'est dû à ca (peut-être pas seulement mais en grande partie).

Je trouve ca dingue que google puisse se baser autant sur ce critère quant on voit à quel point il gère mal le duplicate content. Je t'avoue que ma motivation à créer du contenu, que prone pourtant google à longueur de journée, est largement émoussée. Alors qu'avant je remplissais mon blog ou mon site avec plaisir en ayant l'impression d'être dans le "droit chemin". Si c'est pour que tout le monde me le pique et qu'en plus ca ne profite pas à mon site mais aux leurs ca me décourage...

La seule solution que j'ai trouvée pour réellement contrer ce genre de duplicate content c'est d'imposer par mail au webmaster de supprimer sa page et si ca suffit pas de contacter l'hébergeur afin qu'il suspende le compte. Très efficace mais lent et pénible à faire.

Maintenant si 5 mots comme tu le penses suffisent, parfois et de facon très aléatoire, à envoyer ta page aux oubliettes ca devient réellement n'importe quoi.
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Jeu Nov 06, 2008 16:59

ybet (et les autres :-))


que pensez-vous de cette page : -http://www.ra-sante.com/referencement/

PR3 : 150 liens sur la page et aucun contenu !!!

tu disais que GG analysait les structures des pages et si le contenu n'avait pas assez de textes et trop de liens, alors la page n'avait pas d'intérêt et était grisée ! (cf ton dictionnaire ou ta page de définitions informatique je me rappelle plus)

une analyse ?
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Jeu Nov 06, 2008 17:40

J'en ai d'autres exemples du même type sans jamais avoir pu distingué pourquoi certaines pages avec des liens presqu'exclusivement passent. Pourtant une constatation, généralement, ce sont beaucoup de liens (une bonne centaine minimum). En plus, pour dégrisé, quelques liens externes non "groupe de webmasters" suffissent.

Par contre, en dégrisant par liens externes, on enlève pas la pénalité sur la page si les problèmes sont toujours présents: c'est mes conclusions actuelles sur différentes pages que j'ai fait sortir par cette méthode ou même des pages complètement duplicate mais avec des liens externes.
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Lun Nov 10, 2008 16:25

YBet, puisque tu es un spécialiste de la question :

s'il existe plusieurs pages avec le même texte sur différents sites, et tous ces textes ont un lien vers un site tiers, il est évident que toutes ces pages ne ressortiront pas à cause du DC, mais est-ce que les BL seront tous comptabilisés ou non ?
Haut
Messages: 33

Enregistré le: 11 Oct 2005

Message le Mar Nov 11, 2008 2:53

A confirmer mais logiquement je pense que les liens placés sur des pages de l'index complémentaire doivent être "transparents" qualitativement parlant ou au minimum compter de facon moindre. Ca ne reste qu'une supposition de ma part donc à voir.
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Mar Nov 11, 2008 8:19

merci de ton avis

ybet est dans les parages pour nous éclaircir ?

il a du faire des milliers de tests sur cela ... :-)
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Nov 12, 2008 11:38

rudddy a écrit:s'il existe plusieurs pages avec le même texte sur différents sites, et tous ces textes ont un lien vers un site tiers, il est évident que toutes ces pages ne ressortiront pas à cause du DC, mais est-ce que les BL seront tous comptabilisés ou non ?


Inwan a écrit:A confirmer mais logiquement je pense que les liens placés sur des pages de l'index complémentaire doivent être "transparents" qualitativement parlant ou au minimum compter de facon moindre. Ca ne reste qu'une supposition de ma part donc à voir.

Déjà une partie de la réponse mais c'est un peu plus complexe.
Déjà si la page qui envoit le lien est grisée (pénalisée), elle n'envoit pas de lien , ou du moins ils n'apparaissent pas dans les différents outils de Google, notamment les outils webmasters (et donc à mon avis pas du tout pris en compte).
Maintenant si la page qui envoit le lien a du PR (même PR0), le lien est effectivement envoyé mais dans quelle mesure, je ne sais pas. Tout simplement parce que mes tests en cours donnent des pages avec du PR venant de liens externes mais peu présentes dans les recherches (ou du moins très loin de ce qu'elles devraient être) et je sais qu'elles sont nettement en duplicate :wink: (ce sont des miennes et reprises en parties de phrases sur au moins 3 pages + un paquet de sites copieurs .... de ces pages).
Et honnêtement, je passe plus de temps à corriger mes sites pour l'instant qu'à vérifier les liens des ancres surtout que la poistion d'une page sur une requête me semble de moins en moins dépendre des ancres des liens, le contenu semble plus important.
De toute façon, toutes les pages en duplicate ne sont pas sanctionnées (là aussi c'est un mystère
http://www.google.be/search?sourceid=na ... 6&q=switch
les deux premières sont de chez moi et reprennent des contenu en partie dupliqués (avec même deux autres des miennes). Chacune a des liens externes ... Par contre, d'autres combinaisons identiques donnent le déclassement des 2 sites.
Pour ces deux pages switch, le dico recoit 6 liens dont un PR2 et un PR1 (comment ca marche qui est considér comme de confiance - ce que j'aimerais qu'on m'explique :roll: sur son forum, pas les articles) Le reste est 0 et grisé mais tous les liens viennent de forum. L'autre recoit 95 liens externes mais tous grisés sauf 1 PR3 (du dico donc site jugé par Google du même groupe de ebmasters).

Jusque là, ... les liens grisés externes sembleraient être suivi mais les deux sites ne sont pas équivalents .

. Le dico est PR5 (l'autre seulement PR 4) et les deux pages n'ont pas non plus le même PR ...
Est ce que le positionnement vient du PR, j'en doute un peu . Pour les deux pages, elles recoivent beaucoup de liens internes savament dosés mais reprennent surtout un contenu.
C'est avec ce genre de petites analyses que je pense que les liens sont de moins en moins suivis. Mais tous les cas ne sont pas identiques.

J'ajouterai un petit truc: en septembre, une page sanctionnée n'était pas reprise dans les liens internes et externes des autres pages dans le soutils webmasters, mais réapparaissent en partie depuis quelques semaines (pas tous). Google commence à brouiller les pistes sur ce genre d'analyse.
Deuxième particularité, les pages sanctionnées mais avec un PR apparissent en partie dans les recherches. Deux pages quasiment identiques (mais pas tout à fait appariassent l'une à tour de rôle quand on reprend des parties de phrases en affichage dans la recherche, l'autre comme contenu oublié.).
... comme si Google avait compris les méthodes pour corriger certains duplicate.
En deuxième: dans deux pages similaires (mais avec du duplicate), soit Google semble reprendre dans les recherches le début du contenu: dans ce cas, la page passe en étant mieux optimalisée avec le mot
soit il reprend des chaipitres (des parties).
... mais de nouveau, j'ai pas analysé les textes des liens externes.

De toute façon, une chose est sure, des pages avec un PR affiché peuvent aussi être sanctionnées (il suffit d'un ou deux liens externes pour passer le grisé) si elles sont en duplicate ou autres.

5-oct 13-oct 16-oct 22-oct 30-oct 10-nov
32 36 30 29 24 25 27
492 495 483 470 473 526 546
695 635 636 628 660 671
102 112 115 114 109 110 110

Ca c'est le nombre de pages avec des liens repris dans les outils webmasters de Google pour 4 sites ... Bizarres, mais les pages apparaissent ou disparaissent à chaque mise à jour (10 - 15 jours). Certaines sont corrigées mais d'autres non. Les sanctions se font en temps réels :? et GG dégrise (regrise) à fait. Mon tableau de tests est beaucoup plus complet et complexe mais là c'est un peu trop long à mettre sur WRI puis c'est plus de l'étude de cas, mais plutôt des tests pages par pages.
Haut
Messages: 1037

Enregistré le: 18 Fév 2006

Message le Dim Nov 16, 2008 11:56

Bonjour,

J'ai des exemples sous la main qui semblent aller à l'encontre de ce qui se dit :

1) Trois pages de type "sommaire" comportant uniquement des liens internes au sein du contenu (les liens poitant vers des pages dédiées). Elles sont passées au gris. J'en modifie une (http://www.gitemontsaintmichel.com/articles.html) afin de la rendre "consistante", hier elle n'a pas bougé. Sur les deux autres (identiques dans la construction) seul une est passée au vert (http://www.gitemontsaintmichel.com/articles-2.html) alors que l'autre : pas de modification.

2) Les pages dédiées elles mêmes :

- Certaines affichent du PR alors que le nombre de liens pointant vers le site partenaire est important (exemple : http://www.gitemontsaintmichel.com/loca ... pagne.html)...mais pas toutes!

- Une seule, avec peu de liens vers le site partenaire est devenue verte hier ( http://www.gitemontsaintmichel.com/gite ... dogne.html ) et du coup, est bien positionnée.

- D'autres affichent du PR (et ressortent très bien dans les SERPS) et ne pointent vers aucun site...pas de liens externes au sein du contenu (exemple : http://www.gitemontsaintmichel.com/legu ... -malo.html) alors que d'autres, identiques en tous points, sont grisées (exemple : http://www.gitemontsaintmichel.com/vent ... nules.html)

- Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée (exemple : http://www.gitemontsaintmichel.com/gite ... uirec.html)

Je ne vais pas plus m'étendre, car, avec tout cela je pense qu'il y a déjà de quoi s'arracher les cheveux...personnellement, je ne comprends pas. Si Ybet, ou un autre peut s'y attarder un peu....

Cordialement
Charles
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Dim Nov 16, 2008 13:12

co7645 a écrit:Bonjour,

J'ai des exemples sous la main qui semblent aller à l'encontre de ce qui se dit :

1) Trois pages de type "sommaire" comportant uniquement des liens internes au sein du contenu (les liens poitant vers des pages dédiées). Elles sont passées au gris. J'en modifie une (http://www.gitemontsaintmichel.com/articles.html) afin de la rendre "consistante", hier elle n'a pas bougé. Sur les deux autres (identiques dans la construction) seul une est passée au vert (http://www.gitemontsaintmichel.com/articles-2.html) alors que l'autre : pas de modification.

Te rassure, j'ai aussi des pages qui passent très bien dans les recherches avec un nombre imprtant de liens. Ma préférée est -http://www.darut.be/annuaire.php (c'est pas le record mais des pages avec plus de 1000 liens externes, ca doit pas faire légion) :wink:
Toutes les corrections ne font pas réapparaître les pages. D'abord parceque GG les visite moins souvent (attention, les dates des caches affichs sont fausses). Deuxièmement parce qu'en corrigeant, on retombe aussi sur d'autres problèmes liées notamment au duplicate content.

Mais un petit exemple du passage grisé vers PR avec une partie de mon tableau.
A droite les adresses de pages, de gauche à droite, les chiffres. Quand l'adresse de page est en vert, elle n'était pas pénalisée. Le tableau est rempli tous les 10 - 15 jours (mise à jour des outils webmasters). Pour chaque page, deux colonnes par date, une avec le nombre de liens internes affichés par les outils webmasters, l'autre le PR de la page.
Quand la case est en rouge, elle est descendue. Quand elle est en vert, elle est réapparue. Remarque les deux premières colonnes (la date correspond à mes tests d'hier). Certaines pages réapparaissent dans les pages avec liens internes sur les outils, d'autres en PR, et d'autres ... en PR et en liens internes.
Je pense que cette petite image donne une idée de ce qui se passe. Une remarque néanmoins, dans cette vue, toutes les pages n'ont pas été modifées.
Le PR (revenu) varie de 0 à 4 ....
Image

co7645 a écrit:2) Les pages dédiées elles mêmes :

- Certaines affichent du PR alors que le nombre de liens pointant vers le site partenaire est important ... mais pas toutes!

- Une seule, avec peu de liens vers le site partenaire est devenue verte hier et du coup, est bien positionnée.

- D'autres affichent du PR (et ressortent très bien dans les SERPS) et ne pointent vers aucun site...pas de liens externes au sein du contenu alors que d'autres, identiques en tous points, sont grisées
- Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée


Il y a effectivement de quoi s'arracher les cheveux :wink: (ca tombe bien, j'en ai plein sur la tête :? ).

Mais j'ai aussi des exemples similaires sur plussieurs de mes sites.

. Déjà, le nombre de liens semble être tenu en compte. Mieux vaut une page avec 150 liens (même sans texte au-tour) qu'avec 20 liens. Je donne des chiffres comme cà, comme exemple mais mes pages avec bveaucoup de liens passent mieux que celles avec peu de liens.
. Que les liens soient vers des sites de référence ou non n'intervient pas, en follow ou en no follow non plus d'aillieurs.

Mais ce post aide à comprendre ce qui se passe et à corriger et ... toutes les corrections ne passent pas (la preuve, sur ma copie d'écran, il y en a toujours en grisé même si j'ai pas tout corrigé, y compris des pages copiées par d'autres sites).
En plus, c'est pas parce qu'une page est corrigée qu'elle passe bien sur les recherches (une page grisée passe généralement pas du tout ... c'est déjà une ammélioration :wink: ). ici, on parle des sanctions pas du positionnement.

Mais GG a l'air d'apater certaines sanctions (y compris le petit truc que j'utilisait pour détecter la partie de phrase en duplicate :evil: ) même si elles sont toujours présentes. La pseudo mise à jour de la barre verte d'hier le confirme.

PS: tu m'excuse si j'ai supprimé les liens dans la réponse .... (c'est la règle sur WRI). Je sais que des pages avec des liens externes passent le grisé mais ... souvent restent sanctionnées.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Dim Nov 16, 2008 19:38

co7645 a écrit: - Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée (exemple : -http://www.gitemontsaintmichel.com/gite-perros-guirec.html)

Pour celle là (j'ai pas analysé les autres) bel exemple de duplicate

http://www.google.be/search?hl=fr&rlz=1 ... e%22&meta=
Haut
Messages: 1037

Enregistré le: 18 Fév 2006

Message le Dim Nov 16, 2008 23:07

ybet a écrit:
co7645 a écrit: - Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée (exemple : -http://www.gitemontsaintmichel.com/gite-perros-guirec.html)

Pour celle là (j'ai pas analysé les autres) bel exemple de duplicate

http://www.google.be/search?hl=fr&rlz=1 ... e%22&meta=


Bien vu! (et merci) Cela m'avait échappé. Je vais donc procéder à des modifs d'ici quelques jours et...il faudra attendre un peu.
Haut
Messages: 244

Enregistré le: 10 Aoû 2005

Message le Sam Nov 29, 2008 22:56

Merci Ybet pour cette etude que j'ai lu de long en large plusieurs fois!!!

Je suis comme beaucoup d'autre ici touché par les penalités.

Je souhaite donc vous faire profiter de mes tests et résultats.

1)Donc pour ce qui est du duplicate sur une ou plusieurs pages d'un site ancien et recevant plus de 10000 VU/jours j'ai modifié les page en question à 100% (si ce n'est le menu) et quelques jours après les pages se sont positionner à nouveau dans google.
Je précise que le duplicate de ces pages venait de webmaster ayant copier l'ensemble du texte sur leur site.


2) Par contre sur un site ayant environ 20 pages (toutes pénalisées) et les 20 pages ayant été copiées à 100% sur plusieurs autres sites par plusiuers webmasters j'ai changé la totalité du texte et le site et il est toujour pénalisé.
Avoir donc si la partie navigation n'est pas trop importante face au contenu?



Par contre je me dit que changer le texte des page c'est bien mais si quelques jours, semaines, mois, après d'autres webmaster peuvent refaire un copié collé et je me retrouverais dans la même me....

Je me pose donc la question du remede pour savoir comment se proteger de ce duplicate?

Donc ma reflexion est la suivante:

Imaginons une page originale A avec un texte du style....

Webrankinfo est le plus grand forum de référencement francais, et nous pouvons remercier olivier pour son forum et les articles qu'il ecrit dans ses actualités sur le référencement . Il faut aussi remercier les modo pour leur travail de moderation etc......(bon j'arrete la le cirage de pompe)



Imaginons une page copié B avec un texte du style (donc sans les liens)

Webrankinfo est le plus grand forum de référencement francais, et nous pouvons remercier olivier pour son forum et les articles qu'il ecrit dans ses actualités sur le référencement. Il faut aussi remercier les modo pour leur travail de modération etc......(bon j'arrete la le cirage de pompe)


Les deux pages vont elles etre considérés en duplicate?
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Dim Nov 30, 2008 11:20

contre exemple a écrit:Je souhaite donc vous faire profiter de mes tests et résultats.


:wink: ca c'est gentil, on commençait à se sentir un peu seul avec L Jee
contre exemple a écrit:
1)Donc pour ce qui est du duplicate sur une ou plusieurs pages d'un site ancien et recevant plus de 10000 VU/jours j'ai modifié les page en question à 100% (si ce n'est le menu) et quelques jours après les pages se sont positionner à nouveau dans google.
Je précise que le duplicate de ces pages venait de webmaster ayant copier l'ensemble du texte sur leur site.


idem sur mon site pricipal mais pages toujours sanctionnées dans certains cas. Pourtant elles ont toutes du PR qui vient de liens externes. Mais sanctionnées dans des recherches . Il doit rester quelques parties.
Par contre, des pages en dupliate (copiées par d'autres) et pas modifiées restent sans problmes dans les recherches.
On revient à cette notion de sites de confiance. Ca dépend des deux sites qui reprennent le même contenu. Ceci explique probablement:

contre exemple a écrit:2) Par contre sur un site ayant environ 20 pages (toutes pénalisées) et les 20 pages ayant été copiées à 100% sur plusieurs autres sites par plusiuers webmasters j'ai changé la totalité du texte et le site et il est toujour pénalisé.


contre exemple a écrit:Par contre je me dit que changer le texte des page c'est bien mais si quelques jours, semaines, mois, après d'autres webmaster peuvent refaire un copié collé et je me retrouverais dans la même me....

exactement, mais pas de remèdes non plus.


contre exemple a écrit:Les deux pages vont elles etre considérés en duplicate?

hélas oui d'après ce que j'ai testé, ... même en mettant les liens chaque fois d'une page dupliquée vers d'autres pages du site:
la page du site A envoit des liens internes vers des pages internes non dupliquées et la page du site B dupliquée fait la même chose vers ses propres pages internes.

C'est d'aillieurs ce qui est débile, une vieille page se fait copiée et elle descend dans les recherches (pas toutes mais pas tout compris). Pire, un petit site se ait copier par un plus gros entièrement et c'est le petit qui disparaît (je schématise parce que ca marche que si le copieur est nettement plus gros au niveau confiance ... pas la peine de copier WRI en espérant le mettre à genoux par exemple).
J'ajouterais que même quand la page qui copie envoit un lien vers la page originale ca peut faire du dégât.
Haut
Messages: 244

Enregistré le: 10 Aoû 2005

Message le Dim Nov 30, 2008 16:53

ybet a écrit:hélas oui d'après ce que j'ai testé, ... même en mettant les liens chaque fois d'une page dupliquée vers d'autres pages du site:
la page du site A envoit des liens internes vers des pages internes non dupliquées et la page du site B dupliquée fait la même chose vers ses propres pages internes.


Et dans le cas ou le site B n'a copié qu'un article du site A il ne fait donc pas les liens dans le texte vers ses autres pages. duplicate ou pas?
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Déc 01, 2008 21:29

contre exemple a écrit:
ybet a écrit:hélas oui d'après ce que j'ai testé, ... même en mettant les liens chaque fois d'une page dupliquée vers d'autres pages du site:
la page du site A envoit des liens internes vers des pages internes non dupliquées et la page du site B dupliquée fait la même chose vers ses propres pages internes.


Et dans le cas ou le site B n'a copié qu'un article du site A il ne fait donc pas les liens dans le texte vers ses autres pages. duplicate ou pas?


même avec des liens internes différents, ca passe en duplicate avec des cas inverses (on va dire des exceptions).
J'attend encore quelques semianes avant de faire une synthèse de mes petits tests en cours, sur les corrections de mes sites principalement mais d'autres aussi. Les méthodes de sanction ont un peu changé (même si elles restent), mais c'est surtout les détections qui ont évoluées. Google camoufle de plus en plus mes petits trucs de septembre :roll:

Mais j'avoue que comme j'ai mis sur un autre post, je corrige sur mes sites le duplicate par exemple mais je prend un malin plaisir à laisser les copieurs en duplicate faisant passer les parties copiées d'un site à l'autre. J'avoue également que je configure mon serveur apache d'une manière "personnelle". Je pense avoir définitivement bloqué un pays de copieur: une copie sur un site américai, j'envois un mail, retire la page (mais toujours bien positionné même sans contenu :roll:) et le mec reprend les pages d'un autre de mes site le lendemain sur son truc collaborratif américain.
(en plus, je vais aussi analyser les résultats adsence en supprimant un pays ... pauvre - désolé, c'est pas du racisme c'est de la protection de site et le copieur a été prévenu).

Pour le blocage de pays via les plages d'adresses IP, par MP (un formateur de Windows qui se met à étudier APACHE et ses fichiers de configuration :roll: ). Googl est finalement un petit génie inconnu, déjà qu'il m'aide dans mon orthographe http://www.ybet.be/news-fiche.php?numero=6 et m'apprend à lire les dates :twisted:
Haut
Messages: 1037

Enregistré le: 18 Fév 2006

Message le Dim Jan 04, 2009 10:25

Bonjour,

contre exemple a écrit:2) Par contre sur un site ayant environ 20 pages (toutes pénalisées) et les 20 pages ayant été copiées à 100% sur plusieurs autres sites par plusiuers webmasters j'ai changé la totalité du texte et le site et il est toujour pénalisé.



Un méchant copieur avait pompé, il y a plusiaurs mois, des phrases entières de ma home et les avait collé sur sa propre page d'accueil (y compris le mailto...balaise :lol: ). Les modifications ont été effectuées....et sa home est toujours en gris...

Charles
Haut
Messages: 1037

Enregistré le: 18 Fév 2006

Message le Dim Jan 04, 2009 10:34

co7645 a écrit:Bonjour,

J'ai des exemples sous la main qui semblent aller à l'encontre de ce qui se dit :

1) Trois pages de type "sommaire" comportant uniquement des liens internes au sein du contenu (les liens poitant vers des pages dédiées). Elles sont passées au gris. J'en modifie une (http://www.gitemontsaintmichel.com/articles.html) afin de la rendre "consistante", hier elle n'a pas bougé. Sur les deux autres (identiques dans la construction) seul une est passée au vert (http://www.gitemontsaintmichel.com/articles-2.html) alors que l'autre : pas de modification.


Toutes sont grises, maintenant

2) Les pages dédiées elles mêmes :

- Certaines affichent du PR alors que le nombre de liens pointant vers le site partenaire est important (exemple : http://www.gitemontsaintmichel.com/loca ... pagne.html)...mais pas toutes!


Là, pas de changement...pour le moment

- Une seule, avec peu de liens vers le site partenaire est devenue verte hier ( http://www.gitemontsaintmichel.com/gite ... dogne.html ) et du coup, est bien positionnée.


A ce jour, plusieurs sont dans ce cas

- D'autres affichent du PR (et ressortent très bien dans les SERPS) et ne pointent vers aucun site...pas de liens externes au sein du contenu alors que d'autres, identiques en tous points, sont grisées (exemple : http://www.gitemontsaintmichel.com/vent ... nules.html)


Alors, pour celle ci...comprends pas.
Elle est restée grise...jamais de vert....mais positionnée en première ou deuxième page...puis, il y peu, pendant 2 jours : première position sur toutes les requêtes. Ensuite, disparition totale pendant 24 heures sur tous les DC et actuellement, selon les DC, absence totale ou très bien positionnée...mais perte de la première position sur la plus grosse requête (l' annuaire de Carole l'ayant donc retrouvée)

- Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée (exemple : http://www.gitemontsaintmichel.com/gite ... uirec.html)


Je n'y ai pas touché....j'ai récupéré du PR et la page de l'autre site l'a perdu.


Charles
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Jan 05, 2009 14:10

OK, une petite mise à jour de nos travaux actuels

Ceci est une partie d'un MP envoyé hier, je le modifie juste un peu pour:
1. supprimer les parties réponses au MP
2. mettre des indications supplémentaires.

On reprend actuellement presque les mêmes que ceux qui ont participés aux tests des grandes vacances sauf que maintenant on est sur les corrections.

Personnellement je suis sur des tests sur deux sanctions: le duplicate et la structure (trop de liens), les autres sont sur le duplicate.

Quelques constatiations sur nos différents sites.

1. des pages corrigées font pour une bonne partie le yoyo entre des PR, PR 0 et grisés. Sauns réellement savoir pourquoi.

2. sur des pages en duplicdate corrigées (parle pas des annuaires) mais bien de pages. Sur trois pages en partie en duplicate du même webmaster, le plus souvent 1 reste totalement inconnue dans les recherches, les deux autres se baladent d'un jour à l'autre de présent (sans plus) à complètement perdu.

3. Des pages avec du PR (mais bien en erreur de duplicate pas corrigées) disparaissent aussi des recherches. Par contre pas toutes Pour preuve, http://www.google.be/search?hl=fr&rlz=1 ... itch&meta= avec materiel et mon WWW j'en case deux dans les 10 premières places mais de large parties sont identiques pour les deux pages. + de 110 liens externes pour chacunes. Par contre sur HUB (avec strictement des problèmes de parties duplicate entre les deux sites, celle de materiel pas du tout (PR2, jamais grisée, liens internes affichés dans GWT) mais totalement absente.

4. Dans les différents posts, j'ai parlé de niveaux de confiances (on peut dire trustrank je crois)
- 1. qui passe sur les recherches en cas de copie: le site qui a le meilleur trustrank.
- 2. copié par un autre, je change ma page. Diverses solutions se présentent (et pas moyen de choisir :evil: )
-- la page corrigée reprend un PR standard mais n'apparaît toujours pas dans les recherches.
-- la page corrigée (alors qu'elle est copiée par un autre :? ) reprend du PR et réapparaît dans les recherches
-- même corrigée, elle réapparait pas ou de temps en temps mal positionnée et en plus toujours grisées.
-- généralement le plus petit qui a copié reste dans les paquerette quasiment chaque fois. Pire (ou mieux 8) ) je change la page et remet le duplicate sur un site plus gros, le copieurs reste dans les paquerettes (bien fait) mais la page du gros site n'est pas pénalisée.

On en est pour l'instant à penser que GG a cllassé des sites comme copieurs (qui copie l'autre n'est pas la question) et que même corrigé il les laisse un peu à l'écart, le temps de faire remonter sans doute son trust rank. Et c'est une supposition, tant qu'il n'est pas complètement nettoyé ou % trop faible, il reste derrière (je répète c'est une supposition mais elle semble pour l'instant vérifiée). Celui qui a copié reste également grisé, tout simplement s'il est plus faible que celui qu'il a copié (et apparament pour longtemps). En gros, celui qui change rien reste en grisé et celui qui corrige (en supposant que c'est fait totalement - ce qui est très difficile) reste dans un espèce de purgatoire pour les pages qui posent problèmes. Corrigé certaines parties d'un petit annuaire, la partie entrée catégorie vient de prendre un PR1 (genre petit encouragement de Google :roll: mais il laisse les pages avec des problèmes dehors). Tout se passe comme si un site copieur (ou des pages) étaient mémorisées par Google , et ca c'est probablement beaucoup plus valables pour les annuaires.

Pour continuer

--- le truc page duplicate = PR grisé est difficilement utilisable pour la détection des problèmes actuels. Ceci est du au fait qu'une page recevant des liens externes recoit un PR (pas toutes et pas ceux du même webmaster). mais aussi que des pages gardent leur PR alors qu'elles sont détectées comme sanctionnable. Actuellement, même avec la GD du 31/12, des pages restent en grisé mais commencent à passer dans les recherches

Attention tout de même

1. des pages qu'on pense corrigées sont de nouveau en duplicate par nos corrections, parfois avec d'autres sites. Comme elles sont déjà dans l'algorythme de GG, elles y restent

2. le changement de PR de ces pages ne se fait plus tous les 15 jours lors de la mise à jour de GWT, les deux ne sont plus mis à jour en même temps. Pourtant, les pages grisées sont toujours le plus souvent absente comme pages recevant des liens internes dans GWT (même positionnée dans les résultats - souvent mal mais positionnées)

3. des pages grisées mais non corrigées (pas du tout même) sont revenues avec du PR (pas vérifié trop leur positionnement, elles sont sans importance) entre le 15/11 et 25 / 12 (puis pour la plupart redisparue), sans réellement comprendre pourquoi. Comme elles sont insignifiantes, pas vraiment vérifié dans les résultats de recherches

4. GG modifie les sanctions et les moyens de les découvrir:
- quasiment exit les fautes d'orthographes, maintenant les pages ne sont plus sanctionnées apparament, seulement la proposition du bon terme dans les recherches
- le coup du plus dans le cache sur une recherche entre "" dès le morceau de duplicate ne fonctionne plus depuis quelques mois

5. On pourrait aussi assister à un retour en arrière. Je suis en train d'essayer depuis deux jours sur des pages pénaliées par trop de liens de re-supprimer le texte (j'avais essayé l'invers en bourrant les quelques liens de mots au-tour sans résultant - en espérant ne pas avoir fait du duplivate), j'essaye pour l'instant l'inverse, revenir à plus de textes, justes des liens. On va bien voire.
Modifié en dernier par ybet le Lun Jan 05, 2009 17:27, modifié 2 fois.
Haut