Les pénalités Google d'octobre 2007 à sept 2008

WRInaute accro
Bonsoir, ...
Quelques uns qui viennent sur ce forum régulièrement savent que je travaille sur les pénalités de Google depuis avant décembre 2007 (les premières pénalités "incompréhensibles"), ce qui m'a marqué ce sont les pages grisées. Tous mes tests sont partis de là, et toute la suite est basée sur le suivi de ces pages grisées.
Pour une fois, mais je crois que 10 mois de tests, de réponses sur le sujet sur ce forum, je mérite (un peu) de mettre un petit liens vers des articles hébergés sur mon site (généralement je met un "gros post" sur WRI avec les trucs recueillis).
Par contre, les commentaires (j'espère) se feront ici.
Dans ce post, on parle des pénalités de Google, où des modifications (plutôt évolutions des techniques) de Google depuis novembre 2007, date des premières bizaretés dans les résultats (ça c'est pas nouveau), mais surtout de déclassements.
Honnêtement, j'ai souvent ris en lisant d'autres forums de référencement (à part WRI, je lis aussi webmaster-hub, mais j'ai surtout reçu des MP pour me donner les forums de secondes zones signalant mes posts ici: ben non, ben oui, peut-être raison, peut-être pas, .... quelques critiques aussi (c'est un c**** connait rien) ... mais aucun forum francophone n'a jamais donné de véritables solutions).

Avant de continuer, depuis des mois, la majeure partie se fait pas MP, ca m'évite de donner des conclusions trop hatives et m'a permis (en plus) de donner des indications de recherches plus larges sur les problèmes. Certains ont testé et renvoyés leurs résultats, d'autres non.
Pour ceux qui ont permis ces tests, un grand merci, pas forcément que de ma part mais pour ceux à qui ca pourrait servir.
D'abord L-Jee pour non seulement avoir testé sur ses propres sites mais surtout pour avoir renvoyé les résultats, ensuite pour Carole pour avoir donné une parties des réponses des problèmes depuis avril, et pour Blogger , ancien habitué des bonnes comme des mauvaises zones pour ses explications complémentaires concernant les .... mauvaises pratiques mais surtout les raisons de Google de bloquer certaines parties

J'ai fait une synthèse sur mon site principal (il me manque la partie la plus tordue, la majorité est en ligne maintenant) de 10 mois de tests des pages grisées qui comme par hasard suivent ou précèdent les sanctions. Ben oui, tous mes tests on suivi le passage de pages grisées, pas les sanctions qui sont finalement la partie visible.

Commençons par un petit récapitulatif du PR actuel et un petit historique des sanctions depuis octobre 2007 http://www.ybet.be/news-fiche.php?numero=3
Début des hostilités, WRI se prend un PR ... plus petit (et les autres forums en rient) ... Wri s'en est pris une pour vente de liens (du moins soupçonné par Google). A l'époque, j'ai une page PR4 qui envoie un lien vers WRI -http://www.materiel-informatique.be/webrankinfo.php qui passe grisé à peu prêt au même moment, ce n'est pas la seule qui subit le même sort, sa jumelle vers webmaster-hub prend le même chemin...
J'en conclut à l'époque que ces deux sites se sont fait cassés en PR (pas en visiteurs) par GG en supprimant des pages reprenant des liens trop gentils (plus retrouvé le post), ...
Mon idée à l'époque c'était la baisse de PR lié à la suppression de l'index de pages jugées trop "envoi de lien". Je sais, le PR sert plus à rien pour la majorité, mais si. quelques liens PR4 biens choisis et la page qui reçoit les liens passe quasiment n'importe quelle requête standards à l'aise. Plus le lien reconnu par Google (PR aussi), la page sombre dans les abimes des trentièmes pages.
Pourtant, c'est ce qui s'est passé pour beaucoup de grosses pages internes, les petites pages sanctionnées d'un site, et la "grosse au dessus" descend. Dans les statistiques visiteurs, cé donne entre 1 et 5 % en moins, quasiment indétectable

Deux GD et de nouveau des pages grisées en plus, mais au passage, des pages reprenant uniquement des liens (internes ou externes d'ailleurs) se font grisées et quelques petites descendes dans les stats http://www.ybet.be/news-fiche.php?numero=4
Ce sont les liens qui semblent poser problèmes, mais pas seulement

et avril, juin 2008 .. petit réveil de la communauté http://www.ybet.be/news-fiche.php?numero=5
On peu retenir le duplicate de quelques mots "et surtout moins gourmands en énergie", comme exemple mais il y a pire, mais surtout le duplicate content de description dans les annuaires ou copies de sites (et faut pas grand chose).


Maintenant, au bricoleurs à prendre la parole.

Me reste une page à faire, c'est fou ce que j'ai découvert dans toutes ces analyses, mais non, elle est maintenant en ligne ... avec quelques jours de retard Ben voyons, pire ou moins .. bon

PS1, les questions réponses se font ici (pas sur mon site), mon expérience en référencement s'est fait sur WRI (ca doit être pourquoi les tests, mais surtout les résultats, se sont fait ici)
PS2: un grand merci aux trois Webmastres repris ci-dessus et aussi aux quelques PM d'autres
PS3: comme quelques-un de mes "gros post" sur WRI, je modifierai en fonction des réponses.
PS4: .... ben oui, les parties de mes conclusions sont déjà sur Google, pas de chance de duplicate, comme quoi, j'ai (pas que moi) beaucoup appris dans ces tests
 
Olivier Duffez (admin)
Membre du personnel
Tout d'abord un grand merci de livrer ici tous tes résultats, c'est très apprécié par les membres de WRI. Je t'ai corrigé un certain nombre de fautes de frappes, maintenant je vais relire ton post à tête reposée... A+

Olivier
PS: tu dors pas la nuit ?
 
WRInaute accro
WebRankInfo a dit:
Olivier
PS: tu dors pas la nuit ?
C'est exactement ce que ma dit ma femme en me réveillant ce matin :lol:
Un petit résumé vite fait:
depuis octobre 2007, les déclassements
1. vente de liens soupconnés: descende de PR mais pas de pertes visiteurs. Les cas avérés d'achats à l'étranger entrainent automatiquement le déclassement du site qui achète, mais c'est plutôt rare et c'est pas le but de cet article
2. Page dont le contenu est presqu'exclusivement des liens (internes ou externes) -> grisé la plupart du temps, solution ajouté du contenu (genre petite description des liens), ca marche. Autre solution, des liens externes provenant d'un autre site (attention, les sites d'un même webmaster n'ont pas l'air d'intervenir, GG est registar)
3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation -> déclassement de toutes les pages avec un contenu trop faible
4. contenu dupliqué ou copié, en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google cf. https://www.webrankinfo.com/forum/t/un-permis-obligatoire-pour-aller-sur-internet-faudra-y-pens.99280/

Pour le 4, je suis juste en train de tester si GG élimine complètement la page (sauf en ignoré ...), juste la partie après le duplicate (en plus de la partie dupliquée) ou toute la page. Pour l'instant, après trois jours de visites de la page de tests, GG n'a suivi aucun lien :twisted: sur cette page (désolé pour le copier / coller dans les descriptions d'annuaires).

Ce qui devrait suivre (parle dans mon article)

5. déclassement des pages avec des fautes d'orthographe SEO (j'ai déjà donné sur le forum l'exemple EXCELL (y compris si elles sont pas faites exprêt)
6. déclassement des pages avec des conjugaisons fausses (genre j'ai acheter ...

Pour les deux dernières, selon Blogger, c'est le déclassement des pages créées automatiquement par des logiciels blackhat pour créer des multiples pages en reprenant le même contenu mais en le modifiant automatiquement (synonymes, mauvaises traductions des tournures de pages, erreurs de conjugaisons par le programme, fautes liés au logiciel de création de page). Je pense qu'il a raison.

Dommage que des pages propres se font déclasser pour des bétises (on va parler de dommage collatéraux).
 
WRInaute passionné
Merci Ybet de partager tes analyses, elles sont précieuses. C'est appréciable de pouvoir profiter d'analyses de haut vol et de pouvoir en débattre. :)

Je donne mon modeste avis par rapport à ce que j'ai pu constater sur les sites dont je m'occupe :

1. Effectivement des pages à faible partie contenu ont tendance à être désindexées, l'ajout de texte et de liens externes est pour l'instant une solution.

Note : Ca change de l'époque où j'ai commencé le SEO quand Google indexait le plus de pages possibles, ils ont bien compris que le but n'est pas d'avoir le plus gros index, mais le plus pertinent. Ce que n'a pas compris Cuil...

2. Concernant les pages partenaires grisées : j'ai plusieurs pages partenaires sur mon site principal, elles sont toutes intégrés dans la navigation sur tout le site et dans le contenu à certains endroits, elles ont toujours du PR et envoient du bon juice à mes partenaires.

3.
Pourtant toutes ne sont pas touchées, les plus intéressantes, donc les plus visitées (même sans contenu supplémentaire) n'ont pas bougées

Oui, il est clair que le nombre de visites sur chaque page rentre maintenant dans le calcul de pertinence de la page, et, apparemment, il rentrerait aussi dans le calcul du PageRank exporté ?!?

4.
En troisième, quelques exemples de duplicate:

Tes exemples sont flippants, si une phrase de 6,7 mots peut passer en duplicate content, ça va faire mal... Quid des citations célèbres ou autres formules reprises un peu partout ? Ca me parait trop sévère comme filtre, peut-être est-ce un test ou qu'il y a d'autres éléments de corrélation entre ces pages ??
 
WRInaute accro
dadovb a dit:
En troisième, quelques exemples de duplicate:

Tes exemples sont flippants, si une phrase de 6,7 mots peut passer en duplicate content, ça va faire mal... Quid des citations célèbres ou autres formules reprises un peu partout ? Ca me parait trop sévère comme filtre, peut-être est-ce un test ou qu'il y a d'autres éléments de corrélation entre ces pages ??
Si tu crois que c'est déjà flippant, imagine la tête du Webmaster du troisième exemple quand je lui ais envoyé par MP .... même des phrases où la conjugaison est différente et avec des inversions de complément d'objet diret (genre: depuis des années, je suis suis WRI + je suis depuis des années sur WRI ...) ont aussi déclassé quelques unes de mes pages ...

Me suis fait avoir entre mes deux sites YBET (le nouveau 5 ans et la veille version sur mon fournisseur d'accès :oops: ). Sauf que là, aucun des deux sites ne s'est fait déclassé (trop vieux sans doutes, l'ancien a bien 10 ans), par contre, le dictionnaire informatique repris dans mes tests avec quelques tournures du genre repris sur mon WWW (en ligne depuis 3 ans quand même) lui n'est pas passé :?
Pourtant, sur celui-là, mes modifications du début du mois, c'est ... le record en visiteurs cette semaine :wink:

Pages vues (P) 5 307 (27/02/2008) 3 784
Visites (V) 1 941 (11/03/2008) 1 879
Visiteurs (Vr) 1 866 (15/09/2008) 1 816
Pages vues par visite (P/V) 73,0 (12/12/2005) 2,0
Taux de visites entrantes (TxVE) 100,0% (01/12/2005) 26,5%
Pages vues par visite entrante (P/VE) 73,0 (12/12/2005) 4,8
Durée moyenne des visites (D/V) 01:16:05 (18/12/2005) 06:47
Durée moyenne par page (D/P) 03:45 (27/01/2006) 01:24

et la montée vient des petites pages jusque là pénalisées ... Ca vaut un peu la peine de s'intéresser au problème. Même repris la première place en mondial sur une recherche en 1 mot après modifs d'une page ...
 
WRInaute passionné
Vraiment très enrichissant et manifestement bien mené, malgré la complexité de Google, réussir à faire des conclusions, on peut que te féliciter.

Je me posais juste une petite question. Tu parles de duplicate sur une page qui provoqué un déclassement. Y-a-t-il un déclassement uniquement de la page, ou des pages concernés, où ça entraine également le reste du site (moins mesure j'imagine).

Je prends par exemple 2 exemples, les boutiques de vente de livre et les sites de cinéma reprennent généralement les mêmes textes (mot de l'auteur pour le livre et synopsis pour les sites de cinéma) pour autant que je sache, ils sont tout de même bien référencé. Google ne serait-il pas faire la différence entre le contenu qui est nécessairement dupliqué et celui qui est volontairement dupliqué pour le référencement ?

(ps : dans mon cas à moi, je référence des livres dans le thème précis de mon site, et même si une partie est réécrite suite à ma lecture, une bonne partie reste du texte dupliqué. Comme j'ai un gros travail de rédaction sur le reste du site, j'ai pas nécessairement envie de voir ce boulot ruiné pour ça :))

Ah oui, évidemment +1 reco
 
WRInaute impliqué
ybet a dit:
3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation -> déclassement de toutes les pages avec un contenu trop faible

Bravo Ybet. Je reconnais mes pages grisées dans le cas 3 ci-dessus... et je ne peux pas y remédier pages de galeries de photos sous JS et pas de remède : je dois garder la navigation et l'ajout de texte est prohibé par le donneur d'ordre! :).

Mais le bon diagnostic du médecin soulage même quand on ne prend pas les médicaments :!: :lol:
 
WRInaute accro
tonguide a dit:
Je me posais juste une petite question. Tu parles de duplicate sur une page qui provoqué un déclassement. Y-a-t-il un déclassement uniquement de la page, ou des pages concernés, où ça entraine également le reste du site (moins mesure j'imagine).

D'après ce que j'ai pu constater en faisant des tests (similaires à ceux d'Ybet), Google sanctionnerait à la base simplement la page mais si ton site dépasse X% de page dupiquées, la google te sanctionne le site. Je n'ai cependant aucune idée du pourcentage exact et ceci n'engage que moi. Des tests sont encore en cours.
 
WRInaute passionné
Très interessant d'avoir une analyse détaillée sur le sujet.
+1

Les pages grisées correspondent chez moi a des pages de sommaire, la racine d'un dossier qui reprend tous les articles correspondant à ce dossier.

Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.

Un exemple, la même page exactement qui est grisée en version anglaise et à une barre verte en version française. Et c'est la version anglaise qui a le plus de backlinks! Cela doit avoir un rapport avec la concurrence.

En ce qui concerne le duplicate, Google a fait une clarification sur googlewebmastercentral.
 
WRInaute passionné
Merci Ybet pour tes tests :D


Jeviensderio a dit:
Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.

Je suis dans le même cas que toi, certaines pages de sommaire ont gardé leur PR mais pas d'autres alors qu'elles avaient la même structure.
 
WRInaute passionné
L.Jee a dit:
tonguide a dit:
Je me posais juste une petite question. Tu parles de duplicate sur une page qui provoqué un déclassement. Y-a-t-il un déclassement uniquement de la page, ou des pages concernés, où ça entraine également le reste du site (moins mesure j'imagine).

D'après ce que j'ai pu constater en faisant des tests (similaires à ceux d'Ybet), Google sanctionnerait à la base simplement la page mais si ton site dépasse X% de page dupiquées, la google te sanctionne le site. Je n'ai cependant aucune idée du pourcentage exact et ceci n'engage que moi. Des tests sont encore en cours.

Ok merci, dans mon cas c'est pas génant, les pages livres étant très minoritaire.

Par contre, je me dis que pour les comparateurs de prix, il y a de forte chance que la majorité de leur contenu se retrouve en duplicate et là aussi, on peut pas dire qu'ils se référencent particulièrement mal ?

Et au passage, est-ce que vos pages déclassées se sont aussi vite reclassées lorsque vous avez retiré ce qui vous aurez déclassé ?
 
WRInaute accro
tonguide a dit:
Et au passage, est-ce que vos pages déclassées se sont aussi vite reclassées lorsque vous avez retiré ce qui vous aurez déclassé ?

Ca dépend des passages de boot et les pages grisées sont effectivement mois visitées que les autres, quoique les dates de cache de Google sur les pages sont quasiment toutes fausses de quelques jours (parfois 15 jours et +) en arrière.

L.Jee a dit:
tonguide a dit:
Y-a-t-il un déclassement uniquement de la page, ou des pages concernés

Google sanctionnerait à la base simplement la page mais si ton site dépasse X% de page dupiquées, la google te sanctionne le site.

Même déductions ... surtout si le problème est anciens mais L-jee et moi avont beaucoup échangé de réponses par mp, aussi nos différents essais, on a fait le même travail en coopérant (c'est peut-être ca qui nous permet de comprendre), coopération ... mais ca a beaucoup aider.

Jeviensderio a dit:
Les pages grisées correspondent chez moi a des pages de sommaire,

Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.
Idem, c'est la raison pour laquelle j'ai rajouté des textes dans les sommaires du dictionnaire materiel-informatique.be.

dadovb a dit:
Jeviensderio a dit:
En ce qui concerne le duplicate, Google a fait une clarification sur googlewebmastercentral
Entre ce que Google annonce et ce qu'on constate sur nos sites, il y a une sacrée différence... :?
C'est de la comm. pour webmaster...

J'ai donné la réponse là https://www.webrankinfo.com/forum/t/demystification-des-penalites-google-pour-duplicate-content.99319/ c'est exactement de la communication. Ensuite, en faisant les tests de duplicate dans mes pages ... Google ne reprend plus ce qui est et le texte après le duplicate dans sont son cache, la partie au-dessus oui. Le blog raconte n'importe quoi.
 
WRInaute passionné
ybet a dit:
Jeviensderio a dit:
Les pages grisées correspondent chez moi a des pages de sommaire,

Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.
Idem, c'est la raison pour laquelle j'ai rajouté des textes dans les sommaires du dictionnaire materiel-informatique.be.

Ce qui a eu pour effet de reclasser ces pages les jours/semaines suivantes, ou tu n'as pas encore vu le résultat ?

J'ai moi-même remarqué ça, mais sans certitude, vu que ça a marché super bien pour 2 "sommaires" et pour l'un, ça a empiré.
 
WRInaute accro
A ton avis :wink: Ce qui est mis sur ce post, c'est aussi 10 mois de tests. Pendant ce temps, j'ai essayé des dizaines de combinaisons (parfois complètement farfelues j'avoue) si tu a lu le "dossier", tu saurais que oui pour les pages que j'ai réellement modifié. Mais faudra attendre la prochaine GD pour être sûr et certain. Dans le cas des pages de liaisons ne reprenant que des liens (même avec du texte autour, elles sont rarement dans les pages d'entrée (ou plutôt je vas pas m'amuser à vérifer ces pages dans les stats pour vérifier si elles ont bougées de une ou moins une visite comme page d'entrée).
Suis plutôt humain que robot, ....
 
WRInaute accro
Ca vous dit un petit cours d'orthographe, savoir lire la date et l'heure ... Ne révez plus, Google renvoit les pauvres petits référenceurs à l'école pour leur bien (suite et ... fin des 10 mois de tests sur les pénalités).

Google un sacré farceur

Là d'accord, je l'ai fait plutôt humoristique :lol: mais c'est sérieux. :roll:
 
WRInaute discret
Super boulot

Sur un petit site, j'ai une page partenaires ou il ya que des liens, depuis plus d'un an et toujours pas grisé..

Merci
+1reco
 
WRInaute impliqué
Ce que Google reproche a Bigannuire est peut-être une inscription automatique des sites par les webmasters, mais probablement plus la structure de la page d'entrée ne reprenant finalement que des liens.

Pas d'accord sur ce point. Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.

Quant aux pages à Pr grisé, c'est pricipalement des pages qui regroupent des titres de billets, des listes de liens. Donc non pertinentes d'un point de vue mot réactivité au mots clé présents. Je crois aussi que Dicodunet a subit cette pénalité. Il était tres pénible de tomber sur ce site en faisaint des recherches avec google sur plusieus mots. Les pages contenaient un tas de mots clés constistuée uniquement de titres de billets n'ayant pas trop de rapport entre eux. Aucun documents ne contenait en fait les mots clés recherchés.
 
WRInaute passionné
mariea a dit:
Ce que Google reproche a Bigannuire est peut-être une inscription automatique des sites par les webmasters, mais probablement plus la structure de la page d'entrée ne reprenant finalement que des liens.

Pas d'accord sur ce point. Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.

Difficile de croire que Google sanctionne les liens entrants sur un site, dans ce cas, il serait facile de faire plonger la concurrence...
 
WRInaute accro
medjaz a dit:
Sur un petit site, j'ai une page partenaires ou il ya que des liens, depuis plus d'un an et toujours pas grisé..
Là aussi, il y a quelques bizarretés, des pages reprenant la même structire sur materiel-informatique.be sont grisées, d'autres nom. Il suffit parfois d'un lien externe vers cette page pour tout changer (y compris pour les parties internes des annuaires ....)

mariea a dit:
Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.

Quant aux pages à Pr grisé, c'est pricipalement des pages qui regroupent des titres de billets, des listes de liens. Donc non pertinentes d'un point de vue mot réactivité au mots clé présents.
Pour les liens de retour, c'est plutôt l'inverse, quelques liens externes changent toute la donne, y compris pour les annuaires, un des mien est commplètement grisé sauf 3 pages qui ... ont un lien de retour mis gentillement par un des inscrit . En plus, sur Bigannuaire, le lien de retour n'est pas obligatoire ...
Déjà quasiment tous les annuaires (et généralement, ils imposent une description ...), c'est plus tout à fait une liste de billets ou de liens. En plus, de nouveau, toutes ne sont pas touchées. Probablement une partie à cause de leurs visites, quelques liens externes dessus aussi.

Et en dernier, si des sites sont mentionnés c'est comme exemple, savoir que tu n'apprécie pas un site n'apporte pas grand chose au post. Google n'a pas cassé bigannuaire ou dicodunet (et beaucoup d'autres) manuellement sur "dénonciation d'internaute". Rien qu'avec le nombre d'annuaires sur Internet, il faudrait une fameuse équipe de vérificateurs pour déterminer les quel sont bons et les quels sont mauvais. Et il n'y a pas que des annuaires qui sont touchés ...

Jeviensderio a dit:
Google chercherait-il à supprimer les intermédiaires de son index? (flux, annuaires, sommaires...).
L-jee a déjà fait remonter un de ses annuaires en supprimant le duplicate ... (pas exactement comme avant la sanction de juin mais pas mal, le dictionnaire que j'ai modifié pour duplicate + texte explicatif dans les listes de liens vient pour le troisième jour consécutif de battre son record d'audience ....
Rien dans tout çà n'est manuel, c'est juste des modifications (on va dire perfectionnement) de l'algorythme qui font que ca ressemble à des pénalités sur des sites spécifiques ... Corrigés, les pages remontent automatiquement.

directement en fin de la première page :wink:

Tiens, Google viens de comprendre un de mes petit tests de duplicate, 3 jours de présence sur les recherches puis disparue, y compris dans les pages ignorées (pourtant, au total, ca fait 50 résultats en prenant les pages ignorées et la page qui envoit le lien avec le texte est toujours bien présente) ... et sur ces trois jours, il n'a pas suivi mes deux liens vers deux autres pages ... La page duplicate va probablement réapparaître dans quelques jours à la 50 ième place en ignorée.
J'attend quelques jours pour lui envoyer un petit lien externe
 
WRInaute passionné
ybet a dit:
Ca vous dit un petit cours d'orthographe, savoir lire la date et l'heure ... Ne révez plus, Google renvoit les pauvres petits référenceurs à l'école pour leur bien (suite et ... fin des 10 mois de tests sur les pénalités).

Google un sacré farceur

Là d'accord, je l'ai fait plutôt humoristique :lol: mais c'est sérieux. :roll:

Encore un grand merci pour avoir éclairé nos lumières sur le PR grisé. Je vais te faire quelques BLs vers ton site, ce sera mon modeste cadeau de remerciement :wink:
 
WRInaute accro
ybet a dit:
L-jee a déjà fait remonter un de ses annuaires en supprimant le duplicate ... (pas exactement comme avant la sanction de juin mais pas mal)
Ceci dit j'ai viré pas mal de sites et vu que j'ai réécris les textes et amélioré certain titre, ça parait des plus logique que le trafic ne soit pas revenu entièrement mais a quelques 200vu/jour le trafic est revenu ;)
 
WRInaute impliqué
dadovb a dit:
mariea a dit:
Ce que Google reproche a Bigannuire est peut-être une inscription automatique des sites par les webmasters, mais probablement plus la structure de la page d'entrée ne reprenant finalement que des liens.

Pas d'accord sur ce point. Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.

Difficile de croire que Google sanctionne les liens entrants sur un site, dans ce cas, il serait facile de faire plonger la concurrence...

Je me suis mal exprimée. Je parlais des liens externes profonds ( et non internes) et de cette stratégie qui consiste a demander à chaque site inscrit dans un annuaire de renvoyer un lien vers la rubrique dans laquelle il est inscrit ...
 
WRInaute accro
rudddy a dit:
j'adore voir comment ybet manipule GG je suis MDR

Je manipule rien du tout, je vérifie simplement mes observations avec des pages faites exprêt pour Google reprenant tout ce qu'il n'aime pas et vérifie les positionnement :wink: C'est plutôt lui avec ses fausses dates de caches qui me manipule ... Pas moyen de s'y fier.

Viens de vérifier les parties de l'annuaire de dico, à chaque fois, duplicate avec WRI, les pages spécifiques aux sites dans l'annuaires quasimement toutes grisées dès qu'il y a un autre annuaire qui reprend la même (trouvé indexweb par exemple), sinon (cas de mon WWW), blanc ... Pas que les fluxs RSS dans ce cas, aussi le contenu... même sanction que les annuaires sauf que c'est WRI qui est passé devant à tous les coups. Par contre, de nouveau quand le contenu se retrouve sur trop de sites, les faibles sont supprimés du cache (mais présent dans les résultats oubliés ... donc connue). Attention tout de même au cache, il disparaît et revient suivant les recherches dans ce cache.

Pour le coup du lien externe venant d'un même webmaster (ou assimilés, on a déjà détécté ça quelques trois mois avec Bogger sur deux de nos sites :lol: , et c'est moi qui manipule GG sans doute :roll: ) , ca semble rappé ... Google connait le lien (même si la date des 2 caches sont fausses), mais page toujours pas revenu dans les résultats.

PS: pour ceux qui se demanderaient comment je fait pour savoir ou non dans les recherches, ... mes sites sont .be et donc nettement avantagés sur Google.be. Un terme spécifique qui n'est pas revenu sur la requête dans les premières pages uniquement belgique, ... pas la peine, elle est toujours mise de coté.
 
WRInaute discret
ybet a dit:
rudddy a dit:
j'adore voir comment ybet manipule GG je suis MDR

PS: pour ceux qui se demanderaient comment je fait pour savoir ou non dans les recherches, ... mes sites sont .be et donc nettement avantagés sur Google.be. Un terme spécifique qui n'est pas revenu sur la requête dans les premières pages uniquement belgique, ... pas la peine, elle est toujours mise de coté.

+1 Et reco :lol:
 
Nouveau WRInaute
déclassement des pages avec des conjugaisons fausses (genre j'ai **acheter** ... = surtout qu'en bossant un peu, on peut astucieusement placer ces mots pluriel tellement importants du genre ...sur notre site, vous allez pouvoir **trouver** comment :
- **acheter** nos articles seulement à partir de 1
- nous contacter pour plus d'infos avant de **commander**
 
WRInaute accro
ybet a dit:
Viens de vérifier les parties de l'annuaire de dico, à chaque fois, duplicate avec WRI, les pages spécifiques aux sites dans l'annuaires quasimement toutes grisées dès qu'il y a un autre annuaire qui reprend la même (trouvé indexweb par exemple)

Petite précision de langage: ce n'est pas indeXweb.info qui "reprend" la description, mais bien les webmasters qui soumettent un contenu identique à plusieurs annuaires (ce qui est d'autant plus suicidaire quand on le soumet à des annuaires à forte visibilité que quand on le soumet en automatique).

Bon nombre d'annuaires "sérieux" requièrent ou recommandent une description dite "longue", précisément dans le but de:

- forcer les gens à écrire, donc augmenter les chances d'avoir un contenu unique
- réduire les effets de duplication de contenu (cas de 1 à 2 phrases recopiées partout).

Lorsque précisément, sur ce genre d'annuaires, on fait un copié-collé de sa homepage, de sa page de "présentation", voire depuis un fichier .txt posé sur un coin du bureau... les effets sont probablement encore pires.

Pour éviter ça, j'envoie un avertissement assez clair (je l'espère... ) depuis plusieurs semaines: http://annuaire.indexweb.info/reference ... ml#warning ;)
 
WRInaute discret
MERCI YBET (je le dis haut et fort :) )

je vais reprendre tes points pour donner un peu de ma médiocre expérience :)


point n° 4, 5, 6
j'ai particulièrement apprécié les nouvelles notions "littéraire" de GG (duplicata/synonyme/orthographe/grammaire) et cela va me faire gagner du temps (j'allai lancer un site de vente spécialisé avec des articles trop proche de par la spécialité et donc dans leur présentation) donc MERCI (merci aussi HawkEye) au moins une semaine de gagnée! :)
par contre pour mon www c'est un travail de 3-4 mois pour le modifier et le mettre aux normes "iso-ybet-2008"

point n°1
pour la pénalité de vente de lien... le problème peut-être inversé et GG n'en prend pas compte. Avant j'avais un lien depuis un site mieux classé, (en fait il s'est mieux classé car les gens passaient par lui pour accéder à mon www, le webmaster piratant mon formulaire du dictionnaire) ...pas grave... puis une fois devant, il vire mon lien. Je vois une baisse de VU, je le contacte et il me demande de le payer pour remettre le lien! GG en a été averti, mais il ne puni pas ce genre de pratique : le chantage de disparition de liens ou le détournement de formulaire de recherche!

point n°3
De plus son site a une structure d'annuaire mais n'est pas basé sur un moteur php. GG semble être capable de reconnaître les moteurs d'annuaires plus que les annuaires en soi, sûrement à cause de la structure que nous (développeur) imaginons et le duplicate-content de nos descriptions (comme dit HawkEye: c'est de notre faute! Mais en même temps, à ma décharge, la description d'un dictionnaire latin-français varie peu).

La structure très "simple" (et le pseudo-code html) d'un annuaire fait sous **word** semble une valeur plus sûr pour GG (car plus amateur?!?) pourtant ses pages sont des suite de liens. Je pense que GG reconnaît des empreintes html des moteurs et pénalise aussi le mask-duplicate. C'est comme cela qu'il a éliminé nombre de wiki des résultats pourtant riche en texte.

point annexe:
toujours pour mon www, je me suis aperçu que le trafic baisse malgré un positionnement identique. Soit mon domaine passionne moins, soit les internautes changent de pratique. Le nombre de personne présentes (visiteurs et intervenants) au dernier festival européen latin grec de madame Antébi (http://www.festival-latin-grec.eu) semblent pourtant affirmer la passion pour le latin. Pareil pour le nombre d'èleves latinistes (1/2 million, constant). Le nombre d'internaute augmentant je devrais voir une augmentation du trafic avec mon positionnement identique. Alors que ce passe-t-il? https://www.google.fr/trends?q=dictionnaire+latin donne un aperçu: le nombre de recherche baisse! c'est faible mais si on l'oppose de la croissance des foyers connectés, c'est flagrant!

je ne remet donc pas en cause le latin, les étudiants, GG ou mon site, mais doit constater que les internautes changent!

Pourquoi penser que GG pénalise (pénalise "seulement" devrais-je dire)?
Pourquoi ne pas penser aussi que GG s'adapte à une évolution des demandes?
Car qui mieux que Google connait ce que recherche l'internaute?
L'algorithme(s) s'adapte pour être pertinent et on observe des dommages collatéraux. Surtout avec un système de PR contaminant (on déclasse un gros site ce qui déclasse les moyens, ce qui plombe les petits)
il y a peut-être aussi des "bugs" dans l'algo... GG ne semble pas utiliser un vrai algo mais plus des programmes d'évaluation de score avec filtres/analyseur/etc. et j'insiste sur "des".
 
WRInaute accro
HawkEye a dit:
ybet a dit:
Viens de vérifier les parties de l'annuaire de dico, à chaque fois, duplicate avec WRI, les pages spécifiques aux sites dans l'annuaires quasimement toutes grisées dès qu'il y a un autre annuaire qui reprend la même (trouvé indexweb par exemple)

Petite précision de langage: ce n'est pas indeXweb.info qui "reprend" la description, mais bien les webmasters qui soumettent un contenu identique à plusieurs annuaires (ce qui est d'autant plus suicidaire quand on le soumet à des annuaires à forte visibilité que quand on le soumet en automatique).

Forcément :wink:

J'ai quelques tests en route, aidés par des membres de ce forum (si un ou l'autre veut donner un petit coup de main, via MP). Ca consiste à mettre quelques pages bricolées sur des sites et envoyer des liens vers ces pages de quelques domaines.

Quand Google annonce sur son bloc que c'est la première page vue par les robots qui est reprise, c'est faux. Quelques sites semblent priovilégiés et passent quasiment à tous les coups (des annuaires bien sûr, mais aussi des sites de vente en ligne, ...)

Ca fait le deuxième message (sur deux forum différents en plus) que je répond où le site du webmaster a disparu, pas de chance, il a repris sont texte d'entrée comme description dans au moins un gros annuaire (j'ai pas vérifié, mais je pense qu'il remonte) et un autre qui met exactement le même contenu de ses pages sur les sites de vente en ligne.

Mais continue à recevoir des copier/coller sur mon annuaire comme si de rien n'était ....

Ps: je lit quelques posts depuis quelques jours, j'ai l'impression que la troisième vague de duplicate commence .... J'espère juste me tromper.
 
WRInaute accro
jfcontart a dit:
La structure très "simple" (et le pseudo-code html) d'un annuaire fait sous **word** semble une valeur plus sûr pour GG (car plus amateur?!?) pourtant ses pages sont des suite de liens. Je pense que GG reconnaît des empreintes html des moteurs et pénalise aussi le mask-duplicate. C'est comme cela qu'il a éliminé nombre de wiki des résultats pourtant riche en texte.
Ce n'est pas HTLM ou PHP que GG détecte, c'est la structure répétitive des forums. Fait toute tes pages en HTML en copiant le même header et la même colonne de gauche, ca sera le même problème .. C'est la structure du site qui pénalyse.

En deux, les WIKI sont la pire plaie d'Internet, ce sont en majorité eux qui copie le contenu des VRAIS sites. J'ai encore le cas avec un de ces trucs bordéliques du WREB2.0. Un farceur africain reprend comme partage d'information toutes des parties à la queue leu d'un de mes sites .... Mail au webmaster, c'est moi qui doit prouver que ca vient de mon site, en plus je dois mettre un certificat de sécurité pour rouver que je suis le webmaster, ..... Ca prépare un tribunal avec un de ces bordel américains (ou même mieux, un fameux duplicate content ...).

Mais Google les privilégie ... J'ai pas fait mes tests dans cet esprit (c'est pas mon genre), mais j'ai parfois envie de casser cette belle colaboration Google - copieurs de WIKI ... (mon petit coup de geule de la semaine :wink: )


C'est qui qui a parlé de ISO-YBET-2008?
nav_logo3.jpg


Reste plus qu'à faire comprendre à Google :oops:

PS Hawk: monte pas directement dès qu'on parle d'index, .... Les sites qui sont cités ici sont de deux groupes, ceux qui ont pris des pénalités et ... ceux qui semblent suffisamment correct pour Google pour passer devant. :lol: Dans les tests d'annuaires, WRI passe aussi devant. Et aucune intention de déclasser ou surclasser un site ou un autre (j'ai déjà répondu sur ce post à une petite réflexion mesquine sur un des site que j'ai cité), juste de donner des exemples de sites. Passer le duplicate, c'est plutôt bon pour index, ca prouve qu'il est "manuellement" bien vu pas les vérificateurs de Google.
 
WRInaute discret
ybet a dit:
C'est qui qui a parlé de ISO-YBET-2008?.
c'est moi! et me gueule pas dessus :) j'y suis pour rien si t'es spolié
ybet a dit:
Ce n'est pas HTLM ou PHP que GG détecte,
j'ai pas parlé de HTLM ou PHP mais d'empreinte html comme par exemple l'usage de structure dans la dénomination d'id ou de class qui sont identiques d'un site à l'autre utilisant le même moteur (souvent open source/ free). J'ai utilisé de nombreuse fois la notion d'empreinte html pour retrouver automatiquement des informations ... par exemple on retrouve les forum phpbb via une empreinte comme "<dd class="lastpost"><span><dfn". On classe alors très vite les pages en fonction de l'empreinte qu'elle affiche. l url étant trop facilement modifiable par url-rewriting.
honnêtement en 1 mois je peut avoir 99% des empreintes des moteurs open-sources (forum/cms/e-commerce), alors GG avec sa puissance doit utiliser cette notion d'empreinte. Reste à savoir ce qu'il en fait. Mais passe au travers les sites montés de toutes pièces (comme les sites non dynamiques) ou des moteurs de site indépendant (comme mon www) d'où une autre idée le mask et le mask-duplicate (intra site ou inter site)

ybet a dit:
Fait toute tes pages en HTML en copiant le même header et la même colonne de gauche, ca sera le même problème .. C'est la structure du site qui pénalyse.
on peut par soustraction de plusieurs pages d'un même site, extraire un mask et ne plus le prendre en compte. d'où le mask-duplicate (une notion que j'ai déjà évoqué dans un de mes posts) et entre site on peut valider un mask-duplicate et donc pénalisé des sites qui sont trop similaire dans la structure (au dela du moteur ou du duplicate content)

(re)lis calmement avant de (re)piquer un phare ... :p

les wiki t'es contre... moi aussi ... mais de nombreux wiki sont mal classés (heureusement) et GG a pris des disposition contre wikipedia (enfin moi je les vois pas mais GG le dis) j'ai dis "riche en texte" pour dire qu'il y avait beaucoup de texte, j'ai pas voulu dire "original en texte"... les wiki c'est une plaie! :(

t'as été volé... moi, on m'a piqué ma place SERP en détournant ma base durant plusieurs mois :p mais c'était pas un wiki, ni un site dynamique. Au delà du wiki, c'est un type d'individu qui faut pénaliser: les voleurs et spolieurs !

quand à l'anti GG j'en suis un partisan! (primaire :roll: )
 
WRInaute accro
jfcontart a dit:
mais d'empreinte html comme par exemple l'usage de structure dans la dénomination d'id ou de class qui sont identiques d'un site à l'autre utilisant le même moteur (souvent open source/ free). J'ai utilisé de nombreuse fois la notion d'empreinte html pour retrouver automatiquement des informations ... par exemple on retrouve les forum phpbb via une empreinte comme "<dd class="lastpost"><span><dfn". On classe alors très vite les pages en fonction de l'empreinte qu'elle affiche.

Une idée à suivre probablement, j'ai pas vérifié dans les résultats de Google (sauf ton exemple, mais là je tombe sur une vingtaine de résultats de phpbb mais aussi de .... joomla).

De toute façon, GG n'a pas déclassé des paquets de sites en même temps rien qu'avec un truc de duplicate (ou autre), ...
Je vois mal des trucs aussi énormes sans une phase préparatoire. Quand je change de serveur pour un site, me lève pas le matin en me disant que je le ferais bien, puis le faire en 5 minutes en buvant ma tasse de café, je prépare le terrain avant. Google lors de ces francs déclassement devait avoir rajouté quelques champs dans ses bases de données pour chaque page (site). Lorsqu'il a tourné le bouton, les pages qui avait des caractéristiques dans un ou plusieurs champs sont automatiquement tombées, à la trappe.

Pour wikipedia, pour un site plus aidé par Google, il continue a drolement bien se porter, à peine une petite descende pendant l'été.

-http://trends.google.com/websites?q=wikipedia.org

Encore la "fausse communication" de Google, ca devient une habitude.
 
WRInaute discret
hi hi :) la notion d'empreinte ne fonctionne qu'avec la notion de marqueurs multi-points: plus on a de marqueurs spécifiques moins on fait d'erreur (comme pour les empreintes digitales ou ADN) et on les utilise via des ereg. Le vrai algo c'est donc des ereg compliqués à multiples impacts et ça vaut cher :). Pour les empreintes digital je crois me souvenir qu'il faut au minimum 7 marqueurs positifs pour avoir un match. Pour un site internet compte 3-5 (et oui un site est plus simple qu'une empreinte digitale) mais tu peux en cherche 30 si tu veux

imagine... je suis capable depuis une page de déterminer son genre (ou ses genres) (cms, forum, wiki,...) et même le moteur utilisé. Certes, certains passent à la travers mais je peux les rattraper par mot clef ("ajouter panier" ça sent grave le e-shop) , sinon, tant pis pour eux car :
Je peux classer les résultats en fonction de la demande!
par exemple avec le mot "problème + mot-clef", je favorise les forums, alors qu'avec "appareil photo + marque" je favorise les e-shop... car j'utilise aussi un filtre d'entrée qui va agir par dichotomie connotative...

La pertinence semble s'envoler. Mais en vérité j'adapte mes filtres et scores au type de demande (facile à faire, j'ai les stats de toutes les recherches). Exit les sites de news sur les APN si je favorise les e-shop... ils se déclassent sans avoir rien fait de mal. OU je fais l'inverse, je favorise les site de news et propose des adword aux e-shop que je déclasse ainsi volontairement. (qui à crier "jf = pourriture de capitaliste" :) )

GG c'est pas des cons... si je sais le faire, ils le savent. Toute la valeur de ce type de moteur de recherche (comme mon www) c'est les programmes de scores, les filtres et les bases de données et surtout la façon dont on interroge les bases!

si je te donne pas mon algo exact (y encore des dizaines de paramètres) j'imagine que GG qui pèse des milliard de $ de plus que moi va être encore plus réticent :p
le traitement de données complexes c'est un peu mon dada ... mon www traite 3,5 millions de données classé, trié, annoté, évaluée, etc.

un jour je devrais monter ma boite d'algo! :p un jour :)
 
Nouveau WRInaute
Bonjour,

Ayant plusieur site de e-commerce reliés au même serveur mysql, faut-il que je supprime complètement mes sites secondaire proposant des description de produit identique associé aux mêmes produits ? (même si le nom des catégories est différentes ?)


Merci
 
WRInaute accro
jfcontart a dit:
GG c'est pas des cons... si je sais le faire, ils le savent. Toute la valeur de ce type de moteur de recherche (comme mon www) c'est les programmes de scores, les filtres et les bases de données et surtout la façon dont on interroge les bases!

Vu comme ca, j'en doute pas ... Ce qui expliquerait peut-être que dès que je tape une requête concernant un équipement informatique général (genre ordinateur, imprimante jet d'encre, disque dur, ...) ou même d'autre on retrouve quasiment chaque fois un mélange de sites d'indications et de vente + un comparateur de prix (génaralement 1), ... il y a deux ans, les recherches de ce type étaient envahies de site de vente ...
Je pense de plus en plus que Google manipule aussi les résultats pour afficher ce que l'utilisateur à envie de voire (ou plutôt ce que ses ingénieurs et autres statisticiens linguistes, .... pensent que les utilisateurs ont envie de voire) et pas forcément les meilleurs sites, quitte à faire passer un copieur ou autre. C'est aussi valable pour les aides à la recherche en dessous, elle est pas tout à fait neutre :twisted: Chaque fois des complément, mais dans la majorité des propositions, une marque ... et une seule avec juste le nom. Sur GG.be comme sur GG.fr: disque dur -> Maxtor, imprimante jet d'encre -> epson, imprimante laser -> Brother .... (on va dire que c'est de la médisance ou que c'est pas fait exprêt).


squall6969 a dit:
faut-il que je supprime complètement mes sites secondaire proposant des description de produit identique associé aux mêmes produits ? (même si le nom des catégories est différentes ?)

Les catégories sont de la navigation, pas du contenu donc probablement pas prises en compte dans le contenu des pages produits.

Vérifie déjà les quelques sont repris dans les recherches de Google ... Ca te donnera une idée si tu dois le faire (là il y a de fortes chances) et quels sites sont "sanctionnés". Te suffira peut-être d'en garder un ou deux. Te conseille pas de tout faire le même jour non plus.

Une remarque néanmoins, Google vérifie de plus en plus les sites qui appartiennent au même webmaster. Il y a moins de sanctions (j'ai pas dit pas, j'ai dis moins) entre les sites de la même équipe (ca joue pas forcément qu'avec le WHOIS), mais aussi compte adsence, adword, compte webmaster, ... mais aussi les webmasters qui ont l'habitude de s'envoyer des lines "cadeaux"). Ca semble être valable dans les deux sens, moins applicable pour le duplicate, mais de l'autre coté les liens "externe" du même groupe ont l'air d'être moins pris en compte.
 
WRInaute discret
ybet a dit:
Ce qui expliquerait peut-être que dès que je tape une requête concernant un équipement informatique général (genre ordinateur, imprimante jet d'encre, disque dur, ...) ou même d'autre on retrouve quasiment chaque fois un mélange de sites d'indications et de vente + un comparateur de prix (génaralement 1), ... il y a deux ans, les recherches de ce type étaient envahies de site de vente ...

exactement... limiter une recherche avec un ESHOP=2, FORUM=3 , COMPARA= 1 ... c'est très facile :) et ça n'empêchera pas les sites de monter "naturellement" car je ne fige pas les résultats : je les limite
 
WRInaute passionné
jfcontart a dit:
GG a pris des disposition contre wikipedia (enfin moi je les vois pas mais GG le dis)

On peut avoir la source?

Mais c'est un fait qu'il stagne selon Alexa/Trends, à défaut de baisser, cela avec x nouvelles pages par jour.
 
WRInaute discret
Jeviensderio a dit:
On peut avoir la source?
c'est le fameux rel="nofollow" et les mesure anti bombing ...
http://googleblog.blogspot.com/2005/01/ ... -spam.html
http://googlewebmastercentral.blogspot. ... bombs.html

si je me souviens bien wikipédia avait à un moment une telle notoriété qu'il était présent sur toutes les requêtes et pour plusieurs pages car des petits malins créaient plusieurs articles sur TOUS les sujets. On l'utilisait pour des techniques dit bombing profitant de son PR pour afficher n'importe quoi en haut des pages de google et avoir des liens a fort PR! GG avait alors annoncé qu'il travaillait à éliminer les PR "malhonnêtement gagné" de son index et les "attaques forum", les "attaques commentaires" les "attaques wiki" bref les googlebombs by link
et on a rapidement observé un retour à la normal, même si on avait encore souvent un premier (et un seul) résultat Wikipédia.

Google à signer un chartes avec certains sotware de forum, blog et wiki pour mettre en place le rel="nofollow" que Yahoo et MSN ont aussi adopté (en accord avec GG? je sais plus)
Wikipédia de son coté a empêché le commercial-link avec des nofollow et a commencé un long travail d'épuration des pages bombing:)

reste que de nombreux articles mal fait reste en tête du classement... d'ou en 2007 un autre système anti bombe googlebombs
We wanted to give a quick update about "Googlebombs." By improving our analysis of the link structure of the web, Google has begun minimizing the impact of many Googlebombs.

les wiki ont eu beaucoup moins de SERP dans les résultats (moins de sous pages si la page principale était là, pas de page vide, etc.)

bref un bon gros nettoyage :)
 
Olivier Duffez (admin)
Membre du personnel
je ne vois pas bien en quoi le passage des liens externes sur wikipedia en nofollow peut expliquer une baisse de sa visibilité dans Google ?
d'ailleurs depuis l'introduction du nofollow (qui ne date pas d'hier), il me parait évident que Wikipedia a au contraire augmenté sa visibilité dans Google (mais ça n'a pas de rapport avec le nofollow)
bref, je ne comprends pas pourquoi tu as dit "GG a pris des disposition contre wikipedia"
 
WRInaute discret
avant le nofollow on avait plein de webmaster qui se plaignaient que wikipédia piqué la moitié de place devant eux! :)

Le nofollow a provoqué l'arrêt d'un type de bombing et des pages satellites, qui provoquait aussi une actualisation constante des pages par les spammers et les équipe anti-spammers et on savait que GG aimait les nouveautés. Avec le nofollow les modifications spam/anti-spam ont cessées. L'intéret de la page aussi.

Mais il n'y avait pas que du bombing brut, il y avait aussi des articles avec de vraies références.
Mais pour quoi faire des articles si on ne tire pas un profit au moins en PR pour son site qui est plus complet/spécialisé? Donc on vire son article de vulgarisation! Bref s'y ajoute un désengagement pour wikipédia qui a eu un effet négatif, 2ème claque.

et puis si je suis pas sur wikipédia je ne lui fait plus de liens et paf 3ème claque.

la parano du lien commercial (malgrès le nofollow) de la part des modérateurs a même plombé leur propre impartialité. Par exemple wikipédia utilise des références de mon dictionnaire pour expliquer des mots latin, mais refuse de me mettre en lien... ils écrivent "sur dicolatin on trouve que le sens de XXXX blabla donc bla bla ....", pas de lien, pas de référence sur le site, juste ma marque "dicolatin"... pourtant avec un nofollow le but et de faire des liens vers les sites sans leur octroyer de PR. Et bien quand je leur ai signalé, un modo m'a permis de rajouter le lien en réf, un autre l'a élevé en m'accusant de pub... Alors que c'est eux qui utilisent mon site comme référence. Depuis le nombre de référence à mon site diminue, la taille des textes aussi, l'argumentation aussi, l'intérêt des pages avec...

certes wikipédia s'en sort bien, et on ne voit plus de gens se plaindre de spolier la moitié de la première page de GG (c'est du aussi à la deuxième modification de janvier 2007 quick-word-about-googlebombs...)

les résultats présentant wikipédia ont même (comme tu l'as constaté) gagné en pertinence. Disons qu'il est rentrer dans le rang et a prouvé à GG sa respectabilité... on le voit moins partout mais mieux au bon endroit

GG a modifié l'attitude des Wikipédiautes avec son nofollow...

c'est mon interprétation du nofollow sur wikipédia
 
WRInaute accro
Sans m'imiscier dans une conversation "hors sujet" :wink: je pense aussi qu'on voit moins wiki sur GG (en Google.be, doit plus avoir des tas de bonnes places intéressantes sur l'informatique pour lui - bon, il y a moi :lol: non là je rigole :oops: ).

Petit rappel quand même, sur des pages sanctionnées pour lien trop voyant vers un copain (WRI par exemple, mais beaucoup d'autres) mettre LE lien en nofollow ou en follow n'a rien changé.
De toute façon, j'attend bien 15 jours pour ne pas dire d'anneries, surtout que d'autres tests sont en cours en mélangeant des sites de webmasters qui normalement seront jamais repris comme "équipe de webmaster". Les noms seront cités ici en même temsp (une bien petite récompense pour un merci, j'en convient).
PS: Olivier (WRI) et d'autres ne participent pas à ces tests à ma demande tout simplement parce que des sites de chez moi envoient des liens vers WRI et d'autres sites, et par expérience, Google le détecte beaucoup plus vite qu'on croit. Un métamoteur (me rappelle plus le nom) affichait déjà les différents liens de sites il y a quelques années et je rejoint assez jfcontart dans quelques uns de ses posts, Google est plus en avance qu'on ne croit sur le positionnement (cf dans les résultats des mélanges de sites), mais intéressont nous plutôt aux sanctions, là je crois que quasiment toutes les pistes sont abordées ...

Les tests en cours sont plutôt:
. pages grisées et sanctionnées puisque les pages corrigées restent grisées jusqu'à la prochaine GD) envoient-elles un lien ou non
. est ce que le lien est suivi (ou non)
. est ce que des liens internes (ca on sait déjà que non), externe de sites du même webmaster, du même groupe de webmaster ou de webmaster externe (sans liens entre les personnes donc plus susceptibles d'être naturels) permettent de passer la sanction sans rien faire d'autre.
. est-ce que des sites sont avantagés contre le duplicate, d'autres moins ou pas du tout, on va parler de trustrank (y compris notre wiki national, sites web 2.0 ou assimilés, ou sites jugés comme de confiance)
. est-ce que le premier connu par Google est d'office l'original
.. + quelques autres

C'est déjà de gros points. J'ai déjà des bonnes idées de ce qui se passe.

Sauf que comme mentionné en MP à quelques uns, j'attend en premier des confirmations, en deuxième puisque ces tests seront uniquement donnés sur ce forum les recommandations du Boss juste avant de poster. Normal puisque ce site est le sien, et en plus parceque citer un de ses sites dans ce post ne m'a pas valu de mails, sanctions, ou autres. En gros, je gère les tests, mais la suite appartient à ce forum et à ses membres.

PS: peut pas avoir une boîte mail pour mes MP un peu plus grande, genre 10 GB :lol: ... bon tant pis :wink:
PS2: j'attend aussi des réponses à des petites questions envoyées aux webmasters dont le site a l'air de reprendre pour leurs modifications éventuelles, si vous faites partie de ceux-là, une petite réponse serait sympathique, merci.
 
WRInaute discret
Super ton étude je l'ai lu completement félicitation!!!


ybet a dit:
3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation ->
déclassement de toutes les pages avec un contenu trop faible

4. contenu dupliqué ou copié, en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google cf. https://www.webrankinfo.com/forum/t/un-permis-obligatoire-pour-aller-sur-internet-faudra-y-pens.99280/

Pour ce qui est de ce déclassement peux tu me dire si tu as contacté un déclassement de 1, 5, 10 pages ou plus?
Ou si les pages ne sont carément plus présente dans les serp?
 
WRInaute accro
contre exemple a dit:
Super ton étude je l'ai lu completement félicitation!!!


ybet a dit:
3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation ->
déclassement de toutes les pages avec un contenu trop faible

4. contenu dupliqué ou copié, en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google cf. https://www.webrankinfo.com/forum/t/un-permis-obligatoire-pour-aller-sur-internet-faudra-y-pens.99280/

Pour ce qui est de ce déclassement peux tu me dire si tu as contacté un déclassement de 1, 5, 10 pages ou plus?
Ou si les pages ne sont carément plus présente dans les serp?

J'ai pas regardé dans les résultats ce matin, mais ce "petit duplicate" suis son cours. Une autre page de tests reprenant lâ même phrase a complètement disparue. Aucune illusion, en cas de duplicate, à de rares exceptions prêt", trois jours présente, disparaît quelques jours, revient parfois un jour ou deux puis disparaît.

Pour l'instant, m'occuppe beaucoup plus des exceptions. Mais pour la majorité des petits sites, c'est la disparition assurée. Encore un petit exemple sur le forum ce matin .... :( Petit site, même phrase pourtant standard et baisse directe, les pages internes ne sont plus visitées par Google, mais là je sais déjà depuis des semaines qu'elles n'y sont généralement pas, c'est l'effet boule de neige des sanctions. Quelques pages déclassées à la bonne place (si on eut dire) et toutes les pages internes disparaissent des résultats, y compris renvoyer des liens vers les pages au-dessus ... du coup, les grosses pages du dessus diminuent aussi.
 
WRInaute discret
ybet a dit:
Quelques pages déclassées à la bonne place (si on eut dire) et toutes les pages internes disparaissent des résultats, y compris renvoyer des liens vers les pages au-dessus ... du coup, les grosses pages du dessus diminuent aussi.

C'est l'effet viral et ouroboros du PR :twisted: ... ici en version "intra-site" (par opposition à "inter-site") :roll:
 
WRInaute impliqué
OUI !

bien sûr...
j'ai des pages de mon site qui sont mal vues par Google (PR grisé) car ce sont des pages qui n'ont pas de texte mais que des liens... Je me demandais pourquoi.

sur ma page "art de vivre" j'ai mis un lien (plusieurs liens en fait) jadis vers WRI/dico... Et là cet été, je suis passé du top 10 au top 210... Sans rien faire d'autre que d'attendre que Google me pénalise pour ces liens sortants...
M'en fous cette requête ne m'a jamais apporté de visiteur ;-)

Au printemps dernier j'ai enlevé les 4 ou 5 liens sortants de ma home et hop ! j'étais passé de PR4 à PR3 en hiver et après cette action le PR4 est revenu.
 
WRInaute accro
luxe-campagne a dit:
Et là cet été, je suis passé du top 10 au top 210... Sans rien faire d'autre que d'attendre que Google me pénalise pour ces liens sortants...
M'en fous cette requête ne m'a jamais apporté de visiteur ;-)

Au printemps dernier j'ai enlevé les 4 ou 5 liens sortants de ma home et hop ! j'étais passé de PR4 à PR3 en hiver et après cette action le PR4 est revenu.

D'abord, oublie le PR, celui affiché n'est probablement plus que comme un outils de marketing webmaster de Google.
Des liens sortants ne pénalisent à ma connaissance une page que s'ils sont jugés trop "envoi d'un lien copain". De cette page, j'en envoit plus de 1000 -http://www.darut.be/annuaire.php et elle passe sans aucun problème Par contre, -http://www.materiel-informatique.be/webrankinfo.php s'est fait coulée dès le mois de novembre. Tout essayé, modifier le texte du lien, le mettre dans le contenu plutôt qu'au bas du contenu, nofollow, ...

Un lien externe tant qu'il ne semble pas pour GG j'envoit du PR (le texte de GG), mais surtout j'envois un gros lien, ne pénalise pas une page. Je sais que certains en sont persuadé mais non, tant que le lien est fait pour les visiteurs (thématique ou autre). Que le lien soit suivi ou non par les visiteurs n'intervient pas non plus ... Ca parait débile mais j'envois des liens entre mes deux principaux sites d'informatiques, une de mes page est grisée pour duplicate et recoit dans les 20-30 visiteurs de l'autres. GG n'en tient pas compte non plus, elle reste invisible sur le moteur.

Si ta page est PR3 ou 4, elle n'est pas pénalisée (pas tout confondre non plus, une baisse de PR ne signifie pas une sanction, une baisse de visiteurs ne signifie pas non plus que Google a décidé de casser un site, toutes les pages avec un PR gris ne sont pas non plus des pages pénalisées, elles sont parfois simplement pas mises à jour par Google parceque pas assez linké en externe ou en interne). Pour les liens de la home, ma boîte MP a débordée hier avec des contacts de webmasters avec des sites "à problème", une des technique réussie pour un site a justement été de supprimer les liens en footer de toutes les pages pour ne plus les mettre que de la Home.
 
WRInaute impliqué
Je précise aussi car c'est important à mon avis :
Les pages de premier niveau qui n'ont pas de backlink (externe) ont été systématiquement grisées.
 
WRInaute accro
Bonjour.

Ben deuxième vague, pas de tests mais de résultats.

En ce moment, GWT est en cours mis à jour. Je conseille à ceux qui ont fait des modifications d'aller voir leur compte + le pR de quelques pages. Il y a aussi une mise à jour du PR en cours pour quelques pages, j'ai pas réellement vérifié les modifs, juste grisé ou non).

Pour mon petit dico, 14 pages modifiées sont réaparues dans GWT (apparament des modifications de plus de 3 semaines et ces pages reviennent. Toutes les pages modifées ne sont pas revenues, mais ce sont pas forcément des pages avec beaucoup de liens internes, donc probablement pas encore réintroduites dans l'index (le temps que GG les sorte du placard de la vieille commode) :roll: Quelques pages grisées qui avaient des liens externes d'un même forum sont réaparues après modifs (mais je reçoit beaucoup de liens de celui-là totalement naturel, sauf que GG semble ne pas les voire).

Une seule page non modifiée est revenue (PR2 + GWT) avec un lien externe d'un site inconnu (sous-entendu pas d'un webmaster avec qui j'ai des contacts).

Sinon, les pages de lettres ont leur PR modifié variation suivant les pages de 3 - 4 - normalement elles sont toutes PR 4. Une seule qui était présente mais où j'avais laissé le duplicate est passée en grisé. Deux autres sont revenues.

Une page de catégorie passe de grisé à PR3 depuis une petite heure ... et comme par hasard, elle est revenue dans GWT.

On sait maintenant que des pages sanctionnées peuvent revenir avec un lien externe (d'un autre webmaster non associé). Mes metits liens personnels n'ont pas marché.

J'ai pas eût le temps de tout analyser, d'autres tests sont toujours en cours notamment au niveau des liens de sites externes qui ne sont ni de mes sites ni des sites que Google a assoscié aux miens.
 
Nouveau WRInaute
Comme je le disais dans un autre post, au niveau des sanctions de PR, voici où j'en suis :

- je passe PR 5 sur le home début mai avec plein de pages à PR4, 3...
- PR 3 sur la home mi mai avec toutes mes pages à PR 0,
- PR 2 en juin sur la home

J'ai changé mes pages en mettant moins de liens internes... mais rien ça chute...


- PR 0 depuis hier...


Je n'ai, par contre, pas de perte de traffic... mais j'ai un PR à 0 partout.

A mettre en pratique :
- virer mes deux échanges de liens ?
- réduire le nombre de liens par pages ?
- changer la structure du site ?
- écrire à google ? même si le PR ne sert à rien, je pourrais peut être avoir une explication sur cette "sanction"

qu'est ce qui serait le mieux ?
 
WRInaute accro
Google doit avoir trouvé quelque chose sur la page, probablement le nombre de liens sur la droite trop important par rapport au contenu . Aucune page d'index de site qui correspond à mes sanctions n'a amais été grisé (dans ce cas , c'est une réelle pénalité de type achat de liens ou autres tricheries). T'a juste descendu le PR de la page d'entrée mais de 5 à 0, ca fait un peu beaucoup.
 
WRInaute passionné
Sur mon WWW, j'ai une partie de mes rubriques avec un PR grisé. Les tests d'Ybet m'ont fait réfléchir à ce problème.
A l'origine, les rubriques étaient construites avec un H1 et deux ou trois H2 max, Toutes avaient du PR. En regardant le fonctionnement des blogs, j'ai mis un H2 sur chaque titre en espérant que cela apporte un peu plus de poids. Après cette modif, les rubriques avaient un H1 et pouvaient avoir entre 10 et 20 H2 comme la rubrique Voyage ICI . Cette rubrique voyage est passé d'un PR 3 à un PR grisé.

Après la lecture des tests d'Ybet, j'ai modifié la rubrique Vie quotidienne ICI qui était réalisée comme la rubrique Voyage et qui avait perdu son PR 3 pour un PR grisé.
Après l'export de ce W.E., la rubrique modifiée Vie quotidienne vient de récupérer un PR 2 tandis que la rubrique non modifiée Voyage reste avec un PR grisé.

Maintenant je vais modifier la page voyage pour voir si je récupère un PR au prochain export.
 
Nouveau WRInaute
Bah justement je n'aime pas jouer au con avec google... j'ai simplement fait un échange de liens avec deux sites...
 
WRInaute accro
Dernière ligne droite

D'abord, j'avoue avoir longtemps hésité à mettre cette partie, deuxièmement, merci aux webmasters qui ont participé, troisièmement, si je faisais confiance dans l'équipe de Google pour sa pertinence, ... j'en doute de plus en plus. Les conclusions sont pas pas franchement géniale pour tous. J'en dirais assez mais pas trop. Désolé aussi si je serais moins présent sur WRI dans les prochaines semaines, ... les sites que j'ai analysé m'ont un peu cassé le moral, et j'ai maintenant quelques coups de mains à donner.

Cette partie prend les corrections, ce qui a marché bien, ce qui a marché pas trop mal et ce qui a pas trop fonctionné.
On a même pensé que les résultats d'AOL utilisant les résultats épurés de Google donnait des indications, des tests de % de mots, des trucs plus ou moins débiles où un ardennais essayais de son coté aussi des solutions farfelues (mais les différents déclassements liés aux petites manies des webmasters, quoique finalement logique dans l'esprit d'un moteur de recherche, sont tout aussi farfelues).
Dans cette série, il y a eut quatre équipes qui ont participé. D'abord mes potes (j'avoue surtout 1) plus mes propres déductions, deuxièmement la partie "comprendre", en troisième les idées "comment corriger" et en dernier des autres ... Cette fois, ce posts va aussi les remercier, un juste retour de leur aide.

Les méthodes que je vais donner ici sont mitigées, souvent ca passe, mais pas chaque fois. Je vais juste donner des pistes.

Avant de débuter, quelques notions nouvelles.
1. les groupes de sites.
2. les sites jugés de confiance
3. les liens et corrections.

Je vais commencer par les groupes de sites. Le Whois, certains pense que Google (Registar) les utilise. Je le pense aussi, mais la technique est nettement plus statistiques. GG ne voit pas un webmaster mais des groupes de sites qui ont une petite tendance à se faire des liens amicaux (donc pas forcément naturels). J'envois un lien d'un site vers un autre de mes site, normal, ... par contre, pour les tests de sanctions: NIET. On le sait déjà depuis des mois avec Blogger mais on avait un peu forcé la dose il y a deux ans pour un concours :? J'en ais tenu compte dans les tests et visiblement, GG regroupe les webmasters en fonction des liens entre sites: directe, échange, croisés, ... Deux groupes de sites pas liés, ca passe. Ca va peut-être changé les donnes complètement, si pas maintenant, du moins dans les mois qui viennent (et le référencement, c'est aussi prévoire).
Les sites Jugés de confiance, j'ai gentillement joué avec Google, lui soumettant des pages clairement duplicate. Le but de départ était de mettre une page avec du texte duplicate (pas un peu en plus, tant qu'à faire :wink: ) entre des sites de gabarits différents. J'en ai utilisé 7 ou 8 pour le principal. D'abord l'original (les annonces refusées de darut.eu, l'original avec un mois d'avance), WRI (le tests sur le forum), mon WWW, un autre petit des miens plus quelques autres petits aussi que les webmasters ont accepté d'essayer (vite supprimés pour ne pas mettre en péril leur site, 10 visiteurs par jours, ca semble humoristique peut-être mais des sites commerciaux genre location de vacance, c'est suffisant).
En dernier, le but était de voire si quelques liens externes (pas du même groupe de webmaster) permettait de revenir (sans modifications) en PR et ... en recherches.

Les tests. Les parties principales sont (pour le moment) sur la page de mon WWW. Comme les déclassements commencent aussi à apparaître, elle reseront plus longtemps :?
1. Dans les liens, il y a vers un autre de mes site OEM (donc 2 sites liés). J'ai juste un peu corrigé le contenu (sans forcer, dirait même sans réellement forcer). Dernière modif de la page en elle même 19/09, mis en lien le 15. La nouvelle version est connue de GG depuis quasiment 15 jours. PR grisé mais ca faut du temps, mais toujours pas reprise dans les recherches. Déjà une indication sans corriger, pas de modif. Un liens "copain" avec de toutes petites modifs, pas de résultats non plus.
2. le duplicate Sur Darut.eu, largement sanctionné pour la nouvelle version de positionnement, une annonce détectée comme .... IP fausse recoit le texte


Désolé, mais notre système de localisation a détecté que le pays de celui qui a déposé l'annonce ne correspond pas à celle mentionnée dans l'annonce. Cette offre peut être une tentative d'extorsion.

Cette annonce a été modérée par Darut.eu

Jusque là ... mais ca rappelle le post sur WRI
https://www.webrankinfo.com/forum/t...-pour-aller-sur-internet-faudra-y-pens.99280/

:lol: mais non je l'avais pas fait exprêt :cry: :p . Au départ, le site qui reprend le massage reste dans les recherches et WRI deviens premier deux jours (avec ou sans les "") On es le 11 /09. 3 jours plus tards, WRI en Duplicate disparaît des recherches puis revient deux jours plus tard (jusque là, je m'y attendait, d'autres pages suivaient le même chemin depuis des années) ... et pourtant, WRI revient. En même temps, le 15 je démarre cette page http://www.ybet.be/1a.htm
Un seul lien de ma page d'accueil (aucun copain ou autres):
. un petit texte avec ancun duplicate
. un lien vers ertzvb (du titre et contenu)
. le duplicate
. un lien vers une nouvelle page ertzvc

Mon idée est de vérifier si le premier lien (avant le duplicate) est suivi et l'autre ... non. Début des hostillités, le 15, Google connait la page A, mon WWW et reprend les deux sur ertzva (en plus il propose la correction orthographique ertz - j'ai choisi la difficultée). Deux jours et la page disparaît sur ertzva. Le 23, envoit d'un lien d'HervéG (on n'a normalement aucun liens de nos sites). Le lien est connu, même si pas dans le cache le 25. et ... la page ertzva réapparaît + en troisième la page d'hervé.
Génial un lien externe, pas de relations entre les sites fonctionne...
Si je peut tirer un conclusions sur cette partie, un seul lien d'un webmaster qui n'envoit pas des liens normalement vers une page d'un groupe de webmaster connu par GG fait passer la page (je sais, c'est une petite reqête).
Reste les deux pages suivantes, ertzvb et ertzvc (les liens sur la page duplivate :wink: ).

Inconnu depuis le début (page A connue), le petit lien de HervéG et ... les pages B et C arrivent dans les recherches
https://www.google.be/search?sourceid=na ... 2&q=ertzvb Le cache date de 10 jours précédament, ce farceur de Google et ses dates de cache fausse. Il connait les pages internes, il les oublie juste. Un petit lien EXTERNE et la page duplicate passe .

Déjà deux trucs, un lien du même groupe et pas ou peu de modifs: non, , un lien externe (on va dire pas dans le groupe) et la page duplicate passe... Liens naturels . On est à peu prêt fixé sur les partenariats et autres échanges de liens. Une remarque, j'ai fait sortir du grisé une page en envoyant un gros lien d'un autre de mes sites. Elle est passé PR2 mais toujours sanctionné.

En deuxième, mon petit dictionnaire s'est fait sanctionné quelques pages avec des copies partielles sur des petits sites. Tiens on va jouer ....
-http://www.materiel-informatique.be/fqdn.php, une copie sur ce site -http://www.zegeek.fr/acronyme copie les définitions des autres (jusque là c'est une petite habitude de beaucoup de site) et j'ai corrigé (c'est moi qu'on copie et c'est moi qui corrige . Ben oui, sauf que j'ai repris là sticte définition copié dans un de mes dictionnaires de mon WW et envoyé le lien sur FQDN vers la page de mon autre site (je sais c'est vicieux mais légitime). Résultats, la modif du 26/08 (un mois quand même): le copieur toujours dans les choux, la page de mon WWW toujours bien présente, ... et la page de mon autre site repasse PR2. Génial .... mais toujours pas reprise dans les recherches sur Google.
Pas de chance diront certain mais pour moi, pourquoi cette page de mon WWW pas sanctionnée par Google, ni en PR (mais c'est juste un afichage et pas non plus dans les recherches. Remnter en PR ne prouve finalement pas grand chose; Un petite requ^te, la sancion est levée, pour la requête principale ... non. Google est rancunier et conserve une trace.

Reste la dernière partie, la plus délicate.
1. je copie une page - ou suis copié (ou même une simple phrase), je disparaît ou non?
2. Un autre site copie ma page, une partie de ma page ou même une phrase, je disparaît?
3. Ouf, je m'arrange toujours pour que mes nouvelles pages soient toujours connues par GG avant les copieurs, aucun risques :lol:

Revenons un peu aux sites qui en sont sortis. Désolé pour les liens (pour les modos :wink: ), mais c'est aussi pour leurs longs mails d'explication (et il n'y a ici aucun liens vers mes sites).

Tous n'ont pas acceppter de les citer et je respecte leur idées.
Commencons par Compare le net, Surreau dans un P m'a donné ce qu'il a fait (tiens le site qu'il lui tient à coeur est plutôt un jeu de carte
Compare le net (un gros morceau - et c'est même lui qui le dit :wink: est revenu depuis le 15 août). Dans mes tests de duplicate d'annuaires,fin août il réapparassait. Juste deux choses, supprimé le tas de liesn "intersitesj, lisez ses sites à lui qui s'envoyait des liesn de partout pour en dissocier quelques unes et les reprendre uniquement en page d'index (exit les footer)
J'ai aussi demandé à Webstrom (j'avoue, avec mon caractère, on s'est un peu diputé par MP), il a essayé toutes les combinaisions mais reste sanctionné;: son site http://www.webstorming.fr/
achtungbaby avec http://www.echosdunet.net n'a normalement rien touche mais remonte.
Itraque, touché sur quelques sites, rien touché et pas revenu ...

Ca à l'air de "pas toucher, revenu ...." Pourtant: ca donne un paquet de petits sites cassés net".

On parle de sites vus de confiance par Google. Dans mon petit tests de duplicate (le post le forum) WRI a écrasé le petit site. ybet.be est arrivé, repris en "oublié" sur les recherches et plus l'original mais mon WW reste (pas de chance pour l'autre)
Quelques webmasters se sont tapés sur e-bay, webmarchand, ... (pas forcément des messages sur ce forum). je me tape même sur un Web 2.0 américain.

vieux site, non
PR, non plus
premier sortit, non plus (j'ai essayé sur WRI en mettant des pages dans mon WWW, premier connu et mis le même sur des sites de copains pas liés mais plus connu). même avec un mois d'avance, c'est le plus gros qui est passé

Par contre ... (je vois les failles de GG vues par quelques uns, comment casser un site).
1. Faut déjà un site de confiance de GG. Difficile à savoir quel niveau.
2. le retour de manivelle, je l'ai aussi tester (ben un petit site qui fonctionnait un peu, pas lié pour GG s'est pris de 200 VU/jour vers ... rien)

J'avoue avoir pas tester (quoique ca m'es tombé dessus à mes dépend) un truc 2.0 copie les pages d'un site et c'est l'original que descend et là c'est un gros, pas un PR5 (c'est pas le classement, juste pour donner une idée). Copier WIKI pe .... aucune chance, Wiki copie et .... (pas de chance)

Peut-être le temps de calibrer ces sites de confiance, y compris virer ces sites copieurs mais en attendant:

PS: Normalement, tous mes serveurs seront inaccessibles d'un pays africains la semaine prochaine, raz le bol qu'ils me copient dans les web 2.0 américains, les interdisent d'un seul coup

Pour les "petits webmasters", mon boulôt est surtout pour eux: ne mettez pas vos articles sur E-bay, amazon, .... avec les mêmes description, j'ai pas dis pas les mettre, juste changer les textes
Je vais aller manger, et corrigerai ce (long) post demain. Puis, .... je reprendrai une vie normale
 
WRInaute passionné
Merci beaucoup Ybet et à tes comparses également pour ce retour d'expérience très intéressant.

Il va être de plus en plus compliqué de jouer au chat et à la souris avec notre ami GG, apparemment il a remplacé le chat par un tigre...

Une preuve de plus que la communication de GG est très éloignée de ce qu'il fait réellement :evil:
 
WRInaute accro
dadovb a dit:
Une preuve de plus que la communication de GG est très éloignée de ce qu'il fait réellement :evil:
Comme mentionné en début de mon posts, en dire mais sans trop en dire ...
Dans mes quelques sites, j'en ais deux qui sont (à mon avis) jugés bons. le WWW plus un petit site régional sans prétentions. Avec le deuxième (pas une bête de course et je ferais pas des essais - ca aussi j'ai compris :wink: ) j'ai probablement la possibilité de supprimer de Google des sites "sans importance" (et le but de ce petit site est plutôt l'inverse, il a même viré des recherches sur Hôtel XXX (la ville) tous les sites de référenceurs qui gagnent le % sur les réservations.
Dans le nouveau sytème Google, c'est ca qui est dangereux, plus un classement de PR mais de confiance. Le niveau est probablement fait par des humains mais déclasse le petit site pas trop visité par les robots ni les vérificateurs. Son classement descend et un plus "confiant" monte.

Sans trop rentrer dans les détails, si GG corrige pas, le duplicate de petits morceaux de phrases, c'est la mort assurée pour les petits sites d'amateurs.
On se demande pourquoi, j'ai attendu pour mettre en ligne cette dernière partie ... Tiens comme éditeurs DOZ sur ma région, c'est justement ce que j'essaye depuis quelques années, faire passer des sites d'amateurs intéressant qui sont pas des modèles de SEO, juste des sites fait par de petits amateurs passionés (mais ils mettent pas d'adsence :twisted: ).

Par contre, si un réel petit site amateur prend un baffe de ce style, un MP .... on trouvera bien pour le faire passer. Chier..ie de WEB 2.0 vu par Google. Des idées d'ingénieurs sans réels idées de la réalité. On pense un truc pour corriger des trucs tricheries et ... pas de chance pour les problèmes au tour.

Je suis un peu pessimiste dans mes résultats (c'est aussi un peu ma nature parfois) . Google va corriger, la dernière GD est (en partie) dans ce sens et des sites corrects repassent (y compris sans trop de modifs, mais ce sont finalement des sites incontournables mais c'est pas la majorité de toute les pages WEB) .
On parle plus de dégâts collatéraux, on parle de casser les bricoleurs, genre synonymes, conjugaison (jusque là, c'est son boulôt), de casser les copieurs (c'est juste qui copie qui qui me fait un peu peur).

GG a monté un algo ces derniers mois très costaud. Mais faire passer un requête mineur ertzvcv sur un page complètement en duplicate pour faire suivre des liens vers deux pages "parasites" (je sais ces des tests) uniquement par un lien d'HervéG qui lui semble naturel (SIC, c'est une page partenaire PR2) ca dépasse tout et n'importe quoi.

Mais çà, c'est aussi la mort des référenceurs standards et l'ouverture vers les achats de liens made Google.

Ca va faire bientôt 5 ans que je poste sur WRI, on a toujours réussi à s'adapter :wink: aux bons comme ou aux mauvaises direction de GG (d'autres aussi et ils ont probablement plus pris que nous :lol: ). Les deux cotés adapterons sans doute leur stratégies.

Ca déclasse des sites sans prévenir depuis des mois, et la nouvelle donne déclasse des petits sites. C'est bien là le problème L'algo "vert de Google", nettoit plus propres mais supprime les décos des faillances de la cuisine


PS: on va trouver :lol: on est pas un algo, juste des humains.
 
WRInaute accro
Zup Arkhen a dit:
Excelent post, qui m'a d'ailleurs fait rappeler que mes forums étaient grisés depuis plus d'un an, j'ai fini par laisser tomber.
Le mien aussi et toutes mes parties OScommerce également (s ca peut te rassurer). C'est lier à la structure des sous-catégories (l'entrée garde son PR). Les pages sont encore connues et reprises dans quelques recherches, même si ce n'est pas réellement dans les premières positions.

Me suis pas inquiété n,on plus pour ces parties :wink:
 
Nouveau WRInaute
Tout d'abord bravo Ybet pour cette étude intéressante et pour le temps que tu y a consacré. Cela m'a appris ou confirmé plusieurs choses, c'est très intéressant.

En ce qui concerne le Duplicate content, sujet que je suis d'assez prêt car il s'agit pour moi d'un problème majeur qui n'a pas réellement de solution pour google, je suis quand même assez (très) surpris par tes conclusions. Notamment lorsque tu affirme qu'une page peut-être considérée comme inutile voire malhonnète par google lorsque seulement quelques mots sont similaires à d'autres pages existantes.

Je ne comprends pas comment Google peut avoir implanté un tel degré de sévérité dans son algorythme en sachant pertimment que cela planterait des milliers et des milliers de pages en dehors de cela tout à fait pertinentes.

Il semble évident que devant le nombre de pages exitantes un très grand nombre comporteront inévitablement quelques mots consécutifs identiques. Certains ont soulevé l'exemple des eshop, des annuaires, des citations mais il me semble que n'importe quel site, aussi bon soit-il est concerné.

A partir du moment ou un sujet est traité par de plus en plus de sites, ces derniers, aussi pertinents et "honnetes" soient-ils, comporteront forcément des similitudes dans leur texte car il n'existe pas 150 mots pour exprimer la même chose : plus le sujet passionne (ou rapporte), plus les sites seront nombreux et donc plus il y aura de risques de voir 4-5 mots similaires répétés sur des pages différentes. De la même façon que deviennent dans ce cas tous les sites qui reprennent, par exemple, sur la page d'accueil les 2 ou 3 premières lignes d'un article rédigé récemment ? Les 1eres lignes des derniers messages du forum, de commentaires ? C'est une pratique extrèmement courante et très utile aux visiteurs. Cela veut dire que les pages concernées seraient alors jugées inutiles et deviendraient grisées ?

Il serait inutile de faire un site sur les livres, l'informatique, l'histoire ou quelque sujet bien précis puisqu'inévitablement on retrouverait des formulations identiques à des pages existantes sur le même sujet. Comme d'autres l'ont soulevé dans leurs commentaires, je vois mal comment les boutiques en ligne, les sites de tourisme ou encore les dictionnaires pourraient survivre. J'ai donc du mal à croire que google puisse juger une page inutile simplement parce qu'il retrouve 5-6 mots consécutifs identiques noyés dans un texte beaucoup plus long.

Pour moi le duplicate content est ingérable pour les moteurs de recherche : soient ils visent large et dans ce cas facilitent la tache des copieurs et des webmasters qui recopient la même page sur différents sites, soient ils durcissent les filtres mais pénalisent dans ce cas de nombreux sites qui ont pourtant créé leur site avec amour et dans les règles (c'est beau). Ce qui serait pour moi une erreur dans le deuxième cas.
 
WRInaute accro
Inwan a dit:
Pour moi le duplicate content est ingérable pour les moteurs de recherche : soient ils visent large et dans ce cas facilitent la tache des copieurs et des webmasters qui recopient la même page sur différents sites, soient ils durcissent les filtres mais pénalisent dans ce cas de nombreux sites
D'abord merci pour ton long paste;deuxeimement, comme certains membres de WRI le savent, la dernière partie a été mise, si pas à contre coeur - elle devait ête mises sur WRI - mais au moins pas avec plaisir. Pourtant, GG a choisit de durcir le filtre.
Savoir qui a copié l'autre n'intervient pas ... (ce qui est encore plus débile).

Je n'intervient plus sur ce poste par dépitude peut-être mais aussi parce que des tests sont toujours en cours, de moi et de beucoup d'autres, notamment parce que après ce post, j'ai analysé beaucoup de sites pénalisés de copains et donné mes conclusions (qui sont pas forcément bonnes mais une piste pour regagner les visiteurs). Ils sont en train d'essayer des corrections, mes idées et les leurs - toutes les pistes sont bonnes, seulement certaines meilleures probablement.
Pour les pages déclassées, j'ai déjà donné des exemples de phrases ... un nouvel exemple "sont souvent du copier / coller" ... et ca semble anodin

Pourtant, ca évolue, GG ne bloque plus le cache dans les requêtes avec "" après les fautes d'ortographe et ne sanctionne plus trop les pages ... depuis 15 jours. Sur mon site, j'avais repris exce*ll la page est revenue
https://www.google.fr/search?hl=fr&q=excell&meta= c'est un gros exemple mais j'en ai vu d'autres ... (Ouf déclasser une page pour une faute d'orthographe :roll: ).

Deuxième différence, les pages déclassées sont grisées, mais des pages déclassées gardent leur PR en fonction des liens externes. On avait déjà trouvé quelques chose avec le petit lien sur ma page de tests de hervéG, Google avait mis en résultat les pages recevant un lien d'une page sanctionnée (duplicate, recherche en fautre d'orthographe .... à part les liens sur la page, ... la totale)
Ben oui, les liens externes d'autres webmasters dégrisent la page :lol: mais la laissent en sanction :? (désolé d'avoir fait aussi les mêmes tests avec des copains qui ne viennent pas sur WRI sur d'autres pages, et pas sur le même site).
Je gère pas beaucoup de sites mais 3 en informatique. Le 1 est un site de 10 ans plus mis à jour depuis quasiment 5 ans. Le WWW reprend le premier (date de 5 ans) et continue à être mis à jour. Le dico reprend des parties plus restrictive et date de 3 ans. Dans la majorité des cas, le dico s'est fait cassé par les deux premiers (jusque là). Dans quelques cas, le vieux a cassé les deux autres :oops: , et ... le petit dernier (le dico) a aussi cassé les deux autres sur des termes génériques.

Les trois ne sont pas identiques mais reprennent des phrases ou parties de phrase identiques et copiés à gauche et à droite par d'autres sites en plus. J'ai analysé les liens externes et c'est pas le petit premier qui en a le plus mais bien les deux autres, en qualité et en quantité.
 
Nouveau WRInaute
je comprends que tu sois dépité, ca fait souvent ca quand on test en profondeur le fonctionnement des moteurs de recherche et qu'on se rend compte des difficultés. Moi j'ai pris un maximum de recul par rapport aux débuts et maintenant j'essaie de ne plus me trop me

Pour revenir à tes conclusions, peut-etre que google fait des tests pour tenter de trouver la meilleure parade au duplicate content. Qu'il est conscient que c'est un chantier majeur et particulièrement délicat et à besoinde passer par là pour ajuster au mieux sa parade. Je ne sais pas. Quoi qu'il en soit, s'il advient que des pages peuvent peuvent disparaitre des serp pour une suite de mot aussi courte et aussi anodines que tes conclusions ca va être un vrai problème. D'autant que ca reste assez aléatoire étant donné que certaines pages restent, d'autres avec plus de duplicate ne sont pas concernées etc...

Je peux pas croire que google puisse adopter un tel filtre puisque ca semble particulièrement injuste pour les webmasters touchés (5 mots similaires et le reste de la page parfaitement pertinent -> pfiout au placard) et trop aléatoire justement. On verra bien, merci pour tes conclusiosn en tout cas notamment sur les pages grisées.

Je voudrais quand même une confirmation quand même avant de finir : donc pour toi, les sites qui ont été largement déclassés dans les serp vers mars-avril 2008 ce serait dû à un trop grand nombre de pages grisées (elles même pour diverses raisons : duplicate etc...) ou pas ?
 
WRInaute accro
> Irwan, pas dépités pour avoir analysé les problèmes en profondeur, mais parceque par exemple se faire déclasser (pas grisée, juste déclassée -> donc apparaît encore dans les recherche, mais c'est plus compliqué) une grosse page mise à jour régulièrement depuis des années parce qu'un gamin a fait sont travail de fin de bac en copiant le texte sur son site en utilisant Powerpoint pour sa présentation, ou un site ifrance créé par un autre gamin qui met à peine 5 pages en copiant des pages d'autres sites ... et déclasse les sites originaux.

Le dépit vient pas des tests (qui sont toujours en cours, même si je reste plus silencieux - faudra attendre :wink: , seuls quelques uns qui ont participé aux tests et ont aidé ce post recoivent des informations régulières, mais ce sont des conclusions sur le moment, pas des certitudes), juste que GG détecte 5 mots à la suite et déclasse l'ensemble des pages, y compris une page pas modifiée depuis 5 ans par rapport à un guignol qui copie la page complètement en décembre 2007 ... et GG tient pas compte de l'ancienneté?
J'ai fait ma partie pour les annuaires :wink: , m'intéresse maintenant (depuis plus d'un mois) à des vrais sites. C'est pire. Et mes tests actuels sont plutôt agressifs (du genre modifier la page en duplicate mais remettre le texte copié sur un site plus gros - je prend des risques mais c'est ma nature :wink: ).

Pourtant, il y a du changement:
. Google est revenu nettement en arrière avec les fautes d'orthographe
. les pages recevant des liens externes (pas du même groupe de webmaster) ressortent de PR grisé, mais continuent à être sanctionnée ... :wink: et oui, les liens d'hervéG ont appris comment faire ressortir des pages grisées pour duplicate ou autre mais je continue mes petites analyses.

Ca fait presque deux mois que je teste sur un paquet de mes pages spécifiques en les modifiant, détectant le moindre duplicate (la technique est dans les posts ou sur mon site), mais de plus en plus, ca devient débile. GG s'emèle complètement les pinceaux.

Dépité, oui par Google. Si des pages de contenus anciennes (parle pas d'annuaires) se font casser par des copies de sites jugés de confiance et (ce qui est encore plus inquiétant) par des sites complètement grisés, comme copieurs, ca donne quoi pour des sites de quelques visiteurs par jours créé par un petit webmaster amateur qui crée son propre texte sans esprit de référencement ...? (mais dans une des réponse ci-dessus, j'ai déjà signalé que si le cas se présente, un petit MP et m'arrange pour que ca repasse devant le gros site).

Enfin, c'est peut-être moi qui me fait des illusions, les sanctions ne sont peut-être que dans ma tête :oops: ... (opps, ce ne sont pas des sanctions, Google est juste un programmme de classification de contenu). Ben voyons.

Entre nous, un de mes site parle de ma région, c'est un site magique qui pousse tout ce qui est intéressant (quelques uns sur WRI le connaissent). J'imagine même pas l'annuaire si je reprend comme description celle des sites que J'AI inscrit avec mon propre texte de lien et la propre description (certains font pas 2 visiteurs par jours :wink: ), ils disparaissent de Google (c'est mon opinion et elle est sujette à caution, j'avoue).

PS, en suivant les sanctions (et ce post), je me suis pas forcément intéressé aux gros sites commerciaux mais surtout aux petits sites. Sans me considérer comme une vedette, dans ma petite région, on fait cà -http://www.dahut.be/regroupement.php et les participants sont pas forcément des webmasters qui s'occupent de Wri :wink:
 
Nouveau WRInaute
Oui google est complètement à la ramasse en ce qui concerne le duplicate content. Et c'est un gros problème, étant donné que c'est un de ses critères majeurs pour calculer les résultats des requètes, puisque il est fréquent que des sites honnètes en patissent au détriment de copieurs.

C'est d'ailleurs la raison pour laquelle j'ai commencé à m'y intéresser : un de mes sites était pénalisé du fait que plusieurs sites (sites poubelles fait à la va vite pour faire des liens ou glaner quelques visiteurs) contenaient texto une ou plusieurs pages que j'avais rédigées pour mon site. Non seulement certaines de mes pages, pourtant bien plus anciennes, ont été remplacées dans les résultats de google par celles des copieurs mais de plus ma page d'accueil a perdu des positions sur de nombreux mots clé et je suis persuadé après plusieurs analyses que c'est dû à ca (peut-être pas seulement mais en grande partie).

Je trouve ca dingue que google puisse se baser autant sur ce critère quant on voit à quel point il gère mal le duplicate content. Je t'avoue que ma motivation à créer du contenu, que prone pourtant google à longueur de journée, est largement émoussée. Alors qu'avant je remplissais mon blog ou mon site avec plaisir en ayant l'impression d'être dans le "droit chemin". Si c'est pour que tout le monde me le pique et qu'en plus ca ne profite pas à mon site mais aux leurs ca me décourage...

La seule solution que j'ai trouvée pour réellement contrer ce genre de duplicate content c'est d'imposer par mail au webmaster de supprimer sa page et si ca suffit pas de contacter l'hébergeur afin qu'il suspende le compte. Très efficace mais lent et pénible à faire.

Maintenant si 5 mots comme tu le penses suffisent, parfois et de facon très aléatoire, à envoyer ta page aux oubliettes ca devient réellement n'importe quoi.
 
WRInaute passionné
ybet (et les autres :))


que pensez-vous de cette page : -http://www.ra-sante.com/referencement/

PR3 : 150 liens sur la page et aucun contenu !!!

tu disais que GG analysait les structures des pages et si le contenu n'avait pas assez de textes et trop de liens, alors la page n'avait pas d'intérêt et était grisée ! (cf ton dictionnaire ou ta page de définitions informatique je me rappelle plus)

une analyse ?
 
WRInaute accro
J'en ai d'autres exemples du même type sans jamais avoir pu distingué pourquoi certaines pages avec des liens presqu'exclusivement passent. Pourtant une constatation, généralement, ce sont beaucoup de liens (une bonne centaine minimum). En plus, pour dégrisé, quelques liens externes non "groupe de webmasters" suffissent.

Par contre, en dégrisant par liens externes, on enlève pas la pénalité sur la page si les problèmes sont toujours présents: c'est mes conclusions actuelles sur différentes pages que j'ai fait sortir par cette méthode ou même des pages complètement duplicate mais avec des liens externes.
 
WRInaute passionné
YBet, puisque tu es un spécialiste de la question :

s'il existe plusieurs pages avec le même texte sur différents sites, et tous ces textes ont un lien vers un site tiers, il est évident que toutes ces pages ne ressortiront pas à cause du DC, mais est-ce que les BL seront tous comptabilisés ou non ?
 
Nouveau WRInaute
A confirmer mais logiquement je pense que les liens placés sur des pages de l'index complémentaire doivent être "transparents" qualitativement parlant ou au minimum compter de facon moindre. Ca ne reste qu'une supposition de ma part donc à voir.
 
WRInaute passionné
merci de ton avis

ybet est dans les parages pour nous éclaircir ?

il a du faire des milliers de tests sur cela ... :)
 
WRInaute accro
rudddy a dit:
s'il existe plusieurs pages avec le même texte sur différents sites, et tous ces textes ont un lien vers un site tiers, il est évident que toutes ces pages ne ressortiront pas à cause du DC, mais est-ce que les BL seront tous comptabilisés ou non ?

Inwan a dit:
A confirmer mais logiquement je pense que les liens placés sur des pages de l'index complémentaire doivent être "transparents" qualitativement parlant ou au minimum compter de facon moindre. Ca ne reste qu'une supposition de ma part donc à voir.
Déjà une partie de la réponse mais c'est un peu plus complexe.
Déjà si la page qui envoit le lien est grisée (pénalisée), elle n'envoit pas de lien , ou du moins ils n'apparaissent pas dans les différents outils de Google, notamment les outils webmasters (et donc à mon avis pas du tout pris en compte).
Maintenant si la page qui envoit le lien a du PR (même PR0), le lien est effectivement envoyé mais dans quelle mesure, je ne sais pas. Tout simplement parce que mes tests en cours donnent des pages avec du PR venant de liens externes mais peu présentes dans les recherches (ou du moins très loin de ce qu'elles devraient être) et je sais qu'elles sont nettement en duplicate :wink: (ce sont des miennes et reprises en parties de phrases sur au moins 3 pages + un paquet de sites copieurs .... de ces pages).
Et honnêtement, je passe plus de temps à corriger mes sites pour l'instant qu'à vérifier les liens des ancres surtout que la poistion d'une page sur une requête me semble de moins en moins dépendre des ancres des liens, le contenu semble plus important.
De toute façon, toutes les pages en duplicate ne sont pas sanctionnées (là aussi c'est un mystère
https://www.google.be/search?sourceid=na ... 6&q=switch
les deux premières sont de chez moi et reprennent des contenu en partie dupliqués (avec même deux autres des miennes). Chacune a des liens externes ... Par contre, d'autres combinaisons identiques donnent le déclassement des 2 sites.
Pour ces deux pages switch, le dico recoit 6 liens dont un PR2 et un PR1 (comment ca marche qui est considér comme de confiance - ce que j'aimerais qu'on m'explique :roll: sur son forum, pas les articles) Le reste est 0 et grisé mais tous les liens viennent de forum. L'autre recoit 95 liens externes mais tous grisés sauf 1 PR3 (du dico donc site jugé par Google du même groupe de ebmasters).

Jusque là, ... les liens grisés externes sembleraient être suivi mais les deux sites ne sont pas équivalents .

. Le dico est PR5 (l'autre seulement PR 4) et les deux pages n'ont pas non plus le même PR ...
Est ce que le positionnement vient du PR, j'en doute un peu . Pour les deux pages, elles recoivent beaucoup de liens internes savament dosés mais reprennent surtout un contenu.
C'est avec ce genre de petites analyses que je pense que les liens sont de moins en moins suivis. Mais tous les cas ne sont pas identiques.

J'ajouterai un petit truc: en septembre, une page sanctionnée n'était pas reprise dans les liens internes et externes des autres pages dans le soutils webmasters, mais réapparaissent en partie depuis quelques semaines (pas tous). Google commence à brouiller les pistes sur ce genre d'analyse.
Deuxième particularité, les pages sanctionnées mais avec un PR apparissent en partie dans les recherches. Deux pages quasiment identiques (mais pas tout à fait appariassent l'une à tour de rôle quand on reprend des parties de phrases en affichage dans la recherche, l'autre comme contenu oublié.).
... comme si Google avait compris les méthodes pour corriger certains duplicate.
En deuxième: dans deux pages similaires (mais avec du duplicate), soit Google semble reprendre dans les recherches le début du contenu: dans ce cas, la page passe en étant mieux optimalisée avec le mot
soit il reprend des chaipitres (des parties).
... mais de nouveau, j'ai pas analysé les textes des liens externes.

De toute façon, une chose est sure, des pages avec un PR affiché peuvent aussi être sanctionnées (il suffit d'un ou deux liens externes pour passer le grisé) si elles sont en duplicate ou autres.

5-oct 13-oct 16-oct 22-oct 30-oct 10-nov
32 36 30 29 24 25 27
492 495 483 470 473 526 546
695 635 636 628 660 671
102 112 115 114 109 110 110

Ca c'est le nombre de pages avec des liens repris dans les outils webmasters de Google pour 4 sites ... Bizarres, mais les pages apparaissent ou disparaissent à chaque mise à jour (10 - 15 jours). Certaines sont corrigées mais d'autres non. Les sanctions se font en temps réels :? et GG dégrise (regrise) à fait. Mon tableau de tests est beaucoup plus complet et complexe mais là c'est un peu trop long à mettre sur WRI puis c'est plus de l'étude de cas, mais plutôt des tests pages par pages.
 
WRInaute impliqué
Bonjour,

J'ai des exemples sous la main qui semblent aller à l'encontre de ce qui se dit :

1) Trois pages de type "sommaire" comportant uniquement des liens internes au sein du contenu (les liens poitant vers des pages dédiées). Elles sont passées au gris. J'en modifie une (http://www.gitemontsaintmichel.com/articles.html) afin de la rendre "consistante", hier elle n'a pas bougé. Sur les deux autres (identiques dans la construction) seul une est passée au vert (http://www.gitemontsaintmichel.com/articles-2.html) alors que l'autre : pas de modification.

2) Les pages dédiées elles mêmes :

- Certaines affichent du PR alors que le nombre de liens pointant vers le site partenaire est important (exemple : http://www.gitemontsaintmichel.com/loca ... pagne.html)...mais pas toutes!

- Une seule, avec peu de liens vers le site partenaire est devenue verte hier ( http://www.gitemontsaintmichel.com/gite ... dogne.html ) et du coup, est bien positionnée.

- D'autres affichent du PR (et ressortent très bien dans les SERPS) et ne pointent vers aucun site...pas de liens externes au sein du contenu (exemple : http://www.gitemontsaintmichel.com/legu ... -malo.html) alors que d'autres, identiques en tous points, sont grisées (exemple : http://www.gitemontsaintmichel.com/vent ... nules.html)

- Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée (exemple : http://www.gitemontsaintmichel.com/gite ... uirec.html)

Je ne vais pas plus m'étendre, car, avec tout cela je pense qu'il y a déjà de quoi s'arracher les cheveux...personnellement, je ne comprends pas. Si Ybet, ou un autre peut s'y attarder un peu....

Cordialement
Charles
 
WRInaute accro
co7645 a dit:
Bonjour,

J'ai des exemples sous la main qui semblent aller à l'encontre de ce qui se dit :

1) Trois pages de type "sommaire" comportant uniquement des liens internes au sein du contenu (les liens poitant vers des pages dédiées). Elles sont passées au gris. J'en modifie une (http://www.gitemontsaintmichel.com/articles.html) afin de la rendre "consistante", hier elle n'a pas bougé. Sur les deux autres (identiques dans la construction) seul une est passée au vert (http://www.gitemontsaintmichel.com/articles-2.html) alors que l'autre : pas de modification.
Te rassure, j'ai aussi des pages qui passent très bien dans les recherches avec un nombre imprtant de liens. Ma préférée est -http://www.darut.be/annuaire.php (c'est pas le record mais des pages avec plus de 1000 liens externes, ca doit pas faire légion) :wink:
Toutes les corrections ne font pas réapparaître les pages. D'abord parceque GG les visite moins souvent (attention, les dates des caches affichs sont fausses). Deuxièmement parce qu'en corrigeant, on retombe aussi sur d'autres problèmes liées notamment au duplicate content.

Mais un petit exemple du passage grisé vers PR avec une partie de mon tableau.
A droite les adresses de pages, de gauche à droite, les chiffres. Quand l'adresse de page est en vert, elle n'était pas pénalisée. Le tableau est rempli tous les 10 - 15 jours (mise à jour des outils webmasters). Pour chaque page, deux colonnes par date, une avec le nombre de liens internes affichés par les outils webmasters, l'autre le PR de la page.
Quand la case est en rouge, elle est descendue. Quand elle est en vert, elle est réapparue. Remarque les deux premières colonnes (la date correspond à mes tests d'hier). Certaines pages réapparaissent dans les pages avec liens internes sur les outils, d'autres en PR, et d'autres ... en PR et en liens internes.
Je pense que cette petite image donne une idée de ce qui se passe. Une remarque néanmoins, dans cette vue, toutes les pages n'ont pas été modifées.
Le PR (revenu) varie de 0 à 4 ....
Sans%20titre.gif


co7645 a dit:
2) Les pages dédiées elles mêmes :

- Certaines affichent du PR alors que le nombre de liens pointant vers le site partenaire est important ... mais pas toutes!

- Une seule, avec peu de liens vers le site partenaire est devenue verte hier et du coup, est bien positionnée.

- D'autres affichent du PR (et ressortent très bien dans les SERPS) et ne pointent vers aucun site...pas de liens externes au sein du contenu alors que d'autres, identiques en tous points, sont grisées
- Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée

Il y a effectivement de quoi s'arracher les cheveux :wink: (ca tombe bien, j'en ai plein sur la tête :? ).

Mais j'ai aussi des exemples similaires sur plussieurs de mes sites.

. Déjà, le nombre de liens semble être tenu en compte. Mieux vaut une page avec 150 liens (même sans texte au-tour) qu'avec 20 liens. Je donne des chiffres comme cà, comme exemple mais mes pages avec bveaucoup de liens passent mieux que celles avec peu de liens.
. Que les liens soient vers des sites de référence ou non n'intervient pas, en follow ou en no follow non plus d'aillieurs.

Mais ce post aide à comprendre ce qui se passe et à corriger et ... toutes les corrections ne passent pas (la preuve, sur ma copie d'écran, il y en a toujours en grisé même si j'ai pas tout corrigé, y compris des pages copiées par d'autres sites).
En plus, c'est pas parce qu'une page est corrigée qu'elle passe bien sur les recherches (une page grisée passe généralement pas du tout ... c'est déjà une ammélioration :wink: ). ici, on parle des sanctions pas du positionnement.

Mais GG a l'air d'apater certaines sanctions (y compris le petit truc que j'utilisait pour détecter la partie de phrase en duplicate :evil: ) même si elles sont toujours présentes. La pseudo mise à jour de la barre verte d'hier le confirme.

PS: tu m'excuse si j'ai supprimé les liens dans la réponse .... (c'est la règle sur WRI). Je sais que des pages avec des liens externes passent le grisé mais ... souvent restent sanctionnées.
 
WRInaute impliqué
ybet a dit:
co7645 a dit:
- Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée (exemple : -http://www.gitemontsaintmichel.com/gite-perros-guirec.html)
Pour celle là (j'ai pas analysé les autres) bel exemple de duplicate

https://www.google.be/search?hl=fr&rlz=1 ... e%22&meta=

Bien vu! (et merci) Cela m'avait échappé. Je vais donc procéder à des modifs d'ici quelques jours et...il faudra attendre un peu.
 
WRInaute discret
Merci Ybet pour cette etude que j'ai lu de long en large plusieurs fois!!!

Je suis comme beaucoup d'autre ici touché par les penalités.

Je souhaite donc vous faire profiter de mes tests et résultats.

1)Donc pour ce qui est du duplicate sur une ou plusieurs pages d'un site ancien et recevant plus de 10000 VU/jours j'ai modifié les page en question à 100% (si ce n'est le menu) et quelques jours après les pages se sont positionner à nouveau dans google.
Je précise que le duplicate de ces pages venait de webmaster ayant copier l'ensemble du texte sur leur site.


2) Par contre sur un site ayant environ 20 pages (toutes pénalisées) et les 20 pages ayant été copiées à 100% sur plusieurs autres sites par plusiuers webmasters j'ai changé la totalité du texte et le site et il est toujour pénalisé.
Avoir donc si la partie navigation n'est pas trop importante face au contenu?



Par contre je me dit que changer le texte des page c'est bien mais si quelques jours, semaines, mois, après d'autres webmaster peuvent refaire un copié collé et je me retrouverais dans la même me....

Je me pose donc la question du remede pour savoir comment se proteger de ce duplicate?

Donc ma reflexion est la suivante:

Imaginons une page originale A avec un texte du style....

Webrankinfo est le plus grand forum de référencement francais, et nous pouvons remercier olivier pour son forum et les articles qu'il ecrit dans ses actualités sur le référencement . Il faut aussi remercier les modo pour leur travail de moderation etc......(bon j'arrete la le cirage de pompe)



Imaginons une page copié B avec un texte du style (donc sans les liens)

Webrankinfo est le plus grand forum de référencement francais, et nous pouvons remercier olivier pour son forum et les articles qu'il ecrit dans ses actualités sur le référencement. Il faut aussi remercier les modo pour leur travail de modération etc......(bon j'arrete la le cirage de pompe)


Les deux pages vont elles etre considérés en duplicate?
 
WRInaute accro
contre exemple a dit:
Je souhaite donc vous faire profiter de mes tests et résultats.

:wink: ca c'est gentil, on commençait à se sentir un peu seul avec L Jee
contre exemple a dit:
1)Donc pour ce qui est du duplicate sur une ou plusieurs pages d'un site ancien et recevant plus de 10000 VU/jours j'ai modifié les page en question à 100% (si ce n'est le menu) et quelques jours après les pages se sont positionner à nouveau dans google.
Je précise que le duplicate de ces pages venait de webmaster ayant copier l'ensemble du texte sur leur site.

idem sur mon site pricipal mais pages toujours sanctionnées dans certains cas. Pourtant elles ont toutes du PR qui vient de liens externes. Mais sanctionnées dans des recherches . Il doit rester quelques parties.
Par contre, des pages en dupliate (copiées par d'autres) et pas modifiées restent sans problmes dans les recherches.
On revient à cette notion de sites de confiance. Ca dépend des deux sites qui reprennent le même contenu. Ceci explique probablement:

contre exemple a dit:
2) Par contre sur un site ayant environ 20 pages (toutes pénalisées) et les 20 pages ayant été copiées à 100% sur plusieurs autres sites par plusiuers webmasters j'ai changé la totalité du texte et le site et il est toujour pénalisé.

contre exemple a dit:
Par contre je me dit que changer le texte des page c'est bien mais si quelques jours, semaines, mois, après d'autres webmaster peuvent refaire un copié collé et je me retrouverais dans la même me....
exactement, mais pas de remèdes non plus.


contre exemple a dit:
Les deux pages vont elles etre considérés en duplicate?
hélas oui d'après ce que j'ai testé, ... même en mettant les liens chaque fois d'une page dupliquée vers d'autres pages du site:
la page du site A envoit des liens internes vers des pages internes non dupliquées et la page du site B dupliquée fait la même chose vers ses propres pages internes.

C'est d'aillieurs ce qui est débile, une vieille page se fait copiée et elle descend dans les recherches (pas toutes mais pas tout compris). Pire, un petit site se ait copier par un plus gros entièrement et c'est le petit qui disparaît (je schématise parce que ca marche que si le copieur est nettement plus gros au niveau confiance ... pas la peine de copier WRI en espérant le mettre à genoux par exemple).
J'ajouterais que même quand la page qui copie envoit un lien vers la page originale ca peut faire du dégât.
 
WRInaute discret
ybet a dit:
hélas oui d'après ce que j'ai testé, ... même en mettant les liens chaque fois d'une page dupliquée vers d'autres pages du site:
la page du site A envoit des liens internes vers des pages internes non dupliquées et la page du site B dupliquée fait la même chose vers ses propres pages internes.

Et dans le cas ou le site B n'a copié qu'un article du site A il ne fait donc pas les liens dans le texte vers ses autres pages. duplicate ou pas?
 
WRInaute accro
contre exemple a dit:
ybet a dit:
hélas oui d'après ce que j'ai testé, ... même en mettant les liens chaque fois d'une page dupliquée vers d'autres pages du site:
la page du site A envoit des liens internes vers des pages internes non dupliquées et la page du site B dupliquée fait la même chose vers ses propres pages internes.

Et dans le cas ou le site B n'a copié qu'un article du site A il ne fait donc pas les liens dans le texte vers ses autres pages. duplicate ou pas?

même avec des liens internes différents, ca passe en duplicate avec des cas inverses (on va dire des exceptions).
J'attend encore quelques semianes avant de faire une synthèse de mes petits tests en cours, sur les corrections de mes sites principalement mais d'autres aussi. Les méthodes de sanction ont un peu changé (même si elles restent), mais c'est surtout les détections qui ont évoluées. Google camoufle de plus en plus mes petits trucs de septembre :roll:

Mais j'avoue que comme j'ai mis sur un autre post, je corrige sur mes sites le duplicate par exemple mais je prend un malin plaisir à laisser les copieurs en duplicate faisant passer les parties copiées d'un site à l'autre. J'avoue également que je configure mon serveur apache d'une manière "personnelle". Je pense avoir définitivement bloqué un pays de copieur: une copie sur un site américai, j'envois un mail, retire la page (mais toujours bien positionné même sans contenu :roll:) et le mec reprend les pages d'un autre de mes site le lendemain sur son truc collaborratif américain.
(en plus, je vais aussi analyser les résultats adsence en supprimant un pays ... pauvre - désolé, c'est pas du racisme c'est de la protection de site et le copieur a été prévenu).

Pour le blocage de pays via les plages d'adresses IP, par MP (un formateur de Windows qui se met à étudier APACHE et ses fichiers de configuration :roll: ). Googl est finalement un petit génie inconnu, déjà qu'il m'aide dans mon orthographe http://www.ybet.be/news-fiche.php?numero=6 et m'apprend à lire les dates :twisted:
 
WRInaute impliqué
Bonjour,

contre exemple a dit:
2) Par contre sur un site ayant environ 20 pages (toutes pénalisées) et les 20 pages ayant été copiées à 100% sur plusieurs autres sites par plusiuers webmasters j'ai changé la totalité du texte et le site et il est toujour pénalisé.


Un méchant copieur avait pompé, il y a plusiaurs mois, des phrases entières de ma home et les avait collé sur sa propre page d'accueil (y compris le mailto...balaise :lol: ). Les modifications ont été effectuées....et sa home est toujours en gris...

Charles
 
WRInaute impliqué
co7645 a dit:
Bonjour,

J'ai des exemples sous la main qui semblent aller à l'encontre de ce qui se dit :

1) Trois pages de type "sommaire" comportant uniquement des liens internes au sein du contenu (les liens poitant vers des pages dédiées). Elles sont passées au gris. J'en modifie une (http://www.gitemontsaintmichel.com/articles.html) afin de la rendre "consistante", hier elle n'a pas bougé. Sur les deux autres (identiques dans la construction) seul une est passée au vert (http://www.gitemontsaintmichel.com/articles-2.html) alors que l'autre : pas de modification.

Toutes sont grises, maintenant

2) Les pages dédiées elles mêmes :

- Certaines affichent du PR alors que le nombre de liens pointant vers le site partenaire est important (exemple : http://www.gitemontsaintmichel.com/loca ... pagne.html)...mais pas toutes!

Là, pas de changement...pour le moment

- Une seule, avec peu de liens vers le site partenaire est devenue verte hier ( http://www.gitemontsaintmichel.com/gite ... dogne.html ) et du coup, est bien positionnée.

A ce jour, plusieurs sont dans ce cas

- D'autres affichent du PR (et ressortent très bien dans les SERPS) et ne pointent vers aucun site...pas de liens externes au sein du contenu alors que d'autres, identiques en tous points, sont grisées (exemple : http://www.gitemontsaintmichel.com/vent ... nules.html)

Alors, pour celle ci...comprends pas.
Elle est restée grise...jamais de vert....mais positionnée en première ou deuxième page...puis, il y peu, pendant 2 jours : première position sur toutes les requêtes. Ensuite, disparition totale pendant 24 heures sur tous les DC et actuellement, selon les DC, absence totale ou très bien positionnée...mais perte de la première position sur la plus grosse requête (l' annuaire de Carole l'ayant donc retrouvée)

- Une autre, avec des liens vers un site partenaire, mais aussi vers des sites de référence (office de tourisme) reste grisée (exemple : http://www.gitemontsaintmichel.com/gite ... uirec.html)

Je n'y ai pas touché....j'ai récupéré du PR et la page de l'autre site l'a perdu.


Charles
 
WRInaute accro
OK, une petite mise à jour de nos travaux actuels

Ceci est une partie d'un MP envoyé hier, je le modifie juste un peu pour:
1. supprimer les parties réponses au MP
2. mettre des indications supplémentaires.

On reprend actuellement presque les mêmes que ceux qui ont participés aux tests des grandes vacances sauf que maintenant on est sur les corrections.

Personnellement je suis sur des tests sur deux sanctions: le duplicate et la structure (trop de liens), les autres sont sur le duplicate.

Quelques constatiations sur nos différents sites.

1. des pages corrigées font pour une bonne partie le yoyo entre des PR, PR 0 et grisés. Sauns réellement savoir pourquoi.

2. sur des pages en duplicdate corrigées (parle pas des annuaires) mais bien de pages. Sur trois pages en partie en duplicate du même webmaster, le plus souvent 1 reste totalement inconnue dans les recherches, les deux autres se baladent d'un jour à l'autre de présent (sans plus) à complètement perdu.

3. Des pages avec du PR (mais bien en erreur de duplicate pas corrigées) disparaissent aussi des recherches. Par contre pas toutes Pour preuve, https://www.google.be/search?hl=fr&rlz=1 ... itch&meta= avec materiel et mon WWW j'en case deux dans les 10 premières places mais de large parties sont identiques pour les deux pages. + de 110 liens externes pour chacunes. Par contre sur HUB (avec strictement des problèmes de parties duplicate entre les deux sites, celle de materiel pas du tout (PR2, jamais grisée, liens internes affichés dans GWT) mais totalement absente.

4. Dans les différents posts, j'ai parlé de niveaux de confiances (on peut dire trustrank je crois)
- 1. qui passe sur les recherches en cas de copie: le site qui a le meilleur trustrank.
- 2. copié par un autre, je change ma page. Diverses solutions se présentent (et pas moyen de choisir :evil: )
-- la page corrigée reprend un PR standard mais n'apparaît toujours pas dans les recherches.
-- la page corrigée (alors qu'elle est copiée par un autre :? ) reprend du PR et réapparaît dans les recherches
-- même corrigée, elle réapparait pas ou de temps en temps mal positionnée et en plus toujours grisées.
-- généralement le plus petit qui a copié reste dans les paquerette quasiment chaque fois. Pire (ou mieux 8) ) je change la page et remet le duplicate sur un site plus gros, le copieurs reste dans les paquerettes (bien fait) mais la page du gros site n'est pas pénalisée.

On en est pour l'instant à penser que GG a cllassé des sites comme copieurs (qui copie l'autre n'est pas la question) et que même corrigé il les laisse un peu à l'écart, le temps de faire remonter sans doute son trust rank. Et c'est une supposition, tant qu'il n'est pas complètement nettoyé ou % trop faible, il reste derrière (je répète c'est une supposition mais elle semble pour l'instant vérifiée). Celui qui a copié reste également grisé, tout simplement s'il est plus faible que celui qu'il a copié (et apparament pour longtemps). En gros, celui qui change rien reste en grisé et celui qui corrige (en supposant que c'est fait totalement - ce qui est très difficile) reste dans un espèce de purgatoire pour les pages qui posent problèmes. Corrigé certaines parties d'un petit annuaire, la partie entrée catégorie vient de prendre un PR1 (genre petit encouragement de Google :roll: mais il laisse les pages avec des problèmes dehors). Tout se passe comme si un site copieur (ou des pages) étaient mémorisées par Google , et ca c'est probablement beaucoup plus valables pour les annuaires.

Pour continuer

--- le truc page duplicate = PR grisé est difficilement utilisable pour la détection des problèmes actuels. Ceci est du au fait qu'une page recevant des liens externes recoit un PR (pas toutes et pas ceux du même webmaster). mais aussi que des pages gardent leur PR alors qu'elles sont détectées comme sanctionnable. Actuellement, même avec la GD du 31/12, des pages restent en grisé mais commencent à passer dans les recherches

Attention tout de même

1. des pages qu'on pense corrigées sont de nouveau en duplicate par nos corrections, parfois avec d'autres sites. Comme elles sont déjà dans l'algorythme de GG, elles y restent

2. le changement de PR de ces pages ne se fait plus tous les 15 jours lors de la mise à jour de GWT, les deux ne sont plus mis à jour en même temps. Pourtant, les pages grisées sont toujours le plus souvent absente comme pages recevant des liens internes dans GWT (même positionnée dans les résultats - souvent mal mais positionnées)

3. des pages grisées mais non corrigées (pas du tout même) sont revenues avec du PR (pas vérifié trop leur positionnement, elles sont sans importance) entre le 15/11 et 25 / 12 (puis pour la plupart redisparue), sans réellement comprendre pourquoi. Comme elles sont insignifiantes, pas vraiment vérifié dans les résultats de recherches

4. GG modifie les sanctions et les moyens de les découvrir:
- quasiment exit les fautes d'orthographes, maintenant les pages ne sont plus sanctionnées apparament, seulement la proposition du bon terme dans les recherches
- le coup du plus dans le cache sur une recherche entre "" dès le morceau de duplicate ne fonctionne plus depuis quelques mois

5. On pourrait aussi assister à un retour en arrière. Je suis en train d'essayer depuis deux jours sur des pages pénaliées par trop de liens de re-supprimer le texte (j'avais essayé l'invers en bourrant les quelques liens de mots au-tour sans résultant - en espérant ne pas avoir fait du duplivate), j'essaye pour l'instant l'inverse, revenir à plus de textes, justes des liens. On va bien voire.
 
WRInaute passionné
ybet a dit:
- le coup du plus dans le cache sur une recherche entre "" dès le morceau de duplicate ne fonctionne plus depuis quelques mois

c'est quoi ça ?


sinon je confirme c'est le topic du siècle je crois merci pour tout si je pouvais je t'aurais mis une centaine de reco !!!
 
WRInaute accro
rudddy a dit:
ybet a dit:
- le coup du plus dans le cache sur une recherche entre "" dès le morceau de duplicate ne fonctionne plus depuis quelques mois

c'est quoi ça ?


sinon je confirme c'est le topic du siècle je crois merci pour tout si je pouvais je t'aurais mis une centaine de reco !!!

regarde cette page, c'est un des tests de duplicate avec la partie en quote:

sans les "": https://www.google.be/search?hl=fr&rlz=1 ... +qui&meta= GG recherhce les mots dans le désordre

avec les "", il ne recherche que exactement la partie entre "": C'est là qu'ont voit le duplicate
https://www.google.be/search?hl=fr&rlz=1 ... i%22&meta=
 
WRInaute accro
Beaucoup ont peut-être pensé que c'était bizarre que les quelques habitués ne donnaient plus de test, de résultats ici. On a pourtant continué toujours par MP.
La première partie va reprendre nos corrections, mais surtout les résultats.
1. Pour les pages ne reprenant que des liens (donc des pages de gestions de catégories, pas des annuaires).
Ca semblait marcher en octobre de rajouter du texte, pourtant, finalement GG doit avoir compris et les pages sont redescendues grisées comme au premier jour.
2. Pour les annuaires, le duplicate continue à faire du dégât (rien qu'à voire les soumissions dans un petit local :mrgreen: , tout le monde ne le sait pas, sauf les véritables annuairistes.
3. Pour les fautes d'orthographes, GG semblait avoir corriger fin 2008 (ma page Excell est même repassé avec des nuances sur la requête). Pourtant je trouve encore des pages sur mes sites avec des fautes d'orthographes sanctionnées avec justement des fautes grossières d'orthographes. J'ai fait repassé des pages en corrigeant juste des fautes grossières. Ceux qui liesent mes post sur ce forum doivent bien se dire que de temps en temps, j'oublie une lettre dans un mot :oops: (y compris sur mes sites :mrgreen: ). Ca semble identique pour les fautes de conjugaison. Google a juste réduit les pénalités sur les fautes standards des internautes.
4. Pour les pages jugées trop liens (genre 30 mots avec un beau lien copains ...), pas de changements.
5. Pas eut beaucoup de retour sur le duplicate content des flux RSS mais je pense que les webmasters intellignets ont corrigés à leur manière.

Pour les méthodes de détection du duplicate

la technique de la recherche entre "" fonctionne encore pour les pages ignorées (ouf). Par contre, GG affiche désormais dans les pages ignorées le reste de la page (sanctionnée ou non). Quasiment impossible maintenant de trouver la partie de phrase qui pose problème.

Toujours pour le duplicate ... D'abord un merci à Djmael, avec ses "conneries" d'essais sur ses sites envoyées par MP, j'ai d'abord beaucoup souri puis ... analysé ses petits problèmes et conclusions en fonction des corrections sur nos différents sites qui marchaient pas :oops:

Quand on a commencé, un PR grisé semblait claire: page sanctionnée. Avec les tests de duplicate content et le lien amical d' HerveGvers une page qui devait être complètement sanctionnée, la page et les suivantes sont passées sur Google (j'avoue ce test est peu applicable pour un site tant les trois pages étaient bourrées de sanction possibles et les recherches insignifiantes, même ne seront jamais recherchées - comme quoi les tests spécifiques valent toujours ce qu'il valent: des morceaux de tests, ce qu'à déjà démontré une quantité de concours SEO).
Maintenant, on sait (j'ai fait d'autres tests depuis septembre: quelques liens externes de sites d'autres webmasters pas liés et la page a un PR (j'ai dis un PR, pour la page :roll: ). Donc pas de réjouissances ... pour les pages qui ont un PR.

Je sais, depuis ce post, la majorité des habitués de WRI ont modifié leurs techniques (comme quoi, L'Jee et moi, plus beaucoup d'autres ont fait un super boulôt sur ce post et sur ce forum). Je sais aussi que quelques uns se sont fait quelques peurs en lisant les premiers messages de ce post ... (Ben on va avoir un peu plus peur :wink: ).

Pourquoi avoir mentionné DJmael? Tout simplement parce qu'en octobre, il me MP en signalant qu'il a recopié dans les archives quelques contenus de sites disparus depuis 5 ans pour mettre sur un de ses sites et bizarrement ... pas moyen de faire passer ces pages. Pas de duplicate puisque le site n'existe plus depuis des années et propose comme idée: une mémoire du contenu des pages de Google. Au départ, je pique un fou rire derrière mon clavier :lol: puis on commence avec d'autres les corrections sur nos sites et bizarrement ca passe ou pas. On a beau corriger, la page passe quelques jours (quoique) puis retombe dans le fin fond des SERP (GG n'affiche pas les résultats de la 567.560 pages de résultats :mrgreen: ).

GG mémorise le contenu des pages, tous les sites qui avaient une grosse partie de pages en duplicate continuent à vivoter, la majorité des pages qui étaient visiblement du copié / coller restent en majorité (même avec correction) dans les paquerettes.

Tiens pourquoi je me réveille :lol: .

D'abord parcequ'un pseudo annuairiste demande sur un post du forum un contenu original en forme d'article (génial :lol: ) et demande une partie du contenu de la page d'entrée du site :twisted: (et pan, rien compris). Deuxièment parce que cette mémorisation du contenu commence à jouer des tours. La nouvele version du Forum de WRI est passée finalement (même en sous domaine) sans encombre avec une redirection 301. Maintenant un transfert de site pose nettement plsu de problèmes (4 cas en cours de discussion par MP actuellement). Une copie du contenu d'un site mineure (du même proprio) si GG détecte le duplicate content (même si l'ancien est effacé ...) et c'est la sanction.

J'imagine l'idée. Le site sandboxé, à peine connu de Google, ca va passer. Peut-être. Pourtant, je monte une nouvelle partie sur mon site et met un lien 24 heures vers cette partie en sous-répertoires. Puis 24 heures plus tard, me décide à mettre un sous domaine et commence à envoyer gentillemet les liens vers ce sous domaine avec plus de contenu (jusque là rien de bien particulier ... ) sauf que des pages internes du sous dossier ont été vues pr Google et devinez .... site de confiance par rapport au petit nouveau sous domaines (pages du dossier directement effacées) et 3 semaines plus tard les pages internes du sous-dossier (même inaccessibles) cassent toujours les pages assoisciées au sous doomaine.
Mémorisation des pages -> continue le duplicate avec des pages qui n'existent plus et sanctionnent les nouvelles .

J'ai également en 6 mois continuer à vérifier avec d'autres Webmasters (qui sont pas forcément des membres de WRI) des niveaux de confiance des sites. Améliorations de Google? Pas du tout, j'ai personnellement sanctionné des anciennes pages d'autres sites (avec l'accord du webmaster) en mettant une partie sur un de mes sites . L'inverse peut-être? Sanctionné des pages par copies sur des sites de moindres importances NEUF reprenant du brol mais reprenant plusieurs fois des copies de la page (et pas réellement des sites jugés de confiance). Google n'a pas du tout tenu compte que la page était là depuis deux ans et même 4 ans pour une autre, juste qu'elles n'avaient pas de liens externes. Sur des recherches de parties de phrases, les autres sont en ignorées mais la page de départ est quand même sanctionnée

Avec quelques autres (génial les MP), on en a quelques autres de trucs bizarres, ceci est juste un gros dézippage après 6 mois. Beaucoup ont modifé leur méthodes de travail (ouf) mais pas tous et peut-être pas encore assez. Google n'a rien corrigé dans ses sanctions, même pas adapter!
 
WRInaute occasionnel
salut ybet
merci pour le travail que té entrain de réaliser sur les duplicate ...
sinon je voulais rajouter sur ce qu'il c'est dis. une page dupliqué c'est vrai qu'elle serais grisé et mal référencé ..
mais a cause de cette "page duplicate" le site seras sanctionné de quelque position sur tous les mots clés.
et pour mieux expliquer le duplicate :
j'avais une page sanctionné duplicate sur seulement deux phrases .. oui le faite de copier une phrase ou deux peut vous grisé une page et être sanctionné . donc le faite d'avoir retoucher ces deux phrases tous est revenu dans l'ordre... :wink:
 
WRInaute passionné
merci du retour ybet, tous jours impressionnantes tes analyses !!!

continues de nous tenir informés !
 
WRInaute accro
Pas trop d'optimisme ou de pessimisme sur cette mémorisation des pages sanctionnées pour comme copies. Il y a deux parties:
1. la mémorisation d'anciennes pages
2. une sorte de filtre sur des pages (éventuellement site si beaucoup de pages ont le problème. apparament, ca joue pas pour un morceau de phrase mais bien pour dans des copies complètes de paragraphes (les annuaires peuvent avoir ce problème). Une demi phrase perdue dans un texte original corrigé et la page revient.

Pourtant, reste aussi ce niveau de confiance . Et là, à part comprendre qu'un site est plus haut qu'un autre, quasiment impossible à quantifier: pas l'ancienneté, pas le PR, pas le nombre de pages, pas le nombre de liens vers la page, apparament pas non plus le fait d'avoir des liens de pages internes de sites "mieux vus", .... Pour certaines pages, ca ressemnle même quarément à du hasard. Une large partie de mon site est copiée à gauche ou à droite ... Certaines parties passent dans problèmes, d'autres à peine sur le mot clé. Corrigé complètement en utilisant copyscape ... et pas de changement. La page équivalent d'un autre site qui s'en est inspiré (donc des parties identiques) passe sans problème en mondial ou pas du tout.

PS le coup de la partie de la copie sur un site avec un lien vers l'article original d'un autre site fonctionne pas non plus. :roll:
 
WRInaute accro
Perso c'est carrément pire certains ne mes NDD, les sites sont quasiment ou totalement dés-indexer, du coup c'est claire la copie c'est le mal, par contre faire un rédactionnel différents à chaque fois déjà un dictionnaire des synonymes ça peut aider mais c'est pas la solution, encore en plus maintenant pour chaque annuaire de référencement digne de se nom il faut faire un rédactionnel de description du site différents à chaque fois, ça va devenir vraiment rude pour les débutants comme moi :( , bon m'en fou un peut ça me coute Zéro EUROS, et en terme de temps comme je fais surtout cela le WEEKEND ou le soir en semaines c'est pas la mort pis de toute façons ça fait deux semaines que je n'ai pas de client.

en tout cas un grand merci à vous pour ces études de cas, cela permet d'avoir une bonne vision d'ensemble des choses, de celle qui sont à faire et surtout de celle à ne surtout pas faire, le problème pour moi c'est qu'il est déjà un peut trop tard je l'ai ait déjà fait en grande parti!!!!!!!!!!!! :cry:
 
WRInaute accro
mipc a dit:
Perso c'est carrément pire certains ne mes NDD, les sites sont quasiment ou totalement dés-indexer, du coup c'est claire la copie c'est le mal, par contre faire un rédactionnel différents à chaque fois déjà un dictionnaire des synonymes ça peut aider mais c'est pas la solution, encore en plus maintenant pour chaque annuaire de référencement digne de se nom il faut faire un rédactionnel de description du site différents à chaque fois, ça va devenir vraiment rude pour les débutants comme moi :( , bon m'en fou un peut ça me coute Zéro EUROS, et en terme de temps comme je fais surtout cela le WEEKEND ou le soir en semaines c'est pas la mort pis de toute façons ça fait deux semaines que je n'ai pas de client.

en tout cas un grand merci à vous pour ces études de cas, cela permet d'avoir une bonne vision d'ensemble des choses, de celle qui sont à faire et surtout de celle à ne surtout pas faire, le problème pour moi c'est qu'il est déjà un peut trop tard je l'ai ait déjà fait en grande parti!!!!!!!!!!!! :cry:
Me souvient d'u post sur WRI à Djmael il y a quelques mois. Sur le forum, lui avait dis "rappelle moi que le jour ou on se rencontre, avant les salutations d'usage et le petit verre de l'amitié, je dois franchement te mettre mon pied au c*l" pour pas écouter. Google détecte depuis des mois les phrases où on a juste utilisé des synonymes (en plsu avec un dictionnaire). Relis le posts de départ et surtout relis les articles sur mon site (surtout les graphiques de Trend). Si GG a fait passer des sites de 200.000 visiteurs uniques à quelques milliers du jours au lendemain (sur les graphiques, le 200.000 en absisce est effectivement le nombre de visiteur par jours :oops: ), tu crois pas que des petits sites satellites de 10 VU subiront pas le même sort (surtout en utilisant oooo :roll: ).

Je viens de passer mon après midi à réécrire une page complète en utilisant copyscape pour un site qui est en ligne depuis 6 ans (c'est le WWW) par rapport à mon premier site qui bouge quasiment plus depuis ... 6 ans .... et cette page fait actuellement quelque 1500 visiteurs par mois. Ca te donne une idée du problème j'espère.

:evil: pour la petite dizaine de Webmaster que je "coche" par MP sur des problèmes de sites quand ils me le demandent (c'est aussi une partie de mon passe temps sur WRI, j'en prend aucune gloire ni mouvement de pseudo supériorité, je prend juste le temps de le faire), il ya deux catégories ceux qui en prennent des idées et les appliquent à leur sauce (un site n'est jamais l'autre) et les autres. Pourtant, cette série de tests s'est fait en communauté: ce sont mes conclusions mais aussi celles de beaucoup d'autres qui sont repris dans les posts et qui ont aidé (même souvent beaucoup plus). Ca devrait normalement suffire ...
 
Discussions similaires
Haut