Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Sep 17, 2008 1:11

Bonsoir, ...
Quelques uns qui viennent sur ce forum régulièrement savent que je travaille sur les pénalités de Google depuis avant décembre 2007 (les premières pénalités "incompréhensibles"), ce qui m'a marqué ce sont les pages grisées. Tous mes tests sont partis de là, et toute la suite est basée sur le suivi de ces pages grisées.
Pour une fois, mais je crois que 10 mois de tests, de réponses sur le sujet sur ce forum, je mérite (un peu) de mettre un petit liens vers des articles hébergés sur mon site (généralement je met un "gros post" sur WRI avec les trucs recueillis).
Par contre, les commentaires (j'espère) se feront ici.
Dans ce post, on parle des pénalités de Google, où des modifications (plutôt évolutions des techniques) de Google depuis novembre 2007, date des premières bizaretés dans les résultats (ça c'est pas nouveau), mais surtout de déclassements.
Honnêtement, j'ai souvent ris en lisant d'autres forums de référencement (à part WRI, je lis aussi webmaster-hub, mais j'ai surtout reçu des MP pour me donner les forums de secondes zones signalant mes posts ici: ben non, ben oui, peut-être raison, peut-être pas, .... quelques critiques aussi (c'est un c**** connait rien) ... mais aucun forum francophone n'a jamais donné de véritables solutions).

Avant de continuer, depuis des mois, la majeure partie se fait pas MP, ca m'évite de donner des conclusions trop hatives et m'a permis (en plus) de donner des indications de recherches plus larges sur les problèmes. Certains ont testé et renvoyés leurs résultats, d'autres non.
Pour ceux qui ont permis ces tests, un grand merci, pas forcément que de ma part mais pour ceux à qui ca pourrait servir.
D'abord L-Jee pour non seulement avoir testé sur ses propres sites mais surtout pour avoir renvoyé les résultats, ensuite pour Carole pour avoir donné une parties des réponses des problèmes depuis avril, et pour Blogger , ancien habitué des bonnes comme des mauvaises zones pour ses explications complémentaires concernant les .... mauvaises pratiques mais surtout les raisons de Google de bloquer certaines parties

J'ai fait une synthèse sur mon site principal (il me manque la partie la plus tordue, la majorité est en ligne maintenant) de 10 mois de tests des pages grisées qui comme par hasard suivent ou précèdent les sanctions. Ben oui, tous mes tests on suivi le passage de pages grisées, pas les sanctions qui sont finalement la partie visible.

Commençons par un petit récapitulatif du PR actuel et un petit historique des sanctions depuis octobre 2007 http://www.ybet.be/news-fiche.php?numero=3
Début des hostilités, WRI se prend un PR ... plus petit (et les autres forums en rient) ... Wri s'en est pris une pour vente de liens (du moins soupçonné par Google). A l'époque, j'ai une page PR4 qui envoie un lien vers WRI -http://www.materiel-informatique.be/webrankinfo.php qui passe grisé à peu prêt au même moment, ce n'est pas la seule qui subit le même sort, sa jumelle vers webmaster-hub prend le même chemin...
J'en conclut à l'époque que ces deux sites se sont fait cassés en PR (pas en visiteurs) par GG en supprimant des pages reprenant des liens trop gentils (plus retrouvé le post), ...
Mon idée à l'époque c'était la baisse de PR lié à la suppression de l'index de pages jugées trop "envoi de lien". Je sais, le PR sert plus à rien pour la majorité, mais si. quelques liens PR4 biens choisis et la page qui reçoit les liens passe quasiment n'importe quelle requête standards à l'aise. Plus le lien reconnu par Google (PR aussi), la page sombre dans les abimes des trentièmes pages.
Pourtant, c'est ce qui s'est passé pour beaucoup de grosses pages internes, les petites pages sanctionnées d'un site, et la "grosse au dessus" descend. Dans les statistiques visiteurs, cé donne entre 1 et 5 % en moins, quasiment indétectable

Deux GD et de nouveau des pages grisées en plus, mais au passage, des pages reprenant uniquement des liens (internes ou externes d'ailleurs) se font grisées et quelques petites descendes dans les stats http://www.ybet.be/news-fiche.php?numero=4
Ce sont les liens qui semblent poser problèmes, mais pas seulement

et avril, juin 2008 .. petit réveil de la communauté http://www.ybet.be/news-fiche.php?numero=5
On peu retenir le duplicate de quelques mots "et surtout moins gourmands en énergie", comme exemple mais il y a pire, mais surtout le duplicate content de description dans les annuaires ou copies de sites (et faut pas grand chose).


Maintenant, au bricoleurs à prendre la parole.

Me reste une page à faire, c'est fou ce que j'ai découvert dans toutes ces analyses, mais non, elle est maintenant en ligne ... avec quelques jours de retard Ben voyons, pire ou moins .. bon

PS1, les questions réponses se font ici (pas sur mon site), mon expérience en référencement s'est fait sur WRI (ca doit être pourquoi les tests, mais surtout les résultats, se sont fait ici)
PS2: un grand merci aux trois Webmastres repris ci-dessus et aussi aux quelques PM d'autres
PS3: comme quelques-un de mes "gros post" sur WRI, je modifierai en fonction des réponses.
PS4: .... ben oui, les parties de mes conclusions sont déjà sur Google, pas de chance de duplicate, comme quoi, j'ai (pas que moi) beaucoup appris dans ces tests
Modifié en dernier par ybet le Jeu Sep 18, 2008 12:56, modifié 3 fois.
Haut
123 Réponses
Messages: 23109

Enregistré le: 19 Avr 2002

Message le Mer Sep 17, 2008 9:51

Tout d'abord un grand merci de livrer ici tous tes résultats, c'est très apprécié par les membres de WRI. Je t'ai corrigé un certain nombre de fautes de frappes, maintenant je vais relire ton post à tête reposée... A+

Olivier
PS: tu dors pas la nuit ?
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Sep 17, 2008 11:21

WebRankInfo a écrit:
Olivier
PS: tu dors pas la nuit ?

C'est exactement ce que ma dit ma femme en me réveillant ce matin :lol:
Un petit résumé vite fait:
depuis octobre 2007, les déclassements
1. vente de liens soupconnés: descende de PR mais pas de pertes visiteurs. Les cas avérés d'achats à l'étranger entrainent automatiquement le déclassement du site qui achète, mais c'est plutôt rare et c'est pas le but de cet article
2. Page dont le contenu est presqu'exclusivement des liens (internes ou externes) -> grisé la plupart du temps, solution ajouté du contenu (genre petite description des liens), ca marche. Autre solution, des liens externes provenant d'un autre site (attention, les sites d'un même webmaster n'ont pas l'air d'intervenir, GG est registar)
3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation -> déclassement de toutes les pages avec un contenu trop faible
4. contenu dupliqué ou copié, en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google cf. http://forum.webrankinfo.com/permis-obligatoire-pour-aller-sur-internet-faudra-pens-t99280.html

Pour le 4, je suis juste en train de tester si GG élimine complètement la page (sauf en ignoré ...), juste la partie après le duplicate (en plus de la partie dupliquée) ou toute la page. Pour l'instant, après trois jours de visites de la page de tests, GG n'a suivi aucun lien :twisted: sur cette page (désolé pour le copier / coller dans les descriptions d'annuaires).

Ce qui devrait suivre (parle dans mon article)

5. déclassement des pages avec des fautes d'orthographe SEO (j'ai déjà donné sur le forum l'exemple EXCELL (y compris si elles sont pas faites exprêt)
6. déclassement des pages avec des conjugaisons fausses (genre j'ai acheter ...

Pour les deux dernières, selon Blogger, c'est le déclassement des pages créées automatiquement par des logiciels blackhat pour créer des multiples pages en reprenant le même contenu mais en le modifiant automatiquement (synonymes, mauvaises traductions des tournures de pages, erreurs de conjugaisons par le programme, fautes liés au logiciel de création de page). Je pense qu'il a raison.

Dommage que des pages propres se font déclasser pour des bétises (on va parler de dommage collatéraux).
Haut
Messages: 2050

Enregistré le: 22 Nov 2005

Message le Mer Sep 17, 2008 11:23

Merci Ybet de partager tes analyses, elles sont précieuses. C'est appréciable de pouvoir profiter d'analyses de haut vol et de pouvoir en débattre. :)

Je donne mon modeste avis par rapport à ce que j'ai pu constater sur les sites dont je m'occupe :

1. Effectivement des pages à faible partie contenu ont tendance à être désindexées, l'ajout de texte et de liens externes est pour l'instant une solution.

Note : Ca change de l'époque où j'ai commencé le SEO quand Google indexait le plus de pages possibles, ils ont bien compris que le but n'est pas d'avoir le plus gros index, mais le plus pertinent. Ce que n'a pas compris Cuil...

2. Concernant les pages partenaires grisées : j'ai plusieurs pages partenaires sur mon site principal, elles sont toutes intégrés dans la navigation sur tout le site et dans le contenu à certains endroits, elles ont toujours du PR et envoient du bon juice à mes partenaires.

3.
Pourtant toutes ne sont pas touchées, les plus intéressantes, donc les plus visitées (même sans contenu supplémentaire) n'ont pas bougées


Oui, il est clair que le nombre de visites sur chaque page rentre maintenant dans le calcul de pertinence de la page, et, apparemment, il rentrerait aussi dans le calcul du PageRank exporté ?!?

4.
En troisième, quelques exemples de duplicate:


Tes exemples sont flippants, si une phrase de 6,7 mots peut passer en duplicate content, ça va faire mal... Quid des citations célèbres ou autres formules reprises un peu partout ? Ca me parait trop sévère comme filtre, peut-être est-ce un test ou qu'il y a d'autres éléments de corrélation entre ces pages ??
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Sep 17, 2008 12:10

dadovb a écrit:
En troisième, quelques exemples de duplicate:


Tes exemples sont flippants, si une phrase de 6,7 mots peut passer en duplicate content, ça va faire mal... Quid des citations célèbres ou autres formules reprises un peu partout ? Ca me parait trop sévère comme filtre, peut-être est-ce un test ou qu'il y a d'autres éléments de corrélation entre ces pages ??

Si tu crois que c'est déjà flippant, imagine la tête du Webmaster du troisième exemple quand je lui ais envoyé par MP .... même des phrases où la conjugaison est différente et avec des inversions de complément d'objet diret (genre: depuis des années, je suis suis WRI + je suis depuis des années sur WRI ...) ont aussi déclassé quelques unes de mes pages ...

Me suis fait avoir entre mes deux sites YBET (le nouveau 5 ans et la veille version sur mon fournisseur d'accès :oops: ). Sauf que là, aucun des deux sites ne s'est fait déclassé (trop vieux sans doutes, l'ancien a bien 10 ans), par contre, le dictionnaire informatique repris dans mes tests avec quelques tournures du genre repris sur mon WWW (en ligne depuis 3 ans quand même) lui n'est pas passé :?
Pourtant, sur celui-là, mes modifications du début du mois, c'est ... le record en visiteurs cette semaine :wink:

Pages vues (P) 5 307 (27/02/2008) 3 784
Visites (V) 1 941 (11/03/2008) 1 879
Visiteurs (Vr) 1 866 (15/09/2008) 1 816
Pages vues par visite (P/V) 73,0 (12/12/2005) 2,0
Taux de visites entrantes (TxVE) 100,0% (01/12/2005) 26,5%
Pages vues par visite entrante (P/VE) 73,0 (12/12/2005) 4,8
Durée moyenne des visites (D/V) 01:16:05 (18/12/2005) 06:47
Durée moyenne par page (D/P) 03:45 (27/01/2006) 01:24


et la montée vient des petites pages jusque là pénalisées ... Ca vaut un peu la peine de s'intéresser au problème. Même repris la première place en mondial sur une recherche en 1 mot après modifs d'une page ...
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Mer Sep 17, 2008 13:13

ca c'est de l'étude si j'aurai pu je t'aurai mis 10 reco !!!
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Mer Sep 17, 2008 14:19

Vraiment très enrichissant et manifestement bien mené, malgré la complexité de Google, réussir à faire des conclusions, on peut que te féliciter.

Je me posais juste une petite question. Tu parles de duplicate sur une page qui provoqué un déclassement. Y-a-t-il un déclassement uniquement de la page, ou des pages concernés, où ça entraine également le reste du site (moins mesure j'imagine).

Je prends par exemple 2 exemples, les boutiques de vente de livre et les sites de cinéma reprennent généralement les mêmes textes (mot de l'auteur pour le livre et synopsis pour les sites de cinéma) pour autant que je sache, ils sont tout de même bien référencé. Google ne serait-il pas faire la différence entre le contenu qui est nécessairement dupliqué et celui qui est volontairement dupliqué pour le référencement ?

(ps : dans mon cas à moi, je référence des livres dans le thème précis de mon site, et même si une partie est réécrite suite à ma lecture, une bonne partie reste du texte dupliqué. Comme j'ai un gros travail de rédaction sur le reste du site, j'ai pas nécessairement envie de voir ce boulot ruiné pour ça :))

Ah oui, évidemment +1 reco
Haut
Messages: 1296

Enregistré le: 12 Juil 2006

Message le Mer Sep 17, 2008 14:27

ybet a écrit:3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation -> déclassement de toutes les pages avec un contenu trop faible


Bravo Ybet. Je reconnais mes pages grisées dans le cas 3 ci-dessus... et je ne peux pas y remédier pages de galeries de photos sous JS et pas de remède : je dois garder la navigation et l'ajout de texte est prohibé par le donneur d'ordre! :).

Mais le bon diagnostic du médecin soulage même quand on ne prend pas les médicaments :!: :lol:
Haut
Messages: 7322

Enregistré le: 11 Déc 2007

Message le Mer Sep 17, 2008 14:38

tonguide a écrit:Je me posais juste une petite question. Tu parles de duplicate sur une page qui provoqué un déclassement. Y-a-t-il un déclassement uniquement de la page, ou des pages concernés, où ça entraine également le reste du site (moins mesure j'imagine).


D'après ce que j'ai pu constater en faisant des tests (similaires à ceux d'Ybet), Google sanctionnerait à la base simplement la page mais si ton site dépasse X% de page dupiquées, la google te sanctionne le site. Je n'ai cependant aucune idée du pourcentage exact et ceci n'engage que moi. Des tests sont encore en cours.
Haut
Messages: 862

Enregistré le: 10 Fév 2005

Message le Mer Sep 17, 2008 14:54

Chapeau Ybet et recommandation...
Analyse très pertinente.
Haut
Messages: 1340

Enregistré le: 29 Sep 2006

Message le Mer Sep 17, 2008 15:25

Très interessant d'avoir une analyse détaillée sur le sujet.
+1

Les pages grisées correspondent chez moi a des pages de sommaire, la racine d'un dossier qui reprend tous les articles correspondant à ce dossier.

Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.

Un exemple, la même page exactement qui est grisée en version anglaise et à une barre verte en version française. Et c'est la version anglaise qui a le plus de backlinks! Cela doit avoir un rapport avec la concurrence.

En ce qui concerne le duplicate, Google a fait une clarification sur googlewebmastercentral.
Haut
Messages: 2262

Enregistré le: 7 Aoû 2006

Message le Mer Sep 17, 2008 15:41

Merci Ybet pour tes tests :D


Jeviensderio a écrit:Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.


Je suis dans le même cas que toi, certaines pages de sommaire ont gardé leur PR mais pas d'autres alors qu'elles avaient la même structure.
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Mer Sep 17, 2008 16:20

L.Jee a écrit:
tonguide a écrit:Je me posais juste une petite question. Tu parles de duplicate sur une page qui provoqué un déclassement. Y-a-t-il un déclassement uniquement de la page, ou des pages concernés, où ça entraine également le reste du site (moins mesure j'imagine).


D'après ce que j'ai pu constater en faisant des tests (similaires à ceux d'Ybet), Google sanctionnerait à la base simplement la page mais si ton site dépasse X% de page dupiquées, la google te sanctionne le site. Je n'ai cependant aucune idée du pourcentage exact et ceci n'engage que moi. Des tests sont encore en cours.


Ok merci, dans mon cas c'est pas génant, les pages livres étant très minoritaire.

Par contre, je me dis que pour les comparateurs de prix, il y a de forte chance que la majorité de leur contenu se retrouve en duplicate et là aussi, on peut pas dire qu'ils se référencent particulièrement mal ?

Et au passage, est-ce que vos pages déclassées se sont aussi vite reclassées lorsque vous avez retiré ce qui vous aurez déclassé ?
Haut
Messages: 2050

Enregistré le: 22 Nov 2005

Message le Mer Sep 17, 2008 16:26

Jeviensderio a écrit:En ce qui concerne le duplicate, Google a fait une clarification sur googlewebmastercentral.


Entre ce que Google annonce et ce qu'on constate sur nos sites, il y a une sacrée différence... :?
C'est de la comm. pour webmaster...
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Sep 17, 2008 17:43

tonguide a écrit:Et au passage, est-ce que vos pages déclassées se sont aussi vite reclassées lorsque vous avez retiré ce qui vous aurez déclassé ?


Ca dépend des passages de boot et les pages grisées sont effectivement mois visitées que les autres, quoique les dates de cache de Google sur les pages sont quasiment toutes fausses de quelques jours (parfois 15 jours et +) en arrière.

L.Jee a écrit:
tonguide a écrit:Y-a-t-il un déclassement uniquement de la page, ou des pages concernés


Google sanctionnerait à la base simplement la page mais si ton site dépasse X% de page dupiquées, la google te sanctionne le site.


Même déductions ... surtout si le problème est anciens mais L-jee et moi avont beaucoup échangé de réponses par mp, aussi nos différents essais, on a fait le même travail en coopérant (c'est peut-être ca qui nous permet de comprendre), coopération ... mais ca a beaucoup aider.

Jeviensderio a écrit:Les pages grisées correspondent chez moi a des pages de sommaire,

Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.

Idem, c'est la raison pour laquelle j'ai rajouté des textes dans les sommaires du dictionnaire materiel-informatique.be.

dadovb a écrit:
Jeviensderio a écrit:En ce qui concerne le duplicate, Google a fait une clarification sur googlewebmastercentral

Entre ce que Google annonce et ce qu'on constate sur nos sites, il y a une sacrée différence... :?
C'est de la comm. pour webmaster...


J'ai donné la réponse là http://forum.webrankinfo.com/demystification-des-penalites-google-pour-duplicate-content-t99319.html c'est exactement de la communication. Ensuite, en faisant les tests de duplicate dans mes pages ... Google ne reprend plus ce qui est et le texte après le duplicate dans sont son cache, la partie au-dessus oui. Le blog raconte n'importe quoi.
Modifié en dernier par ybet le Jeu Sep 18, 2008 12:59, modifié 2 fois.
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Mer Sep 17, 2008 17:52

ybet a écrit:
Jeviensderio a écrit:Les pages grisées correspondent chez moi a des pages de sommaire,

Mais ce qui me préoccupe est que c'est une fois sur deux. Ces pages de sommaire peuvent avoir un PR ou pas, sans relation avec l'ancienneté ou le nombre de backlinks. Pour moi, çà reste mystérieux.

Idem, c'est la raison pour laquelle j'ai rajouté des textes dans les sommaires du dictionnaire materiel-informatique.be.


Ce qui a eu pour effet de reclasser ces pages les jours/semaines suivantes, ou tu n'as pas encore vu le résultat ?

J'ai moi-même remarqué ça, mais sans certitude, vu que ça a marché super bien pour 2 "sommaires" et pour l'un, ça a empiré.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Sep 17, 2008 22:16

A ton avis :wink: Ce qui est mis sur ce post, c'est aussi 10 mois de tests. Pendant ce temps, j'ai essayé des dizaines de combinaisons (parfois complètement farfelues j'avoue) si tu a lu le "dossier", tu saurais que oui pour les pages que j'ai réellement modifié. Mais faudra attendre la prochaine GD pour être sûr et certain. Dans le cas des pages de liaisons ne reprenant que des liens (même avec du texte autour, elles sont rarement dans les pages d'entrée (ou plutôt je vas pas m'amuser à vérifer ces pages dans les stats pour vérifier si elles ont bougées de une ou moins une visite comme page d'entrée).
Suis plutôt humain que robot, ....
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mer Sep 17, 2008 23:28

Ca vous dit un petit cours d'orthographe, savoir lire la date et l'heure ... Ne révez plus, Google renvoit les pauvres petits référenceurs à l'école pour leur bien (suite et ... fin des 10 mois de tests sur les pénalités).

Google un sacré farceur

Là d'accord, je l'ai fait plutôt humoristique :lol: mais c'est sérieux. :roll:
Haut
Messages: 249

Enregistré le: 25 Mar 2006

Message le Jeu Sep 18, 2008 13:47

Super boulot

Sur un petit site, j'ai une page partenaires ou il ya que des liens, depuis plus d'un an et toujours pas grisé..

Merci
+1reco
Haut
Messages: 738

Enregistré le: 6 Mai 2005

Message le Jeu Sep 18, 2008 14:24

Ce que Google reproche a Bigannuire est peut-être une inscription automatique des sites par les webmasters, mais probablement plus la structure de la page d'entrée ne reprenant finalement que des liens.


Pas d'accord sur ce point. Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.

Quant aux pages à Pr grisé, c'est pricipalement des pages qui regroupent des titres de billets, des listes de liens. Donc non pertinentes d'un point de vue mot réactivité au mots clé présents. Je crois aussi que Dicodunet a subit cette pénalité. Il était tres pénible de tomber sur ce site en faisaint des recherches avec google sur plusieus mots. Les pages contenaient un tas de mots clés constistuée uniquement de titres de billets n'ayant pas trop de rapport entre eux. Aucun documents ne contenait en fait les mots clés recherchés.
Haut
Messages: 1340

Enregistré le: 29 Sep 2006

Message le Jeu Sep 18, 2008 14:28

Google chercherait-il à supprimer les intermédiaires de son index? (flux, annuaires, sommaires...).

Ce ne serait pas illogique. :idea:
Haut
Messages: 2050

Enregistré le: 22 Nov 2005

Message le Jeu Sep 18, 2008 14:40

mariea a écrit:
Ce que Google reproche a Bigannuire est peut-être une inscription automatique des sites par les webmasters, mais probablement plus la structure de la page d'entrée ne reprenant finalement que des liens.


Pas d'accord sur ce point. Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.


Difficile de croire que Google sanctionne les liens entrants sur un site, dans ce cas, il serait facile de faire plonger la concurrence...
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Jeu Sep 18, 2008 15:25

medjaz a écrit:Sur un petit site, j'ai une page partenaires ou il ya que des liens, depuis plus d'un an et toujours pas grisé..

Là aussi, il y a quelques bizarretés, des pages reprenant la même structire sur materiel-informatique.be sont grisées, d'autres nom. Il suffit parfois d'un lien externe vers cette page pour tout changer (y compris pour les parties internes des annuaires ....)

mariea a écrit:Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.

Quant aux pages à Pr grisé, c'est pricipalement des pages qui regroupent des titres de billets, des listes de liens. Donc non pertinentes d'un point de vue mot réactivité au mots clé présents.

Pour les liens de retour, c'est plutôt l'inverse, quelques liens externes changent toute la donne, y compris pour les annuaires, un des mien est commplètement grisé sauf 3 pages qui ... ont un lien de retour mis gentillement par un des inscrit . En plus, sur Bigannuaire, le lien de retour n'est pas obligatoire ...
Déjà quasiment tous les annuaires (et généralement, ils imposent une description ...), c'est plus tout à fait une liste de billets ou de liens. En plus, de nouveau, toutes ne sont pas touchées. Probablement une partie à cause de leurs visites, quelques liens externes dessus aussi.

Et en dernier, si des sites sont mentionnés c'est comme exemple, savoir que tu n'apprécie pas un site n'apporte pas grand chose au post. Google n'a pas cassé bigannuaire ou dicodunet (et beaucoup d'autres) manuellement sur "dénonciation d'internaute". Rien qu'avec le nombre d'annuaires sur Internet, il faudrait une fameuse équipe de vérificateurs pour déterminer les quel sont bons et les quels sont mauvais. Et il n'y a pas que des annuaires qui sont touchés ...

Jeviensderio a écrit:Google chercherait-il à supprimer les intermédiaires de son index? (flux, annuaires, sommaires...).

L-jee a déjà fait remonter un de ses annuaires en supprimant le duplicate ... (pas exactement comme avant la sanction de juin mais pas mal, le dictionnaire que j'ai modifié pour duplicate + texte explicatif dans les listes de liens vient pour le troisième jour consécutif de battre son record d'audience ....
Rien dans tout çà n'est manuel, c'est juste des modifications (on va dire perfectionnement) de l'algorythme qui font que ca ressemble à des pénalités sur des sites spécifiques ... Corrigés, les pages remontent automatiquement.

directement en fin de la première page :wink:

Tiens, Google viens de comprendre un de mes petit tests de duplicate, 3 jours de présence sur les recherches puis disparue, y compris dans les pages ignorées (pourtant, au total, ca fait 50 résultats en prenant les pages ignorées et la page qui envoit le lien avec le texte est toujours bien présente) ... et sur ces trois jours, il n'a pas suivi mes deux liens vers deux autres pages ... La page duplicate va probablement réapparaître dans quelques jours à la 50 ième place en ignorée.
J'attend quelques jours pour lui envoyer un petit lien externe
Modifié en dernier par ybet le Ven Oct 31, 2008 18:56, modifié 1 fois.
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Jeu Sep 18, 2008 15:28

j'adore voir comment ybet manipule GG je suis MDR
Haut
Messages: 2262

Enregistré le: 7 Aoû 2006

Message le Jeu Sep 18, 2008 15:42

ybet a écrit:Ca vous dit un petit cours d'orthographe, savoir lire la date et l'heure ... Ne révez plus, Google renvoit les pauvres petits référenceurs à l'école pour leur bien (suite et ... fin des 10 mois de tests sur les pénalités).

Google un sacré farceur

Là d'accord, je l'ai fait plutôt humoristique :lol: mais c'est sérieux. :roll:


Encore un grand merci pour avoir éclairé nos lumières sur le PR grisé. Je vais te faire quelques BLs vers ton site, ce sera mon modeste cadeau de remerciement :wink:
Haut
Messages: 7322

Enregistré le: 11 Déc 2007

Message le Jeu Sep 18, 2008 17:05

ybet a écrit:L-jee a déjà fait remonter un de ses annuaires en supprimant le duplicate ... (pas exactement comme avant la sanction de juin mais pas mal)

Ceci dit j'ai viré pas mal de sites et vu que j'ai réécris les textes et amélioré certain titre, ça parait des plus logique que le trafic ne soit pas revenu entièrement mais a quelques 200vu/jour le trafic est revenu ;)
Haut
Messages: 738

Enregistré le: 6 Mai 2005

Message le Jeu Sep 18, 2008 17:40

dadovb a écrit:
mariea a écrit:
Ce que Google reproche a Bigannuire est peut-être une inscription automatique des sites par les webmasters, mais probablement plus la structure de la page d'entrée ne reprenant finalement que des liens.


Pas d'accord sur ce point. Pour moi, il est évident que Google reproche la multitude de liens en retour (interne sur la page dans laquelle apparait les sites inscrits) qui assurait a bigannuaire une visibilité tout a fait anormale dans l'esprit du PR.


Difficile de croire que Google sanctionne les liens entrants sur un site, dans ce cas, il serait facile de faire plonger la concurrence...


Je me suis mal exprimée. Je parlais des liens externes profonds ( et non internes) et de cette stratégie qui consiste a demander à chaque site inscrit dans un annuaire de renvoyer un lien vers la rubrique dans laquelle il est inscrit ...
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Ven Sep 19, 2008 13:37

rudddy a écrit:j'adore voir comment ybet manipule GG je suis MDR


Je manipule rien du tout, je vérifie simplement mes observations avec des pages faites exprêt pour Google reprenant tout ce qu'il n'aime pas et vérifie les positionnement :wink: C'est plutôt lui avec ses fausses dates de caches qui me manipule ... Pas moyen de s'y fier.

Viens de vérifier les parties de l'annuaire de dico, à chaque fois, duplicate avec WRI, les pages spécifiques aux sites dans l'annuaires quasimement toutes grisées dès qu'il y a un autre annuaire qui reprend la même (trouvé indexweb par exemple), sinon (cas de mon WWW), blanc ... Pas que les fluxs RSS dans ce cas, aussi le contenu... même sanction que les annuaires sauf que c'est WRI qui est passé devant à tous les coups. Par contre, de nouveau quand le contenu se retrouve sur trop de sites, les faibles sont supprimés du cache (mais présent dans les résultats oubliés ... donc connue). Attention tout de même au cache, il disparaît et revient suivant les recherches dans ce cache.

Pour le coup du lien externe venant d'un même webmaster (ou assimilés, on a déjà détécté ça quelques trois mois avec Bogger sur deux de nos sites :lol: , et c'est moi qui manipule GG sans doute :roll: ) , ca semble rappé ... Google connait le lien (même si la date des 2 caches sont fausses), mais page toujours pas revenu dans les résultats.

PS: pour ceux qui se demanderaient comment je fait pour savoir ou non dans les recherches, ... mes sites sont .be et donc nettement avantagés sur Google.be. Un terme spécifique qui n'est pas revenu sur la requête dans les premières pages uniquement belgique, ... pas la peine, elle est toujours mise de coté.
Haut
Messages: 311

Enregistré le: 24 Déc 2004

Message le Lun Sep 22, 2008 22:15

ybet a écrit:
rudddy a écrit:j'adore voir comment ybet manipule GG je suis MDR


PS: pour ceux qui se demanderaient comment je fait pour savoir ou non dans les recherches, ... mes sites sont .be et donc nettement avantagés sur Google.be. Un terme spécifique qui n'est pas revenu sur la requête dans les premières pages uniquement belgique, ... pas la peine, elle est toujours mise de coté.


+1 Et reco :lol:
Haut
Messages: 6

Enregistré le: 4 Fév 2007

Message le Mar Sep 23, 2008 7:18

déclassement des pages avec des conjugaisons fausses (genre j'ai **acheter** ... = surtout qu'en bossant un peu, on peut astucieusement placer ces mots pluriel tellement importants du genre ...sur notre site, vous allez pouvoir **trouver** comment :
- **acheter** nos articles seulement à partir de 1
- nous contacter pour plus d'infos avant de **commander**
Haut