Les pénalités Google d'octobre 2007 à sept 2008

Consultez la formation au REFERENCEMENT naturel Google de WebRankInfo / Ranking Metrics

Jeff-man
Nouveau WRInaute
Nouveau WRInaute
 
Messages: 7
Enregistré le: 30 Mai 2008

Message le Mar Sep 23, 2008 8:08

tres bonne analyse, merci


HawkEye
Modérateur
Modérateur
 
Messages: 18187
Enregistré le: 23 Fév 2004

Message le Mar Sep 23, 2008 8:51

ybet a écrit:Viens de vérifier les parties de l'annuaire de dico, à chaque fois, duplicate avec WRI, les pages spécifiques aux sites dans l'annuaires quasimement toutes grisées dès qu'il y a un autre annuaire qui reprend la même (trouvé indexweb par exemple)


Petite précision de langage: ce n'est pas indeXweb.info qui "reprend" la description, mais bien les webmasters qui soumettent un contenu identique à plusieurs annuaires (ce qui est d'autant plus suicidaire quand on le soumet à des annuaires à forte visibilité que quand on le soumet en automatique).

Bon nombre d'annuaires "sérieux" requièrent ou recommandent une description dite "longue", précisément dans le but de:

- forcer les gens à écrire, donc augmenter les chances d'avoir un contenu unique
- réduire les effets de duplication de contenu (cas de 1 à 2 phrases recopiées partout).

Lorsque précisément, sur ce genre d'annuaires, on fait un copié-collé de sa homepage, de sa page de "présentation", voire depuis un fichier .txt posé sur un coin du bureau... les effets sont probablement encore pires.

Pour éviter ça, j'envoie un avertissement assez clair (je l'espère... ) depuis plusieurs semaines: http://annuaire.indexweb.info/reference ... ml#warning ;)

jfcontart
WRInaute discret
WRInaute discret
 
Messages: 178
Enregistré le: 22 Sep 2007

Message le Mar Sep 23, 2008 10:25

MERCI YBET (je le dis haut et fort :-) )

je vais reprendre tes points pour donner un peu de ma médiocre expérience :-)


point n° 4, 5, 6
j'ai particulièrement apprécié les nouvelles notions "littéraire" de GG (duplicata/synonyme/orthographe/grammaire) et cela va me faire gagner du temps (j'allai lancer un site de vente spécialisé avec des articles trop proche de par la spécialité et donc dans leur présentation) donc MERCI (merci aussi HawkEye) au moins une semaine de gagnée! :-)
par contre pour mon www c'est un travail de 3-4 mois pour le modifier et le mettre aux normes "iso-ybet-2008"

point n°1
pour la pénalité de vente de lien... le problème peut-être inversé et GG n'en prend pas compte. Avant j'avais un lien depuis un site mieux classé, (en fait il s'est mieux classé car les gens passaient par lui pour accéder à mon www, le webmaster piratant mon formulaire du dictionnaire) ...pas grave... puis une fois devant, il vire mon lien. Je vois une baisse de VU, je le contacte et il me demande de le payer pour remettre le lien! GG en a été averti, mais il ne puni pas ce genre de pratique : le chantage de disparition de liens ou le détournement de formulaire de recherche!

point n°3
De plus son site a une structure d'annuaire mais n'est pas basé sur un moteur php. GG semble être capable de reconnaître les moteurs d'annuaires plus que les annuaires en soi, sûrement à cause de la structure que nous (développeur) imaginons et le duplicate-content de nos descriptions (comme dit HawkEye: c'est de notre faute! Mais en même temps, à ma décharge, la description d'un dictionnaire latin-français varie peu).

La structure très "simple" (et le pseudo-code html) d'un annuaire fait sous **word** semble une valeur plus sûr pour GG (car plus amateur?!?) pourtant ses pages sont des suite de liens. Je pense que GG reconnaît des empreintes html des moteurs et pénalise aussi le mask-duplicate. C'est comme cela qu'il a éliminé nombre de wiki des résultats pourtant riche en texte.

point annexe:
toujours pour mon www, je me suis aperçu que le trafic baisse malgré un positionnement identique. Soit mon domaine passionne moins, soit les internautes changent de pratique. Le nombre de personne présentes (visiteurs et intervenants) au dernier festival européen latin grec de madame Antébi (http://www.festival-latin-grec.eu) semblent pourtant affirmer la passion pour le latin. Pareil pour le nombre d'èleves latinistes (1/2 million, constant). Le nombre d'internaute augmentant je devrais voir une augmentation du trafic avec mon positionnement identique. Alors que ce passe-t-il? http://www.google.fr/trends?q=dictionnaire+latin donne un aperçu: le nombre de recherche baisse! c'est faible mais si on l'oppose de la croissance des foyers connectés, c'est flagrant!

je ne remet donc pas en cause le latin, les étudiants, GG ou mon site, mais doit constater que les internautes changent!

Pourquoi penser que GG pénalise (pénalise "seulement" devrais-je dire)?
Pourquoi ne pas penser aussi que GG s'adapte à une évolution des demandes?
Car qui mieux que Google connait ce que recherche l'internaute?
L'algorithme(s) s'adapte pour être pertinent et on observe des dommages collatéraux. Surtout avec un système de PR contaminant (on déclasse un gros site ce qui déclasse les moyens, ce qui plombe les petits)
il y a peut-être aussi des "bugs" dans l'algo... GG ne semble pas utiliser un vrai algo mais plus des programmes d'évaluation de score avec filtres/analyseur/etc. et j'insiste sur "des".
Modifié en dernier par jfcontart le Mar Sep 23, 2008 10:31, modifié 1 fois.

lolilol
WRInaute impliqué
WRInaute impliqué
 
Messages: 768
Enregistré le: 19 Déc 2002

Message le Mar Sep 23, 2008 10:29

Merci pour ses renseignements, une petite reco s’impose ;)

Bigbangbel
WRInaute discret
WRInaute discret
 
Messages: 168
Enregistré le: 22 Jan 2008

Message le Mar Sep 23, 2008 12:22

Absolument magistral !
1 reco

rtb
WRInaute passionné
WRInaute passionné
 
Messages: 1065
Enregistré le: 14 Nov 2004

Message le Mar Sep 23, 2008 12:34

Merci d'avoir partager ces résultats.

titiplanti
WRInaute occasionnel
WRInaute occasionnel
 
Messages: 449
Enregistré le: 4 Nov 2004

Message le Mar Sep 23, 2008 15:01

Très intéressant ! 1 reco.

Du boulot en perspective pour ceux qui gèrent des annuaires ...

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Mar Sep 23, 2008 17:52

HawkEye a écrit:
ybet a écrit:Viens de vérifier les parties de l'annuaire de dico, à chaque fois, duplicate avec WRI, les pages spécifiques aux sites dans l'annuaires quasimement toutes grisées dès qu'il y a un autre annuaire qui reprend la même (trouvé indexweb par exemple)


Petite précision de langage: ce n'est pas indeXweb.info qui "reprend" la description, mais bien les webmasters qui soumettent un contenu identique à plusieurs annuaires (ce qui est d'autant plus suicidaire quand on le soumet à des annuaires à forte visibilité que quand on le soumet en automatique).


Forcément :wink:

J'ai quelques tests en route, aidés par des membres de ce forum (si un ou l'autre veut donner un petit coup de main, via MP). Ca consiste à mettre quelques pages bricolées sur des sites et envoyer des liens vers ces pages de quelques domaines.

Quand Google annonce sur son bloc que c'est la première page vue par les robots qui est reprise, c'est faux. Quelques sites semblent priovilégiés et passent quasiment à tous les coups (des annuaires bien sûr, mais aussi des sites de vente en ligne, ...)

Ca fait le deuxième message (sur deux forum différents en plus) que je répond où le site du webmaster a disparu, pas de chance, il a repris sont texte d'entrée comme description dans au moins un gros annuaire (j'ai pas vérifié, mais je pense qu'il remonte) et un autre qui met exactement le même contenu de ses pages sur les sites de vente en ligne.

Mais continue à recevoir des copier/coller sur mon annuaire comme si de rien n'était ....

Ps: je lit quelques posts depuis quelques jours, j'ai l'impression que la troisième vague de duplicate commence .... J'espère juste me tromper.
Modifié en dernier par ybet le Mar Sep 23, 2008 18:41, modifié 1 fois.

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Mar Sep 23, 2008 18:18

jfcontart a écrit:La structure très "simple" (et le pseudo-code html) d'un annuaire fait sous **word** semble une valeur plus sûr pour GG (car plus amateur?!?) pourtant ses pages sont des suite de liens. Je pense que GG reconnaît des empreintes html des moteurs et pénalise aussi le mask-duplicate. C'est comme cela qu'il a éliminé nombre de wiki des résultats pourtant riche en texte.

Ce n'est pas HTLM ou PHP que GG détecte, c'est la structure répétitive des forums. Fait toute tes pages en HTML en copiant le même header et la même colonne de gauche, ca sera le même problème .. C'est la structure du site qui pénalyse.

En deux, les WIKI sont la pire plaie d'Internet, ce sont en majorité eux qui copie le contenu des VRAIS sites. J'ai encore le cas avec un de ces trucs bordéliques du WREB2.0. Un farceur africain reprend comme partage d'information toutes des parties à la queue leu d'un de mes sites .... Mail au webmaster, c'est moi qui doit prouver que ca vient de mon site, en plus je dois mettre un certificat de sécurité pour rouver que je suis le webmaster, ..... Ca prépare un tribunal avec un de ces bordel américains (ou même mieux, un fameux duplicate content ...).

Mais Google les privilégie ... J'ai pas fait mes tests dans cet esprit (c'est pas mon genre), mais j'ai parfois envie de casser cette belle colaboration Google - copieurs de WIKI ... (mon petit coup de geule de la semaine :wink: )


C'est qui qui a parlé de ISO-YBET-2008?
Image

Reste plus qu'à faire comprendre à Google :oops:

PS Hawk: monte pas directement dès qu'on parle d'index, .... Les sites qui sont cités ici sont de deux groupes, ceux qui ont pris des pénalités et ... ceux qui semblent suffisamment correct pour Google pour passer devant. :lol: Dans les tests d'annuaires, WRI passe aussi devant. Et aucune intention de déclasser ou surclasser un site ou un autre (j'ai déjà répondu sur ce post à une petite réflexion mesquine sur un des site que j'ai cité), juste de donner des exemples de sites. Passer le duplicate, c'est plutôt bon pour index, ca prouve qu'il est "manuellement" bien vu pas les vérificateurs de Google.

jfcontart
WRInaute discret
WRInaute discret
 
Messages: 178
Enregistré le: 22 Sep 2007

Message le Mar Sep 23, 2008 19:06

ybet a écrit:C'est qui qui a parlé de ISO-YBET-2008?.

c'est moi! et me gueule pas dessus :-) j'y suis pour rien si t'es spolié
ybet a écrit:Ce n'est pas HTLM ou PHP que GG détecte,

j'ai pas parlé de HTLM ou PHP mais d'empreinte html comme par exemple l'usage de structure dans la dénomination d'id ou de class qui sont identiques d'un site à l'autre utilisant le même moteur (souvent open source/ free). J'ai utilisé de nombreuse fois la notion d'empreinte html pour retrouver automatiquement des informations ... par exemple on retrouve les forum phpbb via une empreinte comme "<dd class="lastpost"><span><dfn". On classe alors très vite les pages en fonction de l'empreinte qu'elle affiche. l url étant trop facilement modifiable par url-rewriting.
honnêtement en 1 mois je peut avoir 99% des empreintes des moteurs open-sources (forum/cms/e-commerce), alors GG avec sa puissance doit utiliser cette notion d'empreinte. Reste à savoir ce qu'il en fait. Mais passe au travers les sites montés de toutes pièces (comme les sites non dynamiques) ou des moteurs de site indépendant (comme mon www) d'où une autre idée le mask et le mask-duplicate (intra site ou inter site)

ybet a écrit:Fait toute tes pages en HTML en copiant le même header et la même colonne de gauche, ca sera le même problème .. C'est la structure du site qui pénalyse.

on peut par soustraction de plusieurs pages d'un même site, extraire un mask et ne plus le prendre en compte. d'où le mask-duplicate (une notion que j'ai déjà évoqué dans un de mes posts) et entre site on peut valider un mask-duplicate et donc pénalisé des sites qui sont trop similaire dans la structure (au dela du moteur ou du duplicate content)

(re)lis calmement avant de (re)piquer un phare ... :-p

les wiki t'es contre... moi aussi ... mais de nombreux wiki sont mal classés (heureusement) et GG a pris des disposition contre wikipedia (enfin moi je les vois pas mais GG le dis) j'ai dis "riche en texte" pour dire qu'il y avait beaucoup de texte, j'ai pas voulu dire "original en texte"... les wiki c'est une plaie! :(

t'as été volé... moi, on m'a piqué ma place SERP en détournant ma base durant plusieurs mois :-p mais c'était pas un wiki, ni un site dynamique. Au delà du wiki, c'est un type d'individu qui faut pénaliser: les voleurs et spolieurs !

quand à l'anti GG j'en suis un partisan! (primaire :roll: )

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Mer Sep 24, 2008 5:16

jfcontart a écrit: mais d'empreinte html comme par exemple l'usage de structure dans la dénomination d'id ou de class qui sont identiques d'un site à l'autre utilisant le même moteur (souvent open source/ free). J'ai utilisé de nombreuse fois la notion d'empreinte html pour retrouver automatiquement des informations ... par exemple on retrouve les forum phpbb via une empreinte comme "<dd class="lastpost"><span><dfn". On classe alors très vite les pages en fonction de l'empreinte qu'elle affiche.


Une idée à suivre probablement, j'ai pas vérifié dans les résultats de Google (sauf ton exemple, mais là je tombe sur une vingtaine de résultats de phpbb mais aussi de .... joomla).

De toute façon, GG n'a pas déclassé des paquets de sites en même temps rien qu'avec un truc de duplicate (ou autre), ...
Je vois mal des trucs aussi énormes sans une phase préparatoire. Quand je change de serveur pour un site, me lève pas le matin en me disant que je le ferais bien, puis le faire en 5 minutes en buvant ma tasse de café, je prépare le terrain avant. Google lors de ces francs déclassement devait avoir rajouté quelques champs dans ses bases de données pour chaque page (site). Lorsqu'il a tourné le bouton, les pages qui avait des caractéristiques dans un ou plusieurs champs sont automatiquement tombées, à la trappe.

Pour wikipedia, pour un site plus aidé par Google, il continue a drolement bien se porter, à peine une petite descende pendant l'été.

-http://trends.google.com/websites?q=wikipedia.org

Encore la "fausse communication" de Google, ca devient une habitude.

jfcontart
WRInaute discret
WRInaute discret
 
Messages: 178
Enregistré le: 22 Sep 2007

Message le Mer Sep 24, 2008 7:33

hi hi :-) la notion d'empreinte ne fonctionne qu'avec la notion de marqueurs multi-points: plus on a de marqueurs spécifiques moins on fait d'erreur (comme pour les empreintes digitales ou ADN) et on les utilise via des ereg. Le vrai algo c'est donc des ereg compliqués à multiples impacts et ça vaut cher :-). Pour les empreintes digital je crois me souvenir qu'il faut au minimum 7 marqueurs positifs pour avoir un match. Pour un site internet compte 3-5 (et oui un site est plus simple qu'une empreinte digitale) mais tu peux en cherche 30 si tu veux

imagine... je suis capable depuis une page de déterminer son genre (ou ses genres) (cms, forum, wiki,...) et même le moteur utilisé. Certes, certains passent à la travers mais je peux les rattraper par mot clef ("ajouter panier" ça sent grave le e-shop) , sinon, tant pis pour eux car :
Je peux classer les résultats en fonction de la demande!
par exemple avec le mot "problème + mot-clef", je favorise les forums, alors qu'avec "appareil photo + marque" je favorise les e-shop... car j'utilise aussi un filtre d'entrée qui va agir par dichotomie connotative...

La pertinence semble s'envoler. Mais en vérité j'adapte mes filtres et scores au type de demande (facile à faire, j'ai les stats de toutes les recherches). Exit les sites de news sur les APN si je favorise les e-shop... ils se déclassent sans avoir rien fait de mal. OU je fais l'inverse, je favorise les site de news et propose des adword aux e-shop que je déclasse ainsi volontairement. (qui à crier "jf = pourriture de capitaliste" :) )

GG c'est pas des cons... si je sais le faire, ils le savent. Toute la valeur de ce type de moteur de recherche (comme mon www) c'est les programmes de scores, les filtres et les bases de données et surtout la façon dont on interroge les bases!

si je te donne pas mon algo exact (y encore des dizaines de paramètres) j'imagine que GG qui pèse des milliard de $ de plus que moi va être encore plus réticent :p
le traitement de données complexes c'est un peu mon dada ... mon www traite 3,5 millions de données classé, trié, annoté, évaluée, etc.

un jour je devrais monter ma boite d'algo! :p un jour :)

squall6969
Nouveau WRInaute
Nouveau WRInaute
 
Messages: 10
Enregistré le: 23 Sep 2008

Message le Mer Sep 24, 2008 7:45

Bonjour,

Ayant plusieur site de e-commerce reliés au même serveur mysql, faut-il que je supprime complètement mes sites secondaire proposant des description de produit identique associé aux mêmes produits ? (même si le nom des catégories est différentes ?)


Merci

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Mer Sep 24, 2008 9:22

jfcontart a écrit:GG c'est pas des cons... si je sais le faire, ils le savent. Toute la valeur de ce type de moteur de recherche (comme mon www) c'est les programmes de scores, les filtres et les bases de données et surtout la façon dont on interroge les bases!


Vu comme ca, j'en doute pas ... Ce qui expliquerait peut-être que dès que je tape une requête concernant un équipement informatique général (genre ordinateur, imprimante jet d'encre, disque dur, ...) ou même d'autre on retrouve quasiment chaque fois un mélange de sites d'indications et de vente + un comparateur de prix (génaralement 1), ... il y a deux ans, les recherches de ce type étaient envahies de site de vente ...
Je pense de plus en plus que Google manipule aussi les résultats pour afficher ce que l'utilisateur à envie de voire (ou plutôt ce que ses ingénieurs et autres statisticiens linguistes, .... pensent que les utilisateurs ont envie de voire) et pas forcément les meilleurs sites, quitte à faire passer un copieur ou autre. C'est aussi valable pour les aides à la recherche en dessous, elle est pas tout à fait neutre :twisted: Chaque fois des complément, mais dans la majorité des propositions, une marque ... et une seule avec juste le nom. Sur GG.be comme sur GG.fr: disque dur -> Maxtor, imprimante jet d'encre -> epson, imprimante laser -> Brother .... (on va dire que c'est de la médisance ou que c'est pas fait exprêt).


squall6969 a écrit: faut-il que je supprime complètement mes sites secondaire proposant des description de produit identique associé aux mêmes produits ? (même si le nom des catégories est différentes ?)


Les catégories sont de la navigation, pas du contenu donc probablement pas prises en compte dans le contenu des pages produits.

Vérifie déjà les quelques sont repris dans les recherches de Google ... Ca te donnera une idée si tu dois le faire (là il y a de fortes chances) et quels sites sont "sanctionnés". Te suffira peut-être d'en garder un ou deux. Te conseille pas de tout faire le même jour non plus.

Une remarque néanmoins, Google vérifie de plus en plus les sites qui appartiennent au même webmaster. Il y a moins de sanctions (j'ai pas dit pas, j'ai dis moins) entre les sites de la même équipe (ca joue pas forcément qu'avec le WHOIS), mais aussi compte adsence, adword, compte webmaster, ... mais aussi les webmasters qui ont l'habitude de s'envoyer des lines "cadeaux"). Ca semble être valable dans les deux sens, moins applicable pour le duplicate, mais de l'autre coté les liens "externe" du même groupe ont l'air d'être moins pris en compte.

jfcontart
WRInaute discret
WRInaute discret
 
Messages: 178
Enregistré le: 22 Sep 2007

Message le Mer Sep 24, 2008 11:13

ybet a écrit: Ce qui expliquerait peut-être que dès que je tape une requête concernant un équipement informatique général (genre ordinateur, imprimante jet d'encre, disque dur, ...) ou même d'autre on retrouve quasiment chaque fois un mélange de sites d'indications et de vente + un comparateur de prix (génaralement 1), ... il y a deux ans, les recherches de ce type étaient envahies de site de vente ...


exactement... limiter une recherche avec un ESHOP=2, FORUM=3 , COMPARA= 1 ... c'est très facile :-) et ça n'empêchera pas les sites de monter "naturellement" car je ne fige pas les résultats : je les limite

Jeviensderio
WRInaute passionné
WRInaute passionné
 
Messages: 1340
Enregistré le: 29 Sep 2006

Message le Mer Sep 24, 2008 13:33

jfcontart a écrit:GG a pris des disposition contre wikipedia (enfin moi je les vois pas mais GG le dis)


On peut avoir la source?

Mais c'est un fait qu'il stagne selon Alexa/Trends, à défaut de baisser, cela avec x nouvelles pages par jour.

jfcontart
WRInaute discret
WRInaute discret
 
Messages: 178
Enregistré le: 22 Sep 2007

Message le Mer Sep 24, 2008 15:32

Jeviensderio a écrit:On peut avoir la source?

c'est le fameux rel="nofollow" et les mesure anti bombing ...
http://googleblog.blogspot.com/2005/01/ ... -spam.html
http://googlewebmastercentral.blogspot. ... bombs.html

si je me souviens bien wikipédia avait à un moment une telle notoriété qu'il était présent sur toutes les requêtes et pour plusieurs pages car des petits malins créaient plusieurs articles sur TOUS les sujets. On l'utilisait pour des techniques dit bombing profitant de son PR pour afficher n'importe quoi en haut des pages de google et avoir des liens a fort PR! GG avait alors annoncé qu'il travaillait à éliminer les PR "malhonnêtement gagné" de son index et les "attaques forum", les "attaques commentaires" les "attaques wiki" bref les googlebombs by link
et on a rapidement observé un retour à la normal, même si on avait encore souvent un premier (et un seul) résultat Wikipédia.

Google à signer un chartes avec certains sotware de forum, blog et wiki pour mettre en place le rel="nofollow" que Yahoo et MSN ont aussi adopté (en accord avec GG? je sais plus)
Wikipédia de son coté a empêché le commercial-link avec des nofollow et a commencé un long travail d'épuration des pages bombing:-)

reste que de nombreux articles mal fait reste en tête du classement... d'ou en 2007 un autre système anti bombe googlebombs
We wanted to give a quick update about "Googlebombs." By improving our analysis of the link structure of the web, Google has begun minimizing the impact of many Googlebombs.


les wiki ont eu beaucoup moins de SERP dans les résultats (moins de sous pages si la page principale était là, pas de page vide, etc.)

bref un bon gros nettoyage :)


WebRankInfo
Administrateur du site
Administrateur du site
 
Messages: 22966
Enregistré le: 19 Avr 2002

Message le Mer Sep 24, 2008 17:00

je ne vois pas bien en quoi le passage des liens externes sur wikipedia en nofollow peut expliquer une baisse de sa visibilité dans Google ?
d'ailleurs depuis l'introduction du nofollow (qui ne date pas d'hier), il me parait évident que Wikipedia a au contraire augmenté sa visibilité dans Google (mais ça n'a pas de rapport avec le nofollow)
bref, je ne comprends pas pourquoi tu as dit "GG a pris des disposition contre wikipedia"

jfcontart
WRInaute discret
WRInaute discret
 
Messages: 178
Enregistré le: 22 Sep 2007

Message le Mer Sep 24, 2008 17:49

avant le nofollow on avait plein de webmaster qui se plaignaient que wikipédia piqué la moitié de place devant eux! :)

Le nofollow a provoqué l'arrêt d'un type de bombing et des pages satellites, qui provoquait aussi une actualisation constante des pages par les spammers et les équipe anti-spammers et on savait que GG aimait les nouveautés. Avec le nofollow les modifications spam/anti-spam ont cessées. L'intéret de la page aussi.

Mais il n'y avait pas que du bombing brut, il y avait aussi des articles avec de vraies références.
Mais pour quoi faire des articles si on ne tire pas un profit au moins en PR pour son site qui est plus complet/spécialisé? Donc on vire son article de vulgarisation! Bref s'y ajoute un désengagement pour wikipédia qui a eu un effet négatif, 2ème claque.

et puis si je suis pas sur wikipédia je ne lui fait plus de liens et paf 3ème claque.

la parano du lien commercial (malgrès le nofollow) de la part des modérateurs a même plombé leur propre impartialité. Par exemple wikipédia utilise des références de mon dictionnaire pour expliquer des mots latin, mais refuse de me mettre en lien... ils écrivent "sur dicolatin on trouve que le sens de XXXX blabla donc bla bla ....", pas de lien, pas de référence sur le site, juste ma marque "dicolatin"... pourtant avec un nofollow le but et de faire des liens vers les sites sans leur octroyer de PR. Et bien quand je leur ai signalé, un modo m'a permis de rajouter le lien en réf, un autre l'a élevé en m'accusant de pub... Alors que c'est eux qui utilisent mon site comme référence. Depuis le nombre de référence à mon site diminue, la taille des textes aussi, l'argumentation aussi, l'intérêt des pages avec...

certes wikipédia s'en sort bien, et on ne voit plus de gens se plaindre de spolier la moitié de la première page de GG (c'est du aussi à la deuxième modification de janvier 2007 quick-word-about-googlebombs...)

les résultats présentant wikipédia ont même (comme tu l'as constaté) gagné en pertinence. Disons qu'il est rentrer dans le rang et a prouvé à GG sa respectabilité... on le voit moins partout mais mieux au bon endroit

GG a modifié l'attitude des Wikipédiautes avec son nofollow...

c'est mon interprétation du nofollow sur wikipédia

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Mer Sep 24, 2008 19:24

Sans m'imiscier dans une conversation "hors sujet" :wink: je pense aussi qu'on voit moins wiki sur GG (en Google.be, doit plus avoir des tas de bonnes places intéressantes sur l'informatique pour lui - bon, il y a moi :lol: non là je rigole :oops: ).

Petit rappel quand même, sur des pages sanctionnées pour lien trop voyant vers un copain (WRI par exemple, mais beaucoup d'autres) mettre LE lien en nofollow ou en follow n'a rien changé.
De toute façon, j'attend bien 15 jours pour ne pas dire d'anneries, surtout que d'autres tests sont en cours en mélangeant des sites de webmasters qui normalement seront jamais repris comme "équipe de webmaster". Les noms seront cités ici en même temsp (une bien petite récompense pour un merci, j'en convient).
PS: Olivier (WRI) et d'autres ne participent pas à ces tests à ma demande tout simplement parce que des sites de chez moi envoient des liens vers WRI et d'autres sites, et par expérience, Google le détecte beaucoup plus vite qu'on croit. Un métamoteur (me rappelle plus le nom) affichait déjà les différents liens de sites il y a quelques années et je rejoint assez jfcontart dans quelques uns de ses posts, Google est plus en avance qu'on ne croit sur le positionnement (cf dans les résultats des mélanges de sites), mais intéressont nous plutôt aux sanctions, là je crois que quasiment toutes les pistes sont abordées ...

Les tests en cours sont plutôt:
. pages grisées et sanctionnées puisque les pages corrigées restent grisées jusqu'à la prochaine GD) envoient-elles un lien ou non
. est ce que le lien est suivi (ou non)
. est ce que des liens internes (ca on sait déjà que non), externe de sites du même webmaster, du même groupe de webmaster ou de webmaster externe (sans liens entre les personnes donc plus susceptibles d'être naturels) permettent de passer la sanction sans rien faire d'autre.
. est-ce que des sites sont avantagés contre le duplicate, d'autres moins ou pas du tout, on va parler de trustrank (y compris notre wiki national, sites web 2.0 ou assimilés, ou sites jugés comme de confiance)
. est-ce que le premier connu par Google est d'office l'original
.. + quelques autres

C'est déjà de gros points. J'ai déjà des bonnes idées de ce qui se passe.

Sauf que comme mentionné en MP à quelques uns, j'attend en premier des confirmations, en deuxième puisque ces tests seront uniquement donnés sur ce forum les recommandations du Boss juste avant de poster. Normal puisque ce site est le sien, et en plus parceque citer un de ses sites dans ce post ne m'a pas valu de mails, sanctions, ou autres. En gros, je gère les tests, mais la suite appartient à ce forum et à ses membres.

PS: peut pas avoir une boîte mail pour mes MP un peu plus grande, genre 10 GB :lol: ... bon tant pis :wink:
PS2: j'attend aussi des réponses à des petites questions envoyées aux webmasters dont le site a l'air de reprendre pour leurs modifications éventuelles, si vous faites partie de ceux-là, une petite réponse serait sympathique, merci.

contre exemple
WRInaute discret
WRInaute discret
 
Messages: 244
Enregistré le: 10 Aoû 2005

Message le Jeu Sep 25, 2008 10:18

Super ton étude je l'ai lu completement félicitation!!!


ybet a écrit:3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation ->
déclassement de toutes les pages avec un contenu trop faible

4. contenu dupliqué ou copié, en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google cf. http://forum.webrankinfo.com/permis-obligatoire-pour-aller-sur-internet-faudra-pens-t99280.html


Pour ce qui est de ce déclassement peux tu me dire si tu as contacté un déclassement de 1, 5, 10 pages ou plus?
Ou si les pages ne sont carément plus présente dans les serp?

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Jeu Sep 25, 2008 10:34

contre exemple a écrit:Super ton étude je l'ai lu completement félicitation!!!


ybet a écrit:3. structure du site avec faible contenu mais liens de navigation trop importants: Google inverse la partie contenu et navigation ->
déclassement de toutes les pages avec un contenu trop faible

4. contenu dupliqué ou copié, en gros déclassement de toutes les pages sauf si une vieille page est déjà connue de Google cf. http://forum.webrankinfo.com/permis-obligatoire-pour-aller-sur-internet-faudra-pens-t99280.html


Pour ce qui est de ce déclassement peux tu me dire si tu as contacté un déclassement de 1, 5, 10 pages ou plus?
Ou si les pages ne sont carément plus présente dans les serp?


J'ai pas regardé dans les résultats ce matin, mais ce "petit duplicate" suis son cours. Une autre page de tests reprenant lâ même phrase a complètement disparue. Aucune illusion, en cas de duplicate, à de rares exceptions prêt", trois jours présente, disparaît quelques jours, revient parfois un jour ou deux puis disparaît.

Pour l'instant, m'occuppe beaucoup plus des exceptions. Mais pour la majorité des petits sites, c'est la disparition assurée. Encore un petit exemple sur le forum ce matin .... :( Petit site, même phrase pourtant standard et baisse directe, les pages internes ne sont plus visitées par Google, mais là je sais déjà depuis des semaines qu'elles n'y sont généralement pas, c'est l'effet boule de neige des sanctions. Quelques pages déclassées à la bonne place (si on eut dire) et toutes les pages internes disparaissent des résultats, y compris renvoyer des liens vers les pages au-dessus ... du coup, les grosses pages du dessus diminuent aussi.

jfcontart
WRInaute discret
WRInaute discret
 
Messages: 178
Enregistré le: 22 Sep 2007

Message le Jeu Sep 25, 2008 11:00

ybet a écrit: Quelques pages déclassées à la bonne place (si on eut dire) et toutes les pages internes disparaissent des résultats, y compris renvoyer des liens vers les pages au-dessus ... du coup, les grosses pages du dessus diminuent aussi.


C'est l'effet viral et ouroboros du PR :twisted: ... ici en version "intra-site" (par opposition à "inter-site") :roll:


luxe-campagne
WRInaute passionné
WRInaute passionné
 
Messages: 1159
Enregistré le: 8 Oct 2005

Message le Ven Sep 26, 2008 19:00

OUI !

bien sûr...
j'ai des pages de mon site qui sont mal vues par Google (PR grisé) car ce sont des pages qui n'ont pas de texte mais que des liens... Je me demandais pourquoi.

sur ma page "art de vivre" j'ai mis un lien (plusieurs liens en fait) jadis vers WRI/dico... Et là cet été, je suis passé du top 10 au top 210... Sans rien faire d'autre que d'attendre que Google me pénalise pour ces liens sortants...
M'en fous cette requête ne m'a jamais apporté de visiteur ;-)

Au printemps dernier j'ai enlevé les 4 ou 5 liens sortants de ma home et hop ! j'étais passé de PR4 à PR3 en hiver et après cette action le PR4 est revenu.

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Ven Sep 26, 2008 22:12

luxe-campagne a écrit: Et là cet été, je suis passé du top 10 au top 210... Sans rien faire d'autre que d'attendre que Google me pénalise pour ces liens sortants...
M'en fous cette requête ne m'a jamais apporté de visiteur ;-)

Au printemps dernier j'ai enlevé les 4 ou 5 liens sortants de ma home et hop ! j'étais passé de PR4 à PR3 en hiver et après cette action le PR4 est revenu.


D'abord, oublie le PR, celui affiché n'est probablement plus que comme un outils de marketing webmaster de Google.
Des liens sortants ne pénalisent à ma connaissance une page que s'ils sont jugés trop "envoi d'un lien copain". De cette page, j'en envoit plus de 1000 -http://www.darut.be/annuaire.php et elle passe sans aucun problème Par contre, -http://www.materiel-informatique.be/webrankinfo.php s'est fait coulée dès le mois de novembre. Tout essayé, modifier le texte du lien, le mettre dans le contenu plutôt qu'au bas du contenu, nofollow, ...

Un lien externe tant qu'il ne semble pas pour GG j'envoit du PR (le texte de GG), mais surtout j'envois un gros lien, ne pénalise pas une page. Je sais que certains en sont persuadé mais non, tant que le lien est fait pour les visiteurs (thématique ou autre). Que le lien soit suivi ou non par les visiteurs n'intervient pas non plus ... Ca parait débile mais j'envois des liens entre mes deux principaux sites d'informatiques, une de mes page est grisée pour duplicate et recoit dans les 20-30 visiteurs de l'autres. GG n'en tient pas compte non plus, elle reste invisible sur le moteur.

Si ta page est PR3 ou 4, elle n'est pas pénalisée (pas tout confondre non plus, une baisse de PR ne signifie pas une sanction, une baisse de visiteurs ne signifie pas non plus que Google a décidé de casser un site, toutes les pages avec un PR gris ne sont pas non plus des pages pénalisées, elles sont parfois simplement pas mises à jour par Google parceque pas assez linké en externe ou en interne). Pour les liens de la home, ma boîte MP a débordée hier avec des contacts de webmasters avec des sites "à problème", une des technique réussie pour un site a justement été de supprimer les liens en footer de toutes les pages pour ne plus les mettre que de la Home.


luxe-campagne
WRInaute passionné
WRInaute passionné
 
Messages: 1159
Enregistré le: 8 Oct 2005

Message le Sam Sep 27, 2008 9:06

Je précise aussi car c'est important à mon avis :
Les pages de premier niveau qui n'ont pas de backlink (externe) ont été systématiquement grisées.

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Sam Sep 27, 2008 12:53

Bonjour.

Ben deuxième vague, pas de tests mais de résultats.

En ce moment, GWT est en cours mis à jour. Je conseille à ceux qui ont fait des modifications d'aller voir leur compte + le pR de quelques pages. Il y a aussi une mise à jour du PR en cours pour quelques pages, j'ai pas réellement vérifié les modifs, juste grisé ou non).

Pour mon petit dico, 14 pages modifiées sont réaparues dans GWT (apparament des modifications de plus de 3 semaines et ces pages reviennent. Toutes les pages modifées ne sont pas revenues, mais ce sont pas forcément des pages avec beaucoup de liens internes, donc probablement pas encore réintroduites dans l'index (le temps que GG les sorte du placard de la vieille commode) :roll: Quelques pages grisées qui avaient des liens externes d'un même forum sont réaparues après modifs (mais je reçoit beaucoup de liens de celui-là totalement naturel, sauf que GG semble ne pas les voire).

Une seule page non modifiée est revenue (PR2 + GWT) avec un lien externe d'un site inconnu (sous-entendu pas d'un webmaster avec qui j'ai des contacts).

Sinon, les pages de lettres ont leur PR modifié variation suivant les pages de 3 - 4 - normalement elles sont toutes PR 4. Une seule qui était présente mais où j'avais laissé le duplicate est passée en grisé. Deux autres sont revenues.

Une page de catégorie passe de grisé à PR3 depuis une petite heure ... et comme par hasard, elle est revenue dans GWT.

On sait maintenant que des pages sanctionnées peuvent revenir avec un lien externe (d'un autre webmaster non associé). Mes metits liens personnels n'ont pas marché.

J'ai pas eût le temps de tout analyser, d'autres tests sont toujours en cours notamment au niveau des liens de sites externes qui ne sont ni de mes sites ni des sites que Google a assoscié aux miens.

Mouky
Nouveau WRInaute
Nouveau WRInaute
 
Messages: 49
Enregistré le: 15 Juin 2004

Message le Dim Sep 28, 2008 20:27

Comme je le disais dans un autre post, au niveau des sanctions de PR, voici où j'en suis :

- je passe PR 5 sur le home début mai avec plein de pages à PR4, 3...
- PR 3 sur la home mi mai avec toutes mes pages à PR 0,
- PR 2 en juin sur la home

J'ai changé mes pages en mettant moins de liens internes... mais rien ça chute...


- PR 0 depuis hier...


Je n'ai, par contre, pas de perte de traffic... mais j'ai un PR à 0 partout.

A mettre en pratique :
- virer mes deux échanges de liens ?
- réduire le nombre de liens par pages ?
- changer la structure du site ?
- écrire à google ? même si le PR ne sert à rien, je pourrais peut être avoir une explication sur cette "sanction"

qu'est ce qui serait le mieux ?

ybet
WRInaute accro
WRInaute accro
 
Messages: 9031
Enregistré le: 22 Nov 2003

Message le Lun Sep 29, 2008 9:30

Google doit avoir trouvé quelque chose sur la page, probablement le nombre de liens sur la droite trop important par rapport au contenu . Aucune page d'index de site qui correspond à mes sanctions n'a amais été grisé (dans ce cas , c'est une réelle pénalité de type achat de liens ou autres tricheries). T'a juste descendu le PR de la page d'entrée mais de 5 à 0, ca fait un peu beaucoup.

kmenslow
WRInaute passionné
WRInaute passionné
 
Messages: 2262
Enregistré le: 7 Aoû 2006

Message le Lun Sep 29, 2008 11:08

Sur mon WWW, j'ai une partie de mes rubriques avec un PR grisé. Les tests d'Ybet m'ont fait réfléchir à ce problème.
A l'origine, les rubriques étaient construites avec un H1 et deux ou trois H2 max, Toutes avaient du PR. En regardant le fonctionnement des blogs, j'ai mis un H2 sur chaque titre en espérant que cela apporte un peu plus de poids. Après cette modif, les rubriques avaient un H1 et pouvaient avoir entre 10 et 20 H2 comme la rubrique Voyage ICI . Cette rubrique voyage est passé d'un PR 3 à un PR grisé.

Après la lecture des tests d'Ybet, j'ai modifié la rubrique Vie quotidienne ICI qui était réalisée comme la rubrique Voyage et qui avait perdu son PR 3 pour un PR grisé.
Après l'export de ce W.E., la rubrique modifiée Vie quotidienne vient de récupérer un PR 2 tandis que la rubrique non modifiée Voyage reste avec un PR grisé.

Maintenant je vais modifier la page voyage pour voir si je récupère un PR au prochain export.


Formation recommandée sur ce thème :

Formation REFERENCEMENT naturel Google : apprenez une méthode efficace pour optimiser à fond le référencement naturel dans Google de façon durable... Formation animée par Olivier Duffez et Fabien Facériès, experts en référencement naturel.

Tous les détails sur le site Ranking Metrics : programme, prix, dates et lieux, inscription en ligne.

Lectures recommandées sur ce thème :