Les pénalités Google d'octobre 2007 à sept 2008

WRInaute passionné
J'en demanderai trop de faire une conclusion des techniques "nouvelles" et/ou "rares" ? :)

Non pas que je n'ai pas envie de lire, mais j'ai un peu de mal avec certaines phrases. Du coup, je ne sais pas si je comprends bien ou mal ce que tu dis. Et comme c'est très intéressant, ça m'embête de louper des choses.
 
WRInaute accro
tonguide a dit:
J'en demanderai trop de faire une conclusion des techniques "nouvelles" et/ou "rares" ? :)

Non pas que je n'ai pas envie de lire, mais j'ai un peu de mal avec certaines phrases. Du coup, je ne sais pas si je comprends bien ou mal ce que tu dis. Et comme c'est très intéressant, ça m'embête de louper des choses.


J'attend .... septembre 2009 :wink:
 
WRInaute passionné
ybet a dit:
tonguide a dit:
J'en demanderai trop de faire une conclusion des techniques "nouvelles" et/ou "rares" ? :)

Non pas que je n'ai pas envie de lire, mais j'ai un peu de mal avec certaines phrases. Du coup, je ne sais pas si je comprends bien ou mal ce que tu dis. Et comme c'est très intéressant, ça m'embête de louper des choses.


J'attend .... septembre 2009 :wink:
rendez-vous pris :wink:
 
WRInaute accro
rudddy a dit:
oula olivier prévois 1To pour stocker les tests de ybet !!!

:mrgreen: Viens même de prendre un deuxième serveur dédié pour faire quelques tests pour ces problèmes de sanctions mais d'autres aussi, notament liés aux liens externes venant de la même adresse ip et un peu comprendre ce brol de géolocalisation.
Gogle est jamais qu'un algo (une machine), même si les raisons de positionnement (dépositionnement) sont nombreux, il y a toujours des directions à suivre pour amméliorer son placement. Faut juste trouver les directions s'en s'emméler les pinceaux. Et là ca va jouer fin ... Je vais bien trouver ce qui ce passe avec tous ces petits bricolages de Google.
 
WRInaute accro
rudddy a dit:
par contre peut etre réouvrir un sujet car celui là commence à dater ...

M'en doute. De toute façon, je suis juste en train de créer les directions de tests, de rassembler les modifs actuelles de l'algo concernant ces pénalités mais surtout les méthodes de détection qui ont changées avant de refaire pêter la boîte de MP sur WRI :mrgreen: . Comme pour ce post, il y plus dans quelques têtes que dans une. Me faudra bien un gros mois pour reprendre les constacts et idées de quelques uns concernant ces petites sanctions qui continuent comme si de rien n'était.
Certaines parties ont déjà débutées depuis des mois grâce à un petit outils (MP si vous voulez). Pas encombrant, basé sur une simple table excel et pas de truc quasi inutile, juste le positionnement au jour le jour avec de petits graphiques.
 
WRInaute discret
Une chose que j'ai constatée : j'ai plusieurs de mes pages qui sont grisées mais qui ne sont pas sanctionnées au niveau du ref (sur des requêtes assez peu concurrentielles certes).
Pour d'autre c'est plus compliqué : certaines sont grisées because "duplicate content" interne ou externe (ça c'est normal quoi que pas toujours justifié)
Ce qui m'inquiète un peu c'est que ce nombre de pages grisées va croissant, ce qui est vrai sur beaucoup de sites que je fréquente d'ailleurs, à commencer par celui-ci, et que certaines pages de discussion de type forum qui ne sont souvent accessibles que depuis les pages de listing des forums elles même grisée, apparaissent désormais grisées également.
en gros
grisee.png

page verte page d'accueil d'un forum (que du lien mais fréquentée) page grise à droite la page 2 (toujours que du lien mais beaucoup mois fréquentée).

les pages grisés les plus à droites sont désindexées petit à petit.

Sauf à refaire un article de temps en temps avec de nouveau jolis lien dans le texte et en pied de page, ça commence à devenir compliqué !
 
WRInaute passionné
joe coe a dit:
Une chose que j'ai constatée : j'ai plusieurs de mes pages qui sont grisées mais qui ne sont pas sanctionnées au niveau du ref (sur des requêtes assez peu concurrentielles certes).
Pour d'autre c'est plus compliqué : certaines sont grisées because "duplicate content" interne ou externe (ça c'est normal quoi que pas toujours justifié)
Ce qui m'inquiète un peu c'est que ce nombre de pages grisées va croissant, ce qui est vrai sur beaucoup de sites que je fréquente d'ailleurs, à commencer par celui-ci, et que certaines pages de discussion de type forum qui ne sont souvent accessibles que depuis les pages de listing des forums elles même grisée, apparaissent désormais grisées également.
en gros
grisee.png

page verte page d'accueil d'un forum (que du lien mais fréquentée) page grise à droite la page 2 (toujours que du lien mais beaucoup mois fréquentée).

les pages grisés les plus à droites sont désindexées petit à petit.

Sauf à refaire un article de temps en temps avec de nouveau jolis lien dans le texte et en pied de page, ça commence à devenir compliqué !

tu as constaté ou c'est juste un déclassement ?
 
WRInaute discret
rudddy a dit:
tu as constaté ou c'est juste un déclassement ?
c'est un constat :
un exemple relatif à cette page (je ne sais toujours pas bien si on peut parler de ref de WRI ou pas mais bon pas de mauvaise intention de ma part d'utant que j'ai exactement le même constat chez moi et ailleurs)
https://www.webrankinfo.com/forum/f/netlinking-backlinks-liens-et-redirections.13/page-3
page grisée
la requête
https://www.google.fr/search?hl=fr&...com/netlinking-250.html&btnG=Rechercher&meta=
et pour les pages linkées idem
https://www.google.fr/search?hl=fr&...374.html&btnG=Recherche+Google&meta=&aq=f&oq=

Je pensais au départ à un problème de profondeur de scan des bots de GG, j'avais conclu que celui ci indexait depuis la home sur une profondeur de 10.
mais depuis peu... ça change et mon sentiment pour avoir fait quelques tests à deux balles ( mais sur mon NDD principal j'évite d'y aller comme un bourrin ) c'est que ces pages sont vues en duplicate content. (page étant à un moment donné ou à un autre accessible depuis les derniers messages des forums, les plus lus, les plus votés...)

En même temps la volatilité sur les requêtes de type site:www.xxx étant extrême et passant pour moi de 15000 à 244000 (estimations que j'avais faite de l'ensemble de mes pages en gros), je me demande comment google va stabiliser tout ça.

Simples observations de chaque instant.
 
WRInaute discret
il ne faut pas pensé qu'une page grisé est automatiquement une page sanctionné !!
une page grisé est une page non importante dans votre architecture du site.
 
WRInaute discret
rudddy a dit:
ok c'est effectivement ce qu'il fallait faire :oops:
ceci étant dis, c'est une page dont le rôle est d'aiguiller, cette page en elle même n'a pas d'autre sens (non ?)

https://www.google.fr/search?hl=fr&...tes-google-t109374.html&btnG=Rechercher&meta=
elle n'aiguille pas... c'était le sens de mot schéma.
 
WRInaute accro
ringout a dit:
il ne faut pas pensé qu'une page grisé est automatiquement une page sanctionné !!
une page grisé est une page non importante dans votre architecture du site.

C'est bien le problème (et surtout les modifs d'affichage du PR par rapport à l'année passée).
https://www.webrankinfo.net/site-1230.htm elle est zero :mrgreen: et pourtant http://209.85.229.132/search?sourceid=navclient&hl=fr&ie=UTF-8&rlz=1T4 ... e-1230.htm :oops:

On le sait depuis des mois mais on a rien dit :twisted: La méthode du PR a NETTEMENT change.

Dès que j'annonce qu'on va refaire des petits tests "débiles", le post redémarre mais c'est un tord. Dans le premier post, j'ai dit que la majorité des contacts s'étaient fait par MP (et c'est la grosse base de travail sur ces sanctions). On se fait plaisir, on laisse ce post tranquille et on recommence par MP. Je redébute les mêmes trucs, plus spécifiques peut-être, ceux qui souhaitent participer, ca se fait en MP avec moi pour récupérer "l'équipe" et les sites qui vont participer. Sinon, ce posts va redémarer avec des messages personnels et ... c'est pas le but (par respect au moins pour ceux qui lisent et font pas partie des tests, ils cherchent juste la solution) . De toute façon, la majorité va se passer "par derrière", faut des mois pour mettre en place, faire les tests, et ... tirer des conclusions qui sont pas forcément justes. L'année dernière, ca nous a prit des mois, des dizaines de MP, des mails, des idées, ...
J'ai beucoup appris mais aussi par des directions qui sont terminées en cul de sac: et c'est là aussi l'intérêt de ne pas trop en dire au début.
Patrick
 
WRInaute accro
joe coe a dit:
grisee.png

page verte page d'accueil d'un forum (que du lien mais fréquentée) page grise à droite la page 2 (toujours que du lien mais beaucoup mois fréquentée).

C'est beaucoup plus subtil que celà. Des pages reprenant (finalement) que des liens sont grisées et souvent pas reprises dans les recherches (et ^même dans le cache) mais suivies par le moteur et reprises dans les résultats (ou non :oops: ). Google analyse maintenant chaque page au niveua CONTENU.
La fréquentation d'une page ne reprenant que des liens aide .... (là aussi j'aimerais comprendre :mrgreen: ) mais pas souvent. Regarde aussi ton contenu dans les pages internes (on est souvent surpris :wink: ). la mise en cache vire les pages ave des liens mais google les suis aussi (pas toujours).
 
Olivier Duffez (admin)
Membre du personnel
un petit conseil : ne vous attachez pas au PR affiché par la toolbar, surtout pour les pages de WRI car Google a pris un malin plaisir à ne pas afficher le vrai PR pour WRI (certains parleront de sanction mais pas moi vu que le trafic se porte bien).
en tout cas moi ça fait un bail que je ne regarde plus ça ;-)

pour l'histoire du cache, c'est quand même souvent une sorte de bug. en tout cas quand je vois que la page (soit disant pas en cache et PR0) sort dans Google (j'ai pris son titre), je ne suis pas certain qu'il y ait tant de pb que ça...
 
WRInaute discret
moi je suis très intéressé ;) par le test partant pour y participé...
parce qu'il y a pas mal de trucs que je veux comprendre et demande peut être le travail d'une équipe..
 
WRInaute discret
WebRankInfo a dit:
pour l'histoire du cache, c'est quand même souvent une sorte de bug. en tout cas quand je vois que la page (soit disant pas en cache et PR0) sort dans Google (j'ai pris son titre), je ne suis pas certain qu'il y ait tant de pb que ça...

peut être sa <meta name="robots" content="noarchive" /> :)
 
WRInaute accro
WebRankInfo a dit:
un petit conseil : ne vous attachez pas au PR affiché par la toolbar, surtout pour les pages de WRI

Même pas que sur les pages de WRI :wink: . Il y a une très grosses différence par rapport à l'année passée: une page PR3 passait et une page grise passait pas . Ce n'est plus tout à fait vrai. GG a brouillé les pistes (y compris dans ses "outils") et le PR affiché est (reste) un outils de communication à prendre comme de la communication.

Merci à Olivier pour la remarque pertinente (le référencement ca bouge, encore plus depuis deux ans)
 
WRInaute accro
Merci Ybet pour nous faire partager tes tests !
encore bravo cependant il y a une partie qui m'a interloqué sur ta page:
http://www.ybet.be/news-fiche.php?numero=6
...Pour la majorité des sites, ... ces pénalités sont inexistantes, ce sont SURTOUT les sites créés par des spécialistes du référencement et les copieurs qui sont touchées,...
tu veux ainsi dire que certains webmasters reconnus comme professionnels du réf seront marqués au rouge "à surveiller"

N'est ce pas de la discrimination si c'est vrai?
 
WRInaute accro
passion a dit:
Merci Ybet pour nous faire partager tes tests !
encore bravo cependant il y a une partie qui m'a interloqué sur ta page:
http://www.ybet.be/news-fiche.php?numero=6
...Pour la majorité des sites, ... ces pénalités sont inexistantes, ce sont SURTOUT les sites créés par des spécialistes du référencement et les copieurs qui sont touchées,...
tu veux ainsi dire que certains webmasters reconnus comme professionnels du réf seront marqués au rouge "à surveiller"
On va pas le voire come celà, mais plutôt dans l'esprit d'un autre post de 2009 https://www.webrankinfo.com/forum/t/les-liens-aident-ils-au-referencement.117678/ "Les liens aident-ils au référencement" :wink: Fais trois sites distincts et décide de les faire passer tous les trois ... La solution qui passe directement à l'esprit est de faire des liens entre-eux. Cà c'est pour un débutant :mrgreen: mais utilisé par la majorité des webmasters en masse: plus on met de liens externes, mieux est vu le site qui reçoit les liens par Google. Maintenant un Webmaster un peu plus subtile va pas lier directement les sites mais bien les pages internes des sites pour récupérer des liens externes vers les pages internes. Imagine un groupe de Webmasters qui gère une centaine de site .... :lol: Il n'a même plus besoin de s'inscrire dans les annuaires en suivant ce principe.
C'est un des exemples pour montrer que seuls les spécilaistes du référencement sont souvent touchés, les petits sites ne jouent pas à ca tout simplement parce qu'ils n'ont qu'un seul site. Pour un débutant, on oublie les fautes d'orthographes volontairement SEO , les grossières fautes de conjugaison liées aux traducteurs automatiques, .... (même si GG est revenu en arrière depuis). Reste juste le Duplicate content ...


C'est une des partie des tests actuels, savoir quand GG décide que deux sites sont liés et bloque non seulement les liens mais en plus pénalise les pages qui les recoivent. Une fois que tu as compris que tous les liens fait uniqument pour le référencement (et pas suivis par les visiteurs) sont néfastes, tu refait complètement ta stratégie de liens. C'est ce que je fais actuellement entre deux sites sur la même thématique. En deuxième, un site sur le même sujet que les 2 autres a débuté en août. Il a débuté sur un serveur à part avec un autre site qui ne m'appartient pas mais fait partie des tests. Ils ne sont pas liés aux sites de chacun des webmasters, n'envoient pas de liens spécifiques vers les autres sites, .... Le référencement du deuxième est standard, celui que je gère est complètement à coté de la plaque puisque même les liens internes reprennent des chiffes et pas des mots, quasiment pas de liens vers lui, à part un www d'un membre de WRI et 3 annuaires (avec un texte de lien pas du tout standard de plus de 10 mots .... Je viens juste de mettre les balises ALT dans le logo qui permet de revenir à la page d'accueil.
Depuis, j'ai également transféré un des deux de mes sites principaux dessus mais avec aucun lien entre les deux.
PS: depuis, il y a le post de 2009 ... https://www.webrankinfo.com/forum/t/etude-des-penalites-google-2009.116109/
PS2: A force de bricoler tout en restant dans les règles, un de l'équipe de tests pense même que mes sites sont un peu déclassés juste parceque Google a compris (ce que je doute) :twisted:
 
WRInaute accro
Ca va peut-être sembler bizarre de répondre à un post de sanctions de ...2009 (la préhistoire ... ou plutôt le passage à l'âge de fer). Je viens juste de le relire
pour essayer de comprendre les pénalités actuelles (Panda n'est pas de mise ici mais Pinguin peut-être).

En 2008, les pages de navigations (reprenant des paquets de liens vers les pages internes reprises par catégories) se ramassaient un PR gris. En 2014 (deux ans après le début de Pinguin), c'est l'inverse (tant que ce ne sont pas des pages que de liens ... avec quelques fois du texte au-tour). Google ne les utilise pas forcément comme pages de références (quoique https://www.google.fr/search?sourceid=navclient&aq=&oq=dictionnaire+r% ... rEkashMIJc

deux de mes pages dans les 20 avec pour le premier plus de 500 liens et dans le deuxième un peu moins de 150 (pour les reconnaître, ce sont les seuls sites .be). En 2008, ces pages disparaissaient, maintenant elles passent.
Ca pose une question: sur un site des liens à tout va entre les pages ou une structure simple (index -> catégorie > sous-catégorie> page), Google propose maintenant la deuxième solution: une sorte de sitemap.

C'était en ... 2008. Il y a des choses à prendre mais beaucoup plus à oublier dans l'ensembles des tests (sauf le copier / coller et encore).
 
Discussions similaires
Haut