Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Lun Jan 05, 2009 14:49

ybet a écrit:- le coup du plus dans le cache sur une recherche entre "" dès le morceau de duplicate ne fonctionne plus depuis quelques mois


c'est quoi ça ?


sinon je confirme c'est le topic du siècle je crois merci pour tout si je pouvais je t'aurais mis une centaine de reco !!!
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Jan 05, 2009 15:03

rudddy a écrit:
ybet a écrit:- le coup du plus dans le cache sur une recherche entre "" dès le morceau de duplicate ne fonctionne plus depuis quelques mois


c'est quoi ça ?


sinon je confirme c'est le topic du siècle je crois merci pour tout si je pouvais je t'aurais mis une centaine de reco !!!


regarde cette page, c'est un des tests de duplicate avec la partie en quote:

sans les "": http://www.google.be/search?hl=fr&rlz=1 ... +qui&meta= GG recherhce les mots dans le désordre

avec les "", il ne recherche que exactement la partie entre "": C'est là qu'ont voit le duplicate
http://www.google.be/search?hl=fr&rlz=1 ... i%22&meta=
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Lun Jan 05, 2009 15:12

a oui c'est ca je pensais à autre chose
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Jeu Mar 12, 2009 21:20

Beaucoup ont peut-être pensé que c'était bizarre que les quelques habitués ne donnaient plus de test, de résultats ici. On a pourtant continué toujours par MP.
La première partie va reprendre nos corrections, mais surtout les résultats.
1. Pour les pages ne reprenant que des liens (donc des pages de gestions de catégories, pas des annuaires).
Ca semblait marcher en octobre de rajouter du texte, pourtant, finalement GG doit avoir compris et les pages sont redescendues grisées comme au premier jour.
2. Pour les annuaires, le duplicate continue à faire du dégât (rien qu'à voire les soumissions dans un petit local :mrgreen: , tout le monde ne le sait pas, sauf les véritables annuairistes.
3. Pour les fautes d'orthographes, GG semblait avoir corriger fin 2008 (ma page Excell est même repassé avec des nuances sur la requête). Pourtant je trouve encore des pages sur mes sites avec des fautes d'orthographes sanctionnées avec justement des fautes grossières d'orthographes. J'ai fait repassé des pages en corrigeant juste des fautes grossières. Ceux qui liesent mes post sur ce forum doivent bien se dire que de temps en temps, j'oublie une lettre dans un mot :oops: (y compris sur mes sites :mrgreen: ). Ca semble identique pour les fautes de conjugaison. Google a juste réduit les pénalités sur les fautes standards des internautes.
4. Pour les pages jugées trop liens (genre 30 mots avec un beau lien copains ...), pas de changements.
5. Pas eut beaucoup de retour sur le duplicate content des flux RSS mais je pense que les webmasters intellignets ont corrigés à leur manière.

Pour les méthodes de détection du duplicate

la technique de la recherche entre "" fonctionne encore pour les pages ignorées (ouf). Par contre, GG affiche désormais dans les pages ignorées le reste de la page (sanctionnée ou non). Quasiment impossible maintenant de trouver la partie de phrase qui pose problème.

Toujours pour le duplicate ... D'abord un merci à Djmael, avec ses "conneries" d'essais sur ses sites envoyées par MP, j'ai d'abord beaucoup souri puis ... analysé ses petits problèmes et conclusions en fonction des corrections sur nos différents sites qui marchaient pas :oops:

Quand on a commencé, un PR grisé semblait claire: page sanctionnée. Avec les tests de duplicate content et le lien amical d' HerveGvers une page qui devait être complètement sanctionnée, la page et les suivantes sont passées sur Google (j'avoue ce test est peu applicable pour un site tant les trois pages étaient bourrées de sanction possibles et les recherches insignifiantes, même ne seront jamais recherchées - comme quoi les tests spécifiques valent toujours ce qu'il valent: des morceaux de tests, ce qu'à déjà démontré une quantité de concours SEO).
Maintenant, on sait (j'ai fait d'autres tests depuis septembre: quelques liens externes de sites d'autres webmasters pas liés et la page a un PR (j'ai dis un PR, pour la page :roll: ). Donc pas de réjouissances ... pour les pages qui ont un PR.

Je sais, depuis ce post, la majorité des habitués de WRI ont modifié leurs techniques (comme quoi, L'Jee et moi, plus beaucoup d'autres ont fait un super boulôt sur ce post et sur ce forum). Je sais aussi que quelques uns se sont fait quelques peurs en lisant les premiers messages de ce post ... (Ben on va avoir un peu plus peur :wink: ).

Pourquoi avoir mentionné DJmael? Tout simplement parce qu'en octobre, il me MP en signalant qu'il a recopié dans les archives quelques contenus de sites disparus depuis 5 ans pour mettre sur un de ses sites et bizarrement ... pas moyen de faire passer ces pages. Pas de duplicate puisque le site n'existe plus depuis des années et propose comme idée: une mémoire du contenu des pages de Google. Au départ, je pique un fou rire derrière mon clavier :lol: puis on commence avec d'autres les corrections sur nos sites et bizarrement ca passe ou pas. On a beau corriger, la page passe quelques jours (quoique) puis retombe dans le fin fond des SERP (GG n'affiche pas les résultats de la 567.560 pages de résultats :mrgreen: ).

GG mémorise le contenu des pages, tous les sites qui avaient une grosse partie de pages en duplicate continuent à vivoter, la majorité des pages qui étaient visiblement du copié / coller restent en majorité (même avec correction) dans les paquerettes.

Tiens pourquoi je me réveille :lol: .

D'abord parcequ'un pseudo annuairiste demande sur un post du forum un contenu original en forme d'article (génial :lol: ) et demande une partie du contenu de la page d'entrée du site :twisted: (et pan, rien compris). Deuxièment parce que cette mémorisation du contenu commence à jouer des tours. La nouvele version du Forum de WRI est passée finalement (même en sous domaine) sans encombre avec une redirection 301. Maintenant un transfert de site pose nettement plsu de problèmes (4 cas en cours de discussion par MP actuellement). Une copie du contenu d'un site mineure (du même proprio) si GG détecte le duplicate content (même si l'ancien est effacé ...) et c'est la sanction.

J'imagine l'idée. Le site sandboxé, à peine connu de Google, ca va passer. Peut-être. Pourtant, je monte une nouvelle partie sur mon site et met un lien 24 heures vers cette partie en sous-répertoires. Puis 24 heures plus tard, me décide à mettre un sous domaine et commence à envoyer gentillemet les liens vers ce sous domaine avec plus de contenu (jusque là rien de bien particulier ... ) sauf que des pages internes du sous dossier ont été vues pr Google et devinez .... site de confiance par rapport au petit nouveau sous domaines (pages du dossier directement effacées) et 3 semaines plus tard les pages internes du sous-dossier (même inaccessibles) cassent toujours les pages assoisciées au sous doomaine.
Mémorisation des pages -> continue le duplicate avec des pages qui n'existent plus et sanctionnent les nouvelles .

J'ai également en 6 mois continuer à vérifier avec d'autres Webmasters (qui sont pas forcément des membres de WRI) des niveaux de confiance des sites. Améliorations de Google? Pas du tout, j'ai personnellement sanctionné des anciennes pages d'autres sites (avec l'accord du webmaster) en mettant une partie sur un de mes sites . L'inverse peut-être? Sanctionné des pages par copies sur des sites de moindres importances NEUF reprenant du brol mais reprenant plusieurs fois des copies de la page (et pas réellement des sites jugés de confiance). Google n'a pas du tout tenu compte que la page était là depuis deux ans et même 4 ans pour une autre, juste qu'elles n'avaient pas de liens externes. Sur des recherches de parties de phrases, les autres sont en ignorées mais la page de départ est quand même sanctionnée

Avec quelques autres (génial les MP), on en a quelques autres de trucs bizarres, ceci est juste un gros dézippage après 6 mois. Beaucoup ont modifé leur méthodes de travail (ouf) mais pas tous et peut-être pas encore assez. Google n'a rien corrigé dans ses sanctions, même pas adapter!
Haut
Messages: 336

Enregistré le: 2 Juil 2008

Message le Jeu Mar 12, 2009 23:33

salut ybet
merci pour le travail que té entrain de réaliser sur les duplicate ...
sinon je voulais rajouter sur ce qu'il c'est dis. une page dupliqué c'est vrai qu'elle serais grisé et mal référencé ..
mais a cause de cette "page duplicate" le site seras sanctionné de quelque position sur tous les mots clés.
et pour mieux expliquer le duplicate :
j'avais une page sanctionné duplicate sur seulement deux phrases .. oui le faite de copier une phrase ou deux peut vous grisé une page et être sanctionné . donc le faite d'avoir retoucher ces deux phrases tous est revenu dans l'ordre... :wink:
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Ven Mar 13, 2009 8:33

merci du retour ybet, tous jours impressionnantes tes analyses !!!

continues de nous tenir informés !
Haut
Messages: 2050

Enregistré le: 22 Nov 2005

Message le Ven Mar 13, 2009 10:11

Merci Ybet, un boulot de titan en tous cas !
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Ven Mar 13, 2009 11:13

Pas trop d'optimisme ou de pessimisme sur cette mémorisation des pages sanctionnées pour comme copies. Il y a deux parties:
1. la mémorisation d'anciennes pages
2. une sorte de filtre sur des pages (éventuellement site si beaucoup de pages ont le problème. apparament, ca joue pas pour un morceau de phrase mais bien pour dans des copies complètes de paragraphes (les annuaires peuvent avoir ce problème). Une demi phrase perdue dans un texte original corrigé et la page revient.

Pourtant, reste aussi ce niveau de confiance . Et là, à part comprendre qu'un site est plus haut qu'un autre, quasiment impossible à quantifier: pas l'ancienneté, pas le PR, pas le nombre de pages, pas le nombre de liens vers la page, apparament pas non plus le fait d'avoir des liens de pages internes de sites "mieux vus", .... Pour certaines pages, ca ressemnle même quarément à du hasard. Une large partie de mon site est copiée à gauche ou à droite ... Certaines parties passent dans problèmes, d'autres à peine sur le mot clé. Corrigé complètement en utilisant copyscape ... et pas de changement. La page équivalent d'un autre site qui s'en est inspiré (donc des parties identiques) passe sans problème en mondial ou pas du tout.

PS le coup de la partie de la copie sur un site avec un lien vers l'article original d'un autre site fonctionne pas non plus. :roll:
Haut
Messages: 3574

Enregistré le: 11 Fév 2009

Message le Sam Mar 14, 2009 13:38

Perso c'est carrément pire certains ne mes NDD, les sites sont quasiment ou totalement dés-indexer, du coup c'est claire la copie c'est le mal, par contre faire un rédactionnel différents à chaque fois déjà un dictionnaire des synonymes ça peut aider mais c'est pas la solution, encore en plus maintenant pour chaque annuaire de référencement digne de se nom il faut faire un rédactionnel de description du site différents à chaque fois, ça va devenir vraiment rude pour les débutants comme moi :( , bon m'en fou un peut ça me coute Zéro EUROS, et en terme de temps comme je fais surtout cela le WEEKEND ou le soir en semaines c'est pas la mort pis de toute façons ça fait deux semaines que je n'ai pas de client.

en tout cas un grand merci à vous pour ces études de cas, cela permet d'avoir une bonne vision d'ensemble des choses, de celle qui sont à faire et surtout de celle à ne surtout pas faire, le problème pour moi c'est qu'il est déjà un peut trop tard je l'ai ait déjà fait en grande parti!!!!!!!!!!!! :cry:
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Sam Mar 14, 2009 21:41

mipc a écrit:Perso c'est carrément pire certains ne mes NDD, les sites sont quasiment ou totalement dés-indexer, du coup c'est claire la copie c'est le mal, par contre faire un rédactionnel différents à chaque fois déjà un dictionnaire des synonymes ça peut aider mais c'est pas la solution, encore en plus maintenant pour chaque annuaire de référencement digne de se nom il faut faire un rédactionnel de description du site différents à chaque fois, ça va devenir vraiment rude pour les débutants comme moi :( , bon m'en fou un peut ça me coute Zéro EUROS, et en terme de temps comme je fais surtout cela le WEEKEND ou le soir en semaines c'est pas la mort pis de toute façons ça fait deux semaines que je n'ai pas de client.

en tout cas un grand merci à vous pour ces études de cas, cela permet d'avoir une bonne vision d'ensemble des choses, de celle qui sont à faire et surtout de celle à ne surtout pas faire, le problème pour moi c'est qu'il est déjà un peut trop tard je l'ai ait déjà fait en grande parti!!!!!!!!!!!! :cry:

Me souvient d'u post sur WRI à Djmael il y a quelques mois. Sur le forum, lui avait dis "rappelle moi que le jour ou on se rencontre, avant les salutations d'usage et le petit verre de l'amitié, je dois franchement te mettre mon pied au c*l" pour pas écouter. Google détecte depuis des mois les phrases où on a juste utilisé des synonymes (en plsu avec un dictionnaire). Relis le posts de départ et surtout relis les articles sur mon site (surtout les graphiques de Trend). Si GG a fait passer des sites de 200.000 visiteurs uniques à quelques milliers du jours au lendemain (sur les graphiques, le 200.000 en absisce est effectivement le nombre de visiteur par jours :oops: ), tu crois pas que des petits sites satellites de 10 VU subiront pas le même sort (surtout en utilisant oooo :roll: ).

Je viens de passer mon après midi à réécrire une page complète en utilisant copyscape pour un site qui est en ligne depuis 6 ans (c'est le WWW) par rapport à mon premier site qui bouge quasiment plus depuis ... 6 ans .... et cette page fait actuellement quelque 1500 visiteurs par mois. Ca te donne une idée du problème j'espère.

:evil: pour la petite dizaine de Webmaster que je "coche" par MP sur des problèmes de sites quand ils me le demandent (c'est aussi une partie de mon passe temps sur WRI, j'en prend aucune gloire ni mouvement de pseudo supériorité, je prend juste le temps de le faire), il ya deux catégories ceux qui en prennent des idées et les appliquent à leur sauce (un site n'est jamais l'autre) et les autres. Pourtant, cette série de tests s'est fait en communauté: ce sont mes conclusions mais aussi celles de beaucoup d'autres qui sont repris dans les posts et qui ont aidé (même souvent beaucoup plus). Ca devrait normalement suffire ...
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Jeu Juil 30, 2009 0:26

J'en demanderai trop de faire une conclusion des techniques "nouvelles" et/ou "rares" ? :)

Non pas que je n'ai pas envie de lire, mais j'ai un peu de mal avec certaines phrases. Du coup, je ne sais pas si je comprends bien ou mal ce que tu dis. Et comme c'est très intéressant, ça m'embête de louper des choses.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Dim Aoû 02, 2009 17:58

tonguide a écrit:J'en demanderai trop de faire une conclusion des techniques "nouvelles" et/ou "rares" ? :)

Non pas que je n'ai pas envie de lire, mais j'ai un peu de mal avec certaines phrases. Du coup, je ne sais pas si je comprends bien ou mal ce que tu dis. Et comme c'est très intéressant, ça m'embête de louper des choses.



J'attend .... septembre 2009 :wink:
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Dim Aoû 02, 2009 18:46

oula olivier prévois 1To pour stocker les tests de ybet !!!
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Lun Aoû 03, 2009 13:15

ybet a écrit:
tonguide a écrit:J'en demanderai trop de faire une conclusion des techniques "nouvelles" et/ou "rares" ? :)

Non pas que je n'ai pas envie de lire, mais j'ai un peu de mal avec certaines phrases. Du coup, je ne sais pas si je comprends bien ou mal ce que tu dis. Et comme c'est très intéressant, ça m'embête de louper des choses.



J'attend .... septembre 2009 :wink:

rendez-vous pris :wink:
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Aoû 03, 2009 15:22

rudddy a écrit:oula olivier prévois 1To pour stocker les tests de ybet !!!


:mrgreen: Viens même de prendre un deuxième serveur dédié pour faire quelques tests pour ces problèmes de sanctions mais d'autres aussi, notament liés aux liens externes venant de la même adresse ip et un peu comprendre ce brol de géolocalisation.
Gogle est jamais qu'un algo (une machine), même si les raisons de positionnement (dépositionnement) sont nombreux, il y a toujours des directions à suivre pour amméliorer son placement. Faut juste trouver les directions s'en s'emméler les pinceaux. Et là ca va jouer fin ... Je vais bien trouver ce qui ce passe avec tous ces petits bricolages de Google.
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Lun Aoû 03, 2009 15:29

alors là, mystère ybet percera t-il le secret du Google Algorithm ???
Haut
Messages: 251

Enregistré le: 3 Nov 2008

Message le Lun Aoû 03, 2009 15:35

héé moi aussi j'attends tes tests :mrgreen:
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Lun Aoû 03, 2009 15:46

par contre peut etre réouvrir un sujet car celui là commence à dater ...
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Aoû 03, 2009 18:45

rudddy a écrit:par contre peut etre réouvrir un sujet car celui là commence à dater ...


M'en doute. De toute façon, je suis juste en train de créer les directions de tests, de rassembler les modifs actuelles de l'algo concernant ces pénalités mais surtout les méthodes de détection qui ont changées avant de refaire pêter la boîte de MP sur WRI :mrgreen: . Comme pour ce post, il y plus dans quelques têtes que dans une. Me faudra bien un gros mois pour reprendre les constacts et idées de quelques uns concernant ces petites sanctions qui continuent comme si de rien n'était.
Certaines parties ont déjà débutées depuis des mois grâce à un petit outils (MP si vous voulez). Pas encombrant, basé sur une simple table excel et pas de truc quasi inutile, juste le positionnement au jour le jour avec de petits graphiques.
Haut
Messages: 199

Enregistré le: 10 Mai 2005

Message le Lun Aoû 03, 2009 18:59

Une chose que j'ai constatée : j'ai plusieurs de mes pages qui sont grisées mais qui ne sont pas sanctionnées au niveau du ref (sur des requêtes assez peu concurrentielles certes).
Pour d'autre c'est plus compliqué : certaines sont grisées because "duplicate content" interne ou externe (ça c'est normal quoi que pas toujours justifié)
Ce qui m'inquiète un peu c'est que ce nombre de pages grisées va croissant, ce qui est vrai sur beaucoup de sites que je fréquente d'ailleurs, à commencer par celui-ci, et que certaines pages de discussion de type forum qui ne sont souvent accessibles que depuis les pages de listing des forums elles même grisée, apparaissent désormais grisées également.
en gros
Image
page verte page d'accueil d'un forum (que du lien mais fréquentée) page grise à droite la page 2 (toujours que du lien mais beaucoup mois fréquentée).

les pages grisés les plus à droites sont désindexées petit à petit.

Sauf à refaire un article de temps en temps avec de nouveau jolis lien dans le texte et en pied de page, ça commence à devenir compliqué !
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Lun Aoû 03, 2009 19:26

joe coe a écrit:Une chose que j'ai constatée : j'ai plusieurs de mes pages qui sont grisées mais qui ne sont pas sanctionnées au niveau du ref (sur des requêtes assez peu concurrentielles certes).
Pour d'autre c'est plus compliqué : certaines sont grisées because "duplicate content" interne ou externe (ça c'est normal quoi que pas toujours justifié)
Ce qui m'inquiète un peu c'est que ce nombre de pages grisées va croissant, ce qui est vrai sur beaucoup de sites que je fréquente d'ailleurs, à commencer par celui-ci, et que certaines pages de discussion de type forum qui ne sont souvent accessibles que depuis les pages de listing des forums elles même grisée, apparaissent désormais grisées également.
en gros
Image
page verte page d'accueil d'un forum (que du lien mais fréquentée) page grise à droite la page 2 (toujours que du lien mais beaucoup mois fréquentée).

les pages grisés les plus à droites sont désindexées petit à petit.

Sauf à refaire un article de temps en temps avec de nouveau jolis lien dans le texte et en pied de page, ça commence à devenir compliqué !


tu as constaté ou c'est juste un déclassement ?
Haut
Messages: 199

Enregistré le: 10 Mai 2005

Message le Lun Aoû 03, 2009 20:09

rudddy a écrit:tu as constaté ou c'est juste un déclassement ?

c'est un constat :
un exemple relatif à cette page (je ne sais toujours pas bien si on peut parler de ref de WRI ou pas mais bon pas de mauvaise intention de ma part d'utant que j'ai exactement le même constat chez moi et ailleurs)
http://forum.webrankinfo.com/netlinking-250.html
page grisée
la requête
http://www.google.fr/search?hl=fr&q=http%3A%2F%2Fforum.webrankinfo.com%2Fnetlinking-250.html&btnG=Rechercher&meta=
et pour les pages linkées idem
http://www.google.fr/search?hl=fr&q=http%3A%2F%2Fforum.webrankinfo.com%2Frequetes-google-t109374.html&btnG=Recherche+Google&meta=&aq=f&oq=

Je pensais au départ à un problème de profondeur de scan des bots de GG, j'avais conclu que celui ci indexait depuis la home sur une profondeur de 10.
mais depuis peu... ça change et mon sentiment pour avoir fait quelques tests à deux balles ( mais sur mon NDD principal j'évite d'y aller comme un bourrin ) c'est que ces pages sont vues en duplicate content. (page étant à un moment donné ou à un autre accessible depuis les derniers messages des forums, les plus lus, les plus votés...)

En même temps la volatilité sur les requêtes de type site:www.xxx étant extrême et passant pour moi de 15000 à 244000 (estimations que j'avais faite de l'ensemble de mes pages en gros), je me demande comment google va stabiliser tout ça.

Simples observations de chaque instant.
Haut
Messages: 251

Enregistré le: 3 Nov 2008

Message le Lun Aoû 03, 2009 20:40

il ne faut pas pensé qu'une page grisé est automatiquement une page sanctionné !!
une page grisé est une page non importante dans votre architecture du site.
Haut
Messages: 2570

Enregistré le: 1 Aoû 2007

Message le Lun Aoû 03, 2009 20:44



et ça : http://www.google.fr/search?hl=fr&q=site%3Ahttp%3A%2F%2Fforum.webranki ... =&aq=f&oq= ???
Haut
Messages: 199

Enregistré le: 10 Mai 2005

Message le Lun Aoû 03, 2009 22:16


ok c'est effectivement ce qu'il fallait faire :oops:
ceci étant dis, c'est une page dont le rôle est d'aiguiller, cette page en elle même n'a pas d'autre sens (non ?)

http://www.google.fr/search?hl=fr&q=site%3Ahttp%3A%2F%2Fforum.webrankinfo.com%2Frequetes-google-t109374.html&btnG=Rechercher&meta=
elle n'aiguille pas... c'était le sens de mot schéma.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Aoû 03, 2009 22:50

ringout a écrit:il ne faut pas pensé qu'une page grisé est automatiquement une page sanctionné !!
une page grisé est une page non importante dans votre architecture du site.


C'est bien le problème (et surtout les modifs d'affichage du PR par rapport à l'année passée).
http://www.webrankinfo.com/annuaire/site-1230.htm elle est zero :mrgreen: et pourtant http://209.85.229.132/search?sourceid=navclient&hl=fr&ie=UTF-8&rlz=1T4 ... e-1230.htm :oops:

On le sait depuis des mois mais on a rien dit :twisted: La méthode du PR a NETTEMENT change.

Dès que j'annonce qu'on va refaire des petits tests "débiles", le post redémarre mais c'est un tord. Dans le premier post, j'ai dit que la majorité des contacts s'étaient fait par MP (et c'est la grosse base de travail sur ces sanctions). On se fait plaisir, on laisse ce post tranquille et on recommence par MP. Je redébute les mêmes trucs, plus spécifiques peut-être, ceux qui souhaitent participer, ca se fait en MP avec moi pour récupérer "l'équipe" et les sites qui vont participer. Sinon, ce posts va redémarer avec des messages personnels et ... c'est pas le but (par respect au moins pour ceux qui lisent et font pas partie des tests, ils cherchent juste la solution) . De toute façon, la majorité va se passer "par derrière", faut des mois pour mettre en place, faire les tests, et ... tirer des conclusions qui sont pas forcément justes. L'année dernière, ca nous a prit des mois, des dizaines de MP, des mails, des idées, ...
J'ai beucoup appris mais aussi par des directions qui sont terminées en cul de sac: et c'est là aussi l'intérêt de ne pas trop en dire au début.
Patrick
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Aoû 03, 2009 23:13

joe coe a écrit:Image
page verte page d'accueil d'un forum (que du lien mais fréquentée) page grise à droite la page 2 (toujours que du lien mais beaucoup mois fréquentée).


C'est beaucoup plus subtil que celà. Des pages reprenant (finalement) que des liens sont grisées et souvent pas reprises dans les recherches (et ^même dans le cache) mais suivies par le moteur et reprises dans les résultats (ou non :oops: ). Google analyse maintenant chaque page au niveua CONTENU.
La fréquentation d'une page ne reprenant que des liens aide .... (là aussi j'aimerais comprendre :mrgreen: ) mais pas souvent. Regarde aussi ton contenu dans les pages internes (on est souvent surpris :wink: ). la mise en cache vire les pages ave des liens mais google les suis aussi (pas toujours).
Haut
Messages: 23040

Enregistré le: 19 Avr 2002

Message le Lun Aoû 03, 2009 23:13

un petit conseil : ne vous attachez pas au PR affiché par la toolbar, surtout pour les pages de WRI car Google a pris un malin plaisir à ne pas afficher le vrai PR pour WRI (certains parleront de sanction mais pas moi vu que le trafic se porte bien).
en tout cas moi ça fait un bail que je ne regarde plus ça ;-)

pour l'histoire du cache, c'est quand même souvent une sorte de bug. en tout cas quand je vois que la page (soit disant pas en cache et PR0) sort dans Google (j'ai pris son titre), je ne suis pas certain qu'il y ait tant de pb que ça...
Haut
Messages: 251

Enregistré le: 3 Nov 2008

Message le Lun Aoû 03, 2009 23:18

moi je suis très intéressé ;) par le test partant pour y participé...
parce qu'il y a pas mal de trucs que je veux comprendre et demande peut être le travail d'une équipe..
Haut
Messages: 251

Enregistré le: 3 Nov 2008

Message le Lun Aoû 03, 2009 23:20

WebRankInfo a écrit:
pour l'histoire du cache, c'est quand même souvent une sorte de bug. en tout cas quand je vois que la page (soit disant pas en cache et PR0) sort dans Google (j'ai pris son titre), je ne suis pas certain qu'il y ait tant de pb que ça...


peut être sa <meta name="robots" content="noarchive" /> :)
Haut