Messages: 1174

Enregistré le: 15 Mar 2003

Message le Sam Jan 15, 2005 12:36

Voir l'article remis en forme par Olivier ici
Modifié en dernier par rituel le Dim Mar 27, 2005 18:33, modifié 17 fois.
Haut
138 Réponses
Messages: 295

Enregistré le: 13 Nov 2002

Message le Sam Jan 15, 2005 12:55

Remarques fortes intéressantes... Cependant, lorsque l'effet sandbox n'existait pas, il était possible de placer un site sur des requêtes concurrentielles si le site était pertinent. Le nb de backlinks est à mon avis proportionnel à la pertinence du site, donc ce fameux site peut venir tâter les sites de référence assez vite...

Donc, si on part de ce principe, un site doit avoir une courbe naturelle de croissance, puisque la pertinence d'un site se construit au fur et à mesure de sa vie.

Je trouve donc que l'effet sandbox a un pb de cohérence, car effectivement, quand le site est jeune mais pertinent, il serait logique de le retrouver en 3eme, 4 eme page alors que là, on le retrouve dans les fin fonds des pages de résultats...
Haut
Messages: 755

Enregistré le: 13 Déc 2004

Message le Sam Jan 15, 2005 13:12

Personnellement je suis bien d'accord avec toi mais je crois que tu décris "l'esprit" de la sandbox, faire ses preuves et travailler travailler...
Haut
Messages: 97

Enregistré le: 23 Mar 2004

Message le Sam Jan 15, 2005 13:46

yrogerg a écrit:Remarques fortes intéressantes... Cependant, lorsque l'effet sandbox n'existait pas, il était possible de placer un site sur des requêtes concurrentielles si le site était pertinent. Le nb de backlinks est à mon avis proportionnel à la pertinence du site, donc ce fameux site peut venir tâter les sites de référence assez vite...


Je me permets de noter qu'il y a une grosse difference entre dire "la sandbox" et "l'effet sandbox".

Si "l'effet sandbox" est indeniable, "la sandbox" n'est qu'une theorie.

Pour reprendre l'analogie medicale, "l'effet sandbox" est le symptome, "la sandbox" est l'hypothetique cause de ces symptomes.
Haut
Messages: 295

Enregistré le: 13 Nov 2002

Message le Sam Jan 15, 2005 13:50

Effectivement, parlons de l'effet sandbox. Par contre, pour revenir au sujet de rituel, j'aime beaucoup l'image de la courbe de croissance. Je la trouve très pertinente.
Haut
Messages: 1428

Enregistré le: 28 Nov 2003

Message le Sam Jan 15, 2005 13:55

Pertient car logique ... le problème est qu'internet est un média qui évolue très vite, et les webmasters veulent toujours allé plus vite, plus fort ... sans prendre en compte le facteur temps, facteur que google aurait du prendre en compte depuis bien longtemps et de façon plus importante qu'il y a qqmois ... C'est la qu'on verra la différence entre petit webmaster et société, qui combleront les débuts par de la pub :)
Enfin très bonne remarque rituel en tout cas ... il est vrai qu'on met tout dans la sandbox mtnt qd on perd des places, mais comme on parle de l'effet sandbox, on peut se le permettre je pense :)
Haut
Messages: 1649

Enregistré le: 8 Avr 2004

Message le Sam Jan 15, 2005 14:04

J'en suis à me demander si c'est pas mille fois plus simple que ça : certains paramètres des BL (par exemple l'anchor text) ne sont pas pris immédiatement en compte, tout bêtement parce qu'un site nouveau n'est pas positionné dans son réseau, ou groupe de sites.

Après, soit c'est une volonté délibrée, soit c'est la structure de l'algo (et des nouveaux algos qui se greffent dessus) qui veut ça.
Haut
Messages: 22759

Enregistré le: 19 Avr 2002

Message le Sam Jan 15, 2005 14:13

je ne suis pas d'accord avec tout ce que tu dis rituel... Par exemple tu dis
Seulement, un site qui part avec une quantité faramineuse de BLs quelques jours après la naissance, et qui n'évolue plus jamais, autrement dit qui acquiert son stade de maturité en terme de popularité dès sa naissance est supsect.

Il faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.
Autre exemple : une multinationale possédant déjà 10 sites (un par pays) en crée un onzième pour l'ouverture d'une nouvelle filiale. Ce 11ème site gagne rapidement des milliers de BL, et je ne considère pas ça comme suspect.

Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).

Que ce soit utile pour la pertinence des résultats de Google est une autre question...
Haut
Messages: 1428

Enregistré le: 28 Nov 2003

Message le Sam Jan 15, 2005 14:35

WebRankInfo a écrit:Il faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.


Alors la théorie de la class C est bidon ? Personnelement j'ai plusieurs sites et je les link presque tous entre eux, ce qui me parait relativement normal, si je peux m'apporter des visiteurs à moi meme, j'vais pas me géner ... Et les différents sites, j'vais pas chercher à changer d'hébergeur ou de serveur, si techniquement celui-ci tiens la route...
Haut
Messages: 1174

Enregistré le: 15 Mar 2003

Message le Sam Jan 15, 2005 14:42

Il faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.


C'est complètement suspect et j'allais d'ailleurs y venir, mais tu ne m'as pas laissé le temps :

Il faut distinguer deux types de BLs :

- Le capital BL fabriqué
- Le capital BLs naturel

Le premier s'accumule par les partenariats, j'entends par là les échanges de liens, ainsi que la soumission aux annuaires.

Le deuxième lui s'accumule sur différentes pages, que ce soit par coup de coeur d'un webmaster, ou par effet de nouveauté sur des sites de même thématique ou sur des sites spécialisés dans les nouveautés sur internet (Micro Hebdo ...)

Tu fais donc référence au deuxième cas dans ta proposition, maintenant je te retourne la question, pourquoi ferais tu un tel lien vers un site ?

Tu dis que tu le fais de manière naturelle, dans ce cas si toi Olivier Duffez, webmaster d'un site PR 7 ayant des milliers de visiteurs par jour, fait un lien sur des centaines de milliers de pages de ton site vers ce fameux site coup de coeur, crois moi que d'autres suivront. Si tu le fais d'autres le feront car il doit vraiment en valoir la peine et sa courbe de croissance sera comme je le disais exceptionnel, le site ne sera pas sandboxé.

La seule chose Olivier c'est que tu ne le feras pas pour un site anodin (Nous en sommes d'ailleurs la preuve vivante en message privés il y a de cela quelques jours), sauf si il y a une proposition financière ou un arrangement, on rentre là dans le cadre du capital BL fabriqué, ne le nies pas tu serais de mauvaise foie (Cf bas du forum).

Par instinct quand on lance un site on veux "mettre le paquet", on s'arrange donc avec énormement de webmasters pour qu'un lien pointe vers notre site. Là généralement se produisent deux choses :

Soit on se dit qu'on a suffisamment travaillé les partenariats et dans ce cas on attends que Google fasse son travail, soit on ne parvient pas à poursuivre le rythme des partenariats durant les mois à venir.

Dans ces deux cas, c'est là qu'interviendra la sandbox, pour moi, au plus tu tendras vers une droite d'équation y=constante, au plus tu courres un risque de te faire sandboxer, ce qui est naturel et logique.

Autre exemple : une multinationale possédant déjà 10 sites (un par pays) en crée un onzième pour l'ouverture d'une nouvelle filiale. Ce 11ème site gagne rapidement des milliers de BL, et je ne considère pas ça comme suspect.


Cela dépendra du succès du dernier site, dans tous les cas elle utilise une méthode non naturelle pour le lancement du site ce qui la met en danger si ce dernier ne connaît pas un succès tel que la croissance suivra le rythme de lancement du site. Je tiens également à te rassurer, leurs arguments financier sont tels qu'avec la publicité de masse et des partenariats à la chaîne ils parviendront largement à maintenir la barre assez haute.

Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).


Tout à fait, ce doit également être des arguments de sandboxage, mais au contraire, ceux là ne nous échappent pas car ils sont bien plus logiques et faciles à detourner que la courbe de croissance. Ils sont donc pour moi un complèment au sandboxing mais sont trop évidents et simple à contourner pour être les seuls en piste.
Haut
Messages: 716

Enregistré le: 20 Mai 2004

Message le Sam Jan 15, 2005 15:05

rituel a écrit:Tu fais donc référence au deuxième cas dans ta proposition, maintenant je te retourne la question, pourquoi ferais tu un tel lien vers un site ?

Tu dis que tu le fais de manière naturelle, dans ce cas si toi Olivier Duffez, webmaster d'un site PR 7 ayant des milliers de visiteurs par jour, fait un lien sur des centaines de milliers de pages de ton site vers ce fameux site coup de coeur, crois moi que d'autres suivront. Si tu le fais d'autres le feront car il doit vraiment en valoir la peine et sa courbe de croissance sera comme je le disais exceptionnel, le site ne sera pas sandboxé.

+1
Le raisonnement est intéressant je trouve.

Il est certain que si un site aussi populaire et visité que WRI linke en masse vers un autre site, et que celui ci présente un réel intérêt, d'autres webmasters visitant WRI et voyant le lien feront à leur tour des liens (d'autant plus que les visiteurs de WRI sont en grande partie des webmasters, je pense). Selon la thèse de rituel, la courbe de croissance sera considéré comme "normale" par Google, et aucune sanction ne sera opérée.

Cependant, si le site ne présente pas de réel intérêt et qu'au fond Olivier (il s'agit d'une simple mise en situation hein, ne le prend pas pour toi ;)) l'a linké seulement parce qu'il s'agit d'un site à lui ou d'un site d'une connaissance, alors beaucoup moins de visiteurs iront à leur tour placer le lien sur leur site, et Google trouvera ça suspect, car il y aura une cassure entre la croissance explosive des BLs au lancement du site, et la croissance des BLs par la suite.

En admettant que cela fonctionne comme cela, cela pourrait être une façon pour Google de limiter les effets du "piston" dans le cas où, au fond, le site ne semble pas avoir beaucoup d'intérêt (on pourrait par exemple citer les sites sans réel contenu qui n'affichent que de la pub). Tout cela en se basant sur l'évolution du nombre de BLs.
Haut
Messages: 1174

Enregistré le: 15 Mar 2003

Message le Sam Jan 15, 2005 15:14

Bebez je suis ravi que sorcier glouton [lien supprimé par cendrillon] tu ai compris où je souhaitais en venir, je suis d'ailleurs en cours d'achèvement de cet "essai", j'attends donc tes propositions si tu penses pouvoir étoffer la chose avec un critère supplémentaire.
Modifié en dernier par rituel le Mer Juin 08, 2005 22:26, modifié 2 fois.
Haut
Messages: 688

Enregistré le: 16 Juin 2003

Message le Sam Jan 15, 2005 15:25

Je penses que cette théorie a du vrai, mais cela ne joue pas au niveau des BLs car comme le dit olivier, tu peux avoir plusieurs milliers de BLs en un mois, mais au niveau du positionnement, donc du trafic,
ce 17 décembre 2004, tous mes sites ont chuté ou presque en terme de positionnement (trafic) et non en terme de Bls ou de PR (qui ne cesse d'augmenter)
1 seul de mes sites a vu son trafic en hausse (positionnement), et c'est le plus vieux (né en 2000)
Je pense donc que depuis cette fin d'année 2004, il n'est pas impossible que ce type d'algo soit mis en place.
ce qui voudrait dire 2 choses:
seul les plus vieux sites en ages peuvent posséder de trés nbrx BLs avec du trafic, et pour les + jeunes rien ne serre d'en avoir trop sinon au bout d'un certain temps leur positionnement devient obsolète ...
msn et aol en comparaison a google n'utilise pas ce type d'algo, ils utilise quasi la même chose que google avant le 17 décembre 2004 (pour mes positionnments mots clef)
Haut
Messages: 716

Enregistré le: 20 Mai 2004

Message le Sam Jan 15, 2005 15:28

Je viens de voir que tu as ajouté la dernière partie, et il y a un point où je ne suis pas d'accord. Tu parles d'une infinité de courbes ; pour moi, une seule suffit.
Peu importe avec combien de BLs le site démarre. Selon ta théorie, ce qui importe, c'est l'évolution, qui est donc un coefficient, et qui peut être généralisé. Par exemple, on pourrait, à la suite de tests à grande échelle, montrer qu'en moyenne le nombre de BLs au bout de 6 mois est multiplié par 1,5 à 4 (je dis n'importe quoi évidemment). Alors quel que soit le nombre de BLs au lancement du site, on peut appliquer cette constatation !
Modifié en dernier par Bobez le Sam Jan 15, 2005 15:29, modifié 1 fois.
Haut
Messages: 22759

Enregistré le: 19 Avr 2002

Message le Sam Jan 15, 2005 15:28

rituel, figure-toi que c'est principalement sur le terme de "suspect" que je n'étais pas d'accord (donc sur le fond je te suis...). La théorie que tu exposes (en gros, un site ne devrait pas obtenir d'un seul coup un gros paquet de BL sinon c'est louche) est celle qui est le plus souvent donnée pour expliquer l'effet sandbox, mais après tout qui l'a vérifiée ?

ensuite, quelques remarques pour prolonger cette discussion intéressante :
- je ne pense pas que le fait de faire "brutalement" plusieurs milliers de liens vers un même site puisse lui être néfaste. Google a toujours cherché à éviter qu'on puisse "détériorer le référencement" d'un site qui ne nous appartient pas. Ce serait trop facile... tiens, je vais m'amuser à mettre un lien vers http://www.fleurs-livraison.info/ sur toutes les pages de WRI pour voir :-) (non, je déconne...)

- qui a prouvé que 10 000 BL issus d'un même site étaient équivalents à 10 000 BL issus de plusieurs sites ? Peut-être que pour Google, 10 000 BL issus d'un même site sont équivalents à 1, 10 ou 100 BL. Pour aller plus loin : pourquoi faire 10 000 liens depuis un même site serait-il néfaste alors que faire 10 liens (issus d'un même site) ne le serait pas ?

- qui a prouvé qu'un site pouvait réellement "échapper" à l'effet sandbox ? Finalement on ne peut pas en être sûr, exactement comme on ne peut pas identifier de manière claire les causes de cet "effet"...
Haut
Messages: 5963

Enregistré le: 22 Mar 2004

Message le Sam Jan 15, 2005 15:56

Cette histoire de beaucoup de bl d'un coup j'ai toujours pas compris en quoi et pourquoi gg pourrait considérer ça comme néfaste.
Imganinons qu'une grosse boite décide de faire un nouveau site, par exemple pour un jeu, si elle communique un peu (presse, pub), le site aura rapidement des dizaines de milliers de BL, pourquoi gg considererait ça comme de la "triche" ?

Sinon ce qui me gêne dans les hypothèses de Rituel, c'est que c'est basé sur rien et qu' il y a en plus des contre exemples pour pratiquement toutes les hypothèses.

Je pense qu'on devrait essayer de profiter de ce topic pour continuer à faire des hypothèses, mais essayer aussi de trouver des tests qu'on pourrait faire pour réellement faire avancer le smilblick de manière plus "scientifique" :)

Moi mon sentiment sur la question (un peu comme disait lafleur) c'est plutot que Google accorde de l'importance a "étudier la qualité des BL" (alors qu'avant il se contentait du pr de la page) et prend du temps pour faire ça, d'ou cette effet de prise en compte des BL décalé dans le temps.
Haut
Messages: 1174

Enregistré le: 15 Mar 2003

Message le Sam Jan 15, 2005 15:59

@Bebez : Je pense qu'une seule courbe serait trop imprécise pour le nombre de sites qu'il existe, en fait chaque site a son évolution mais on peut la rapprocher de l'évolution d'un autre site qui lui même peut être rapproché avec un autre, seulement à force de rapprocher on commet des erreurs de jugement, d'où peut être l'existence de plusieurs référentiels.

@Webrankinfo : Je ne l'ai pas vérifié, j'ai émis des hypothèses face à de nombreux phénomènes reportés sur des forums américains, et également ici.

Etant moi même programmeur, j'ai essayé de trouver quelque chose de techniquement faisable et de difficilement contournable donc de valable pour juger de la véracité de l'évolution d'un site, mais bien que j'ai dû commettre des erreurs d'appreciations, je pense que la ligne directrice est vraie.

Pour le lien vers Fleurs livraison, je ne sais pas trop ce que cela donnerait, j'ai encore plein d'interrogations, peut être que Google peut déplacer un site d'un référentiel à un autre si son évolution semble naturelle mais explosive, c'est le marketing viral qui m'a fait réflechir là dessus ... Je t'avoue que je ne préfère pas m'aventurer sur cette question qui est peut être le talon d'Achille de mon explication.

Pour le comptage des BLs d'un même domaine c'est un autre problème, mais il est clair qu'il ne vaut pas la même chose qu'un BL normal et j'en ai la preuve : Le site de voyage d'un ami a pour partenaire un des plus gros sites francophones : Gros en taille, et gros en fréquentation, pour tout vous dire un générateur de forums ;)

Résultat : Avec plus de 10 000 BLs, il était seulement PR 4 et perdu très très loin dans le classement.

Pour ce qui est d'échapper à l'effet sandbox, tout simplement Fleurs Livraison : Dès sa première indexation il s'est retrouvé premier sur le mot "livraison", alors qu'il était 70 ème sur "livraison fleurs", depuis il ne cesse de grimper et il se retrouve aujourd'hui 16 ème sur ce même terme après seulement quelques mois d'existence.

Mais après tout ta thèse ouvre peut être une piste, l'effet sandbox est peut être non pas appliqué à un site seul, mais à un site + une requête concurentielle du même thème que le site ... Mais là ca devient vraiment complexe ...

En conclusion ce que l'on peut dire c'est que l'on a pas affaire à n'importe qui, Google comprend très bien tout ce que l'on fait, il reste principalement basé sur la popularité d'un site pour en déterminer le classement d'où ses algorithmes de chasse aux fraudeurs de BLs ( Que vous pouvez appelle Sandbox si cela vous fait plaisir ;) ) ,et, s'il existe encore des abus au niveau du cloaking et des redirections, cela devrait ,je pense, rapidement changer.
Haut
Messages: 97

Enregistré le: 23 Mar 2004

Message le Sam Jan 15, 2005 17:22

Perso je crois que moyennement aux courbes, mais c'est une bonne maniere de representer le probleme.

Je pencherais plutot sur des plages de valeurs que Google accepte comme raisonnables pour l'evolution de differents parametres.

D'apres moi faut pas simplement se focaliser sur le nombre de backlinks, mais sur l'ensemble des facteurs qui changent quand un grand nombre de liens est ajoute de maniere artificielle (diversite de la provenance, reputation des sites, densite des mots cles dans les liens, etc.)

Si plusieurs de ces facteurs changent de maniere drastique d'un passage de spider a l'autre, il y a de fortes chances que Google decide que ce ne soit pas dans le meilleur interet des surfeurs de voir ce site en premiere page.

C'est une theorie que j'avais verifiee sur plusieurs parametres differents deja avant Florida. J'avais appele ca "la theorie des deltas".

Depuis il y a pas mal de parametres qui se sont ajoutes, mais d'apres moi elle reste valide.
Haut
Messages: 1174

Enregistré le: 15 Mar 2003

Message le Sam Jan 15, 2005 18:06

trix a écrit:Perso je crois que moyennement aux courbes, mais c'est une bonne maniere de representer le probleme.

Je pencherais plutot sur des plages de valeurs que Google accepte comme raisonnables pour l'evolution de differents parametres.


Tu ne peux pas faire des plages uniques avec lesquelles tu jugeras 8 milliards de sites, c'est impossible, d'où les courbes. La différence entre une plage et les courbes representées, finalement c'est qu'une plage est une droite verticale x=constante sur mon schéma, alors que les courbes sont une infinité de droites x=constante

D'apres moi faut pas simplement se focaliser sur le nombre de backlinks, mais sur l'ensemble des facteurs qui changent quand un grand nombre de liens est ajoute de maniere artificielle (diversite de la provenance, reputation des sites, densite des mots cles dans les liens, etc.)


Tout à fait, olivier l'a d'ailleurs notifié :

Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).


Et le lui ai d'ailleurs répondu :

Tout à fait, ce doit également être des arguments de sandboxage, mais au contraire, ceux là ne nous échappent pas car ils sont bien plus logiques et faciles à detourner que la courbe de croissance. Ils sont donc pour moi un complèment au sandboxing mais sont trop évidents et simple à contourner pour être les seuls en piste.


Il y'a peut être aussi la Toolbar dont on doit se méfier ... Elle peut servir à établir des statistiques en terme de fréquentation et joue peut être sur le classement (Ce qui serait dommage).

Pour le reste pourquoi pas, tout est envisageable vu le mastondonte à qui on a affaire :)
Haut
Messages: 97

Enregistré le: 23 Mar 2004

Message le Sam Jan 15, 2005 18:44

Le truc que me plait pas dans les courbes c'est que ca signifierais qu'un site qui resterait dormant pendant 3 mois devrait mettre un gros coup pour retourner dans la norme. C'est pas particulierement coherent avec ce que j'ai vu sur certains de mes domaines.

Le truc dont il faut aussi se souvenir quand on se frotte a Google c'est qu'ils ont une base absolument enorme de sites qu'ils ont vu evoluer dans le temps. La taille de la base est pas du tout un probleme pour eux, c'est au contraire un avantage. Une fois qu'il ont determine les parametres d'une formule qui permet de decider si les changements sont coherents avec le reste de leur base, ils ont pas a faire de calculs compliques sur toute la base. Ils font tourner certains filtres uniquement sur les premieres N pages de resultats pour les expressions les plus interessantes.

D'apres moi c'est d'ailleurs ce qui peut expliquer le phenomene de sandbox:
Un site fait un bond supernaturel sur un des parametres -> il est dans les sites potentiellement interessants sur des "expressions surveillees", Google regarde son evolution et determine que l'evolution n'est probablement pas naturelle -> le site est supprime des sites a considerer dans la partie de la base la plus active (sites qui apparaissent dans les N premieres pages des expressions interessantes).
Quand le webmaster s'est calme et que les parametres de son site recommencent a evoluer de maniere acceptable, il est de nouveau considere avec les pages standard.
Modifié en dernier par trix le Sam Jan 15, 2005 20:11, modifié 1 fois.
Haut
Messages: 1174

Enregistré le: 15 Mar 2003

Message le Sam Jan 15, 2005 20:04

Trix, j'ai finalisé mon article et curieusement ca semble concorder un peu avec tes interrogations :

Code: Tout sélectionner
Après avoir lu cet article, une question vous viendra peut être à l'esprit : Si un site est mis en sandbox, comment peut il en ressortir si son nombre de Bls est largement supérieur au maximal autorisé par la courbe ? Devra-t-il attendre plusieurs mois, voire plusieures années avant de réapparaître dans les résultats ?

Bien qu'on m'ai reporté des cas extrêmement longs de mise à l'écart de sites par Google, je doute qu'il faille attendre que la courbe atteigne le seuil de BLs du site avant que celui-ci puisse réintégrer le classement, en effet cela signifierai qu'une centaine de Backlinks le replongerait dans la sandbox ... Mais rappellez vous, tout à l'heure nous avons évoqué le fait qu'il devait forcément exister plusieures courbes selon le nombre de backlinks à la naissance. Pour pallier à notre problème il suffirait donc qu'après une mise en bac à sable Google transfère le site dans un référentiel supérieur qui correspond davantage au cycle de vie que ce dernier a prit.
Haut
Messages: 4909

Enregistré le: 17 Aoû 2004

Message le Sam Jan 15, 2005 21:08

rituel, je ne sais pas si ta théorie est exacte, mais après tout elle en vaut bien d'autres ... mais pourquoi ne pas la généraliser et imaginant :
1- Google ne s'intéresse pas qu'aux paramètres eux même mais à leur vitesse de variation (dérivée). Dès lors la valeur de départ n'aurait plus d'importance (avec des gardes fou bien sûr), du moment que la vitesse de variation reste constante (dans une gaine de tolérence) ...

2- pourquoi ne le ferait il qu'au début de la vie d'un site, et plus ensuite ... cela pourrait expliquer que certains sites anciens attérrissent dans la SandBox ...

rituel a écrit:Bien qu'on m'ai reporté des cas extrêmement longs de mise à l'écart de sites par Google, je doute qu'il faille attendre que la courbe atteigne le seuil de BLs du site avant que celui-ci puisse réintégrer le classement, en effet cela signifierai qu'une centaine de Backlinks le replongerait dans la sandbox ...

Si c'était le cas, j'ose espérer que les concepteurs d'un tel algorithme auront prévu un effet d'hystérésis ... :wink:
Modifié en dernier par Cendrillon le Sam Jan 15, 2005 22:19, modifié 1 fois.
Haut
Messages: 22759

Enregistré le: 19 Avr 2002

Message le Sam Jan 15, 2005 21:53

au fait, pourquoi dites-vous "la" sandbox ? parce que box est du féminin ? vous préférez dire "le" ou "la" sandbox ?
Haut
Messages: 4909

Enregistré le: 17 Aoû 2004

Message le Sam Jan 15, 2005 22:03

certainement parce que, comme l'a très bien expliqué Magdane, ont dit : "une" catastrophe, "une" galère, "une" tornade, "une" épidemie, "une" hécatombe, "une" désindexation et "une" SandBox, etc ... :lol:
Modifié en dernier par Cendrillon le Sam Jan 15, 2005 22:20, modifié 1 fois.
Haut
Messages: 402

Enregistré le: 1 Sep 2003

Message le Sam Jan 15, 2005 22:16

slt

et concernant les sites qui ne font pas la course aux bl
alors que presents dans les 1er resultats sur des requetes "concurentielles"



dh
Haut
Messages: 601

Enregistré le: 4 Sep 2004

Message le Sam Jan 15, 2005 22:17

hytérésis, écatombe, ...
erazor est parti se coucher ?
Et un(e?) Cendrillon ?
Haut
Messages: 22759

Enregistré le: 19 Avr 2002

Message le Sam Jan 15, 2005 22:21

pour ceux que ça intéresse, l'article de rituel est publié ici : Théorie sur la sandbox
Haut
Messages: 1174

Enregistré le: 15 Mar 2003

Message le Sam Jan 15, 2005 23:15

@Cendrillon: Pour le premier point c'est fort possible en effet :)

Pour le deuxième point je suis d'accord mais les webmasters semblent plus souvent faire part de ce phénomène pour des sites récents, mais pourquoi pas ? Ca peut également être dû à l'inverse de l'effet sandbox, à savoir passer de la zone normale (verte) à la zone grise tu ne penses pas ?
Haut
Messages: 5159

Enregistré le: 14 Fév 2004

Message le Dim Jan 16, 2005 0:00

ocsima a écrit:erazor est parti se coucher ?

non .. je lis ici et a cheval :wink: sur le forum foot . J'essaie d'assimiler la théorie Rituel mais y a des trucs que je vais évoquer et qui ne collent pas ( selon mon expérience )
Haut
Messages: 1155

Enregistré le: 22 Nov 2002

Message le Dim Jan 16, 2005 0:04

dh a écrit:slt

et concernant les sites qui ne font pas la course aux bl
alors que presents dans les 1er resultats sur des requetes "concurentielles"


bien que je trouve beaucoup de choses interessantes dans l'étude de Rituelle, je pense aussi que l'on fait beaucoup trop de tapage sur les Bls
j'ai un site en pr 5 sans aucun lien exterieur(un seul a existé au départ afin que les moteurs le trouvent), juste des liens internes

maintenant j'ai 3 cas différents qui tenteraient à prouver que les vieux sites (les vieux bébés comme pourrait dire Rituelle) sont plus cajolés que les autres

1- site de 1999 avec moins de 200 pages, pr6, completement abandonné entre 2001 et 2004
courant 2004, ajout de plusieurs milliers de pages avalées en moins d'un mois et çà cartonne sur des requetes tres concurrentielles
le site est repassé en pr5 depuis la derniere gg d'une facon inexpliquée mais çà n'a strictement rien changé au niveau du positionnement et du trafic

2 - site de 2003 avec moins de 200 pages (bébé qui perce sa premiere dent) ,pr5, ajout de 1000 pages fin decembre 2004, meme technique d'optimisation que le site sus-nommé
les 1000 pages ont été avalées par google le 2 janvier, c'est un secteur tres concurrentiel
le site sort tres bien sur des requetes qui donnent moins de 50 000 resultats et sort au-dela de la 300 place pour le reste
je precise (de nouveau) que la technique est la meme que le premier site et sur les memes requetes, donc l'age du site est un critere essentiel, les bls n'ont rien à voir et la multiplication soudaine du nombre de pages non plus

3- site créé le 1er janvier 2005,pr0, un seul bl exterieur, 180 pages
le 3 janvier google avait deja visité toutes les pages et repasse tous les jours
hier, 14 janvier, ajout de 180 pages, aujourd'hui le 15 google les a deja prises
secteur concurentiel aussi et toujours meme technique ( sans aucune chose interdite, je precise), meme constat que le deuxieme site, les requetes avec moins de 50000 resultats sortent, les autres non

un constat flagrant, la méthode de référencement étant strictement la meme , aucun site n'a plus de bls que les autres, le secteur est le meme, seul le critere age les distingue

moralité: vive les vieux bébés et laissons grandir les autres
Haut