Ma théorie sur la sandbox

WRInaute discret
Remarques fortes intéressantes... Cependant, lorsque l'effet sandbox n'existait pas, il était possible de placer un site sur des requêtes concurrentielles si le site était pertinent. Le nb de backlinks est à mon avis proportionnel à la pertinence du site, donc ce fameux site peut venir tâter les sites de référence assez vite...

Donc, si on part de ce principe, un site doit avoir une courbe naturelle de croissance, puisque la pertinence d'un site se construit au fur et à mesure de sa vie.

Je trouve donc que l'effet sandbox a un pb de cohérence, car effectivement, quand le site est jeune mais pertinent, il serait logique de le retrouver en 3eme, 4 eme page alors que là, on le retrouve dans les fin fonds des pages de résultats...
 
WRInaute impliqué
Personnellement je suis bien d'accord avec toi mais je crois que tu décris "l'esprit" de la sandbox, faire ses preuves et travailler travailler...
 
WRInaute discret
yrogerg a dit:
Remarques fortes intéressantes... Cependant, lorsque l'effet sandbox n'existait pas, il était possible de placer un site sur des requêtes concurrentielles si le site était pertinent. Le nb de backlinks est à mon avis proportionnel à la pertinence du site, donc ce fameux site peut venir tâter les sites de référence assez vite...

Je me permets de noter qu'il y a une grosse difference entre dire "la sandbox" et "l'effet sandbox".

Si "l'effet sandbox" est indeniable, "la sandbox" n'est qu'une theorie.

Pour reprendre l'analogie medicale, "l'effet sandbox" est le symptome, "la sandbox" est l'hypothetique cause de ces symptomes.
 
WRInaute discret
Effectivement, parlons de l'effet sandbox. Par contre, pour revenir au sujet de rituel, j'aime beaucoup l'image de la courbe de croissance. Je la trouve très pertinente.
 
WRInaute passionné
Pertient car logique ... le problème est qu'internet est un média qui évolue très vite, et les webmasters veulent toujours allé plus vite, plus fort ... sans prendre en compte le facteur temps, facteur que google aurait du prendre en compte depuis bien longtemps et de façon plus importante qu'il y a qqmois ... C'est la qu'on verra la différence entre petit webmaster et société, qui combleront les débuts par de la pub :)
Enfin très bonne remarque rituel en tout cas ... il est vrai qu'on met tout dans la sandbox mtnt qd on perd des places, mais comme on parle de l'effet sandbox, on peut se le permettre je pense :)
 
WRInaute passionné
J'en suis à me demander si c'est pas mille fois plus simple que ça : certains paramètres des BL (par exemple l'anchor text) ne sont pas pris immédiatement en compte, tout bêtement parce qu'un site nouveau n'est pas positionné dans son réseau, ou groupe de sites.

Après, soit c'est une volonté délibrée, soit c'est la structure de l'algo (et des nouveaux algos qui se greffent dessus) qui veut ça.
 
Olivier Duffez (admin)
Membre du personnel
je ne suis pas d'accord avec tout ce que tu dis rituel... Par exemple tu dis
Seulement, un site qui part avec une quantité faramineuse de BLs quelques jours après la naissance, et qui n'évolue plus jamais, autrement dit qui acquiert son stade de maturité en terme de popularité dès sa naissance est supsect.
Il faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.
Autre exemple : une multinationale possédant déjà 10 sites (un par pays) en crée un onzième pour l'ouverture d'une nouvelle filiale. Ce 11ème site gagne rapidement des milliers de BL, et je ne considère pas ça comme suspect.

Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).

Que ce soit utile pour la pertinence des résultats de Google est une autre question...
 
WRInaute passionné
WebRankInfo a dit:
Il faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.

Alors la théorie de la class C est bidon ? Personnelement j'ai plusieurs sites et je les link presque tous entre eux, ce qui me parait relativement normal, si je peux m'apporter des visiteurs à moi meme, j'vais pas me géner ... Et les différents sites, j'vais pas chercher à changer d'hébergeur ou de serveur, si techniquement celui-ci tiens la route...
 
WRInaute impliqué
Il faut savoir différencier plusieurs cas, car si je lance un nouveau site, et que naturellement je mets un lien vers ce site sur chaque page de WRI, alors ce site va obtenir du jour au lendemain des centaines ou milliers de BL. Est-ce suspect ? Dans ce cas, non, pas du tout.

C'est complètement suspect et j'allais d'ailleurs y venir, mais tu ne m'as pas laissé le temps :

Il faut distinguer deux types de BLs :

- Le capital BL fabriqué
- Le capital BLs naturel

Le premier s'accumule par les partenariats, j'entends par là les échanges de liens, ainsi que la soumission aux annuaires.

Le deuxième lui s'accumule sur différentes pages, que ce soit par coup de coeur d'un webmaster, ou par effet de nouveauté sur des sites de même thématique ou sur des sites spécialisés dans les nouveautés sur internet (Micro Hebdo ...)

Tu fais donc référence au deuxième cas dans ta proposition, maintenant je te retourne la question, pourquoi ferais tu un tel lien vers un site ?

Tu dis que tu le fais de manière naturelle, dans ce cas si toi Olivier Duffez, webmaster d'un site PR 7 ayant des milliers de visiteurs par jour, fait un lien sur des centaines de milliers de pages de ton site vers ce fameux site coup de coeur, crois moi que d'autres suivront. Si tu le fais d'autres le feront car il doit vraiment en valoir la peine et sa courbe de croissance sera comme je le disais exceptionnel, le site ne sera pas sandboxé.

La seule chose Olivier c'est que tu ne le feras pas pour un site anodin (Nous en sommes d'ailleurs la preuve vivante en message privés il y a de cela quelques jours), sauf si il y a une proposition financière ou un arrangement, on rentre là dans le cadre du capital BL fabriqué, ne le nies pas tu serais de mauvaise foie (Cf bas du forum).

Par instinct quand on lance un site on veux "mettre le paquet", on s'arrange donc avec énormement de webmasters pour qu'un lien pointe vers notre site. Là généralement se produisent deux choses :

Soit on se dit qu'on a suffisamment travaillé les partenariats et dans ce cas on attends que Google fasse son travail, soit on ne parvient pas à poursuivre le rythme des partenariats durant les mois à venir.

Dans ces deux cas, c'est là qu'interviendra la sandbox, pour moi, au plus tu tendras vers une droite d'équation y=constante, au plus tu courres un risque de te faire sandboxer, ce qui est naturel et logique.

Autre exemple : une multinationale possédant déjà 10 sites (un par pays) en crée un onzième pour l'ouverture d'une nouvelle filiale. Ce 11ème site gagne rapidement des milliers de BL, et je ne considère pas ça comme suspect.

Cela dépendra du succès du dernier site, dans tous les cas elle utilise une méthode non naturelle pour le lancement du site ce qui la met en danger si ce dernier ne connaît pas un succès tel que la croissance suivra le rythme de lancement du site. Je tiens également à te rassurer, leurs arguments financier sont tels qu'avec la publicité de masse et des partenariats à la chaîne ils parviendront largement à maintenir la barre assez haute.

Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).

Tout à fait, ce doit également être des arguments de sandboxage, mais au contraire, ceux là ne nous échappent pas car ils sont bien plus logiques et faciles à detourner que la courbe de croissance. Ils sont donc pour moi un complèment au sandboxing mais sont trop évidents et simple à contourner pour être les seuls en piste.
 
WRInaute impliqué
rituel a dit:
Tu fais donc référence au deuxième cas dans ta proposition, maintenant je te retourne la question, pourquoi ferais tu un tel lien vers un site ?

Tu dis que tu le fais de manière naturelle, dans ce cas si toi Olivier Duffez, webmaster d'un site PR 7 ayant des milliers de visiteurs par jour, fait un lien sur des centaines de milliers de pages de ton site vers ce fameux site coup de coeur, crois moi que d'autres suivront. Si tu le fais d'autres le feront car il doit vraiment en valoir la peine et sa courbe de croissance sera comme je le disais exceptionnel, le site ne sera pas sandboxé.
+1
Le raisonnement est intéressant je trouve.

Il est certain que si un site aussi populaire et visité que WRI linke en masse vers un autre site, et que celui ci présente un réel intérêt, d'autres webmasters visitant WRI et voyant le lien feront à leur tour des liens (d'autant plus que les visiteurs de WRI sont en grande partie des webmasters, je pense). Selon la thèse de rituel, la courbe de croissance sera considéré comme "normale" par Google, et aucune sanction ne sera opérée.

Cependant, si le site ne présente pas de réel intérêt et qu'au fond Olivier (il s'agit d'une simple mise en situation hein, ne le prend pas pour toi ;)) l'a linké seulement parce qu'il s'agit d'un site à lui ou d'un site d'une connaissance, alors beaucoup moins de visiteurs iront à leur tour placer le lien sur leur site, et Google trouvera ça suspect, car il y aura une cassure entre la croissance explosive des BLs au lancement du site, et la croissance des BLs par la suite.

En admettant que cela fonctionne comme cela, cela pourrait être une façon pour Google de limiter les effets du "piston" dans le cas où, au fond, le site ne semble pas avoir beaucoup d'intérêt (on pourrait par exemple citer les sites sans réel contenu qui n'affichent que de la pub). Tout cela en se basant sur l'évolution du nombre de BLs.
 
WRInaute impliqué
Bebez je suis ravi que sorcier glouton [lien supprimé par cendrillon] tu ai compris où je souhaitais en venir, je suis d'ailleurs en cours d'achèvement de cet "essai", j'attends donc tes propositions si tu penses pouvoir étoffer la chose avec un critère supplémentaire.
 
WRInaute impliqué
Je penses que cette théorie a du vrai, mais cela ne joue pas au niveau des BLs car comme le dit olivier, tu peux avoir plusieurs milliers de BLs en un mois, mais au niveau du positionnement, donc du trafic,
ce 17 décembre 2004, tous mes sites ont chuté ou presque en terme de positionnement (trafic) et non en terme de Bls ou de PR (qui ne cesse d'augmenter)
1 seul de mes sites a vu son trafic en hausse (positionnement), et c'est le plus vieux (né en 2000)
Je pense donc que depuis cette fin d'année 2004, il n'est pas impossible que ce type d'algo soit mis en place.
ce qui voudrait dire 2 choses:
seul les plus vieux sites en ages peuvent posséder de trés nbrx BLs avec du trafic, et pour les + jeunes rien ne serre d'en avoir trop sinon au bout d'un certain temps leur positionnement devient obsolète ...
msn et aol en comparaison a google n'utilise pas ce type d'algo, ils utilise quasi la même chose que google avant le 17 décembre 2004 (pour mes positionnments mots clef)
 
WRInaute impliqué
Je viens de voir que tu as ajouté la dernière partie, et il y a un point où je ne suis pas d'accord. Tu parles d'une infinité de courbes ; pour moi, une seule suffit.
Peu importe avec combien de BLs le site démarre. Selon ta théorie, ce qui importe, c'est l'évolution, qui est donc un coefficient, et qui peut être généralisé. Par exemple, on pourrait, à la suite de tests à grande échelle, montrer qu'en moyenne le nombre de BLs au bout de 6 mois est multiplié par 1,5 à 4 (je dis n'importe quoi évidemment). Alors quel que soit le nombre de BLs au lancement du site, on peut appliquer cette constatation !
 
Olivier Duffez (admin)
Membre du personnel
rituel, figure-toi que c'est principalement sur le terme de "suspect" que je n'étais pas d'accord (donc sur le fond je te suis...). La théorie que tu exposes (en gros, un site ne devrait pas obtenir d'un seul coup un gros paquet de BL sinon c'est louche) est celle qui est le plus souvent donnée pour expliquer l'effet sandbox, mais après tout qui l'a vérifiée ?

ensuite, quelques remarques pour prolonger cette discussion intéressante :
- je ne pense pas que le fait de faire "brutalement" plusieurs milliers de liens vers un même site puisse lui être néfaste. Google a toujours cherché à éviter qu'on puisse "détériorer le référencement" d'un site qui ne nous appartient pas. Ce serait trop facile... tiens, je vais m'amuser à mettre un lien vers http://www.fleurs-livraison.info/ sur toutes les pages de WRI pour voir :) (non, je déconne...)

- qui a prouvé que 10 000 BL issus d'un même site étaient équivalents à 10 000 BL issus de plusieurs sites ? Peut-être que pour Google, 10 000 BL issus d'un même site sont équivalents à 1, 10 ou 100 BL. Pour aller plus loin : pourquoi faire 10 000 liens depuis un même site serait-il néfaste alors que faire 10 liens (issus d'un même site) ne le serait pas ?

- qui a prouvé qu'un site pouvait réellement "échapper" à l'effet sandbox ? Finalement on ne peut pas en être sûr, exactement comme on ne peut pas identifier de manière claire les causes de cet "effet"...
 
WRInaute accro
Cette histoire de beaucoup de bl d'un coup j'ai toujours pas compris en quoi et pourquoi gg pourrait considérer ça comme néfaste.
Imganinons qu'une grosse boite décide de faire un nouveau site, par exemple pour un jeu, si elle communique un peu (presse, pub), le site aura rapidement des dizaines de milliers de BL, pourquoi gg considererait ça comme de la "triche" ?

Sinon ce qui me gêne dans les hypothèses de Rituel, c'est que c'est basé sur rien et qu' il y a en plus des contre exemples pour pratiquement toutes les hypothèses.

Je pense qu'on devrait essayer de profiter de ce topic pour continuer à faire des hypothèses, mais essayer aussi de trouver des tests qu'on pourrait faire pour réellement faire avancer le smilblick de manière plus "scientifique" :)

Moi mon sentiment sur la question (un peu comme disait lafleur) c'est plutot que Google accorde de l'importance a "étudier la qualité des BL" (alors qu'avant il se contentait du pr de la page) et prend du temps pour faire ça, d'ou cette effet de prise en compte des BL décalé dans le temps.
 
WRInaute impliqué
@Bebez : Je pense qu'une seule courbe serait trop imprécise pour le nombre de sites qu'il existe, en fait chaque site a son évolution mais on peut la rapprocher de l'évolution d'un autre site qui lui même peut être rapproché avec un autre, seulement à force de rapprocher on commet des erreurs de jugement, d'où peut être l'existence de plusieurs référentiels.

@Webrankinfo : Je ne l'ai pas vérifié, j'ai émis des hypothèses face à de nombreux phénomènes reportés sur des forums américains, et également ici.

Etant moi même programmeur, j'ai essayé de trouver quelque chose de techniquement faisable et de difficilement contournable donc de valable pour juger de la véracité de l'évolution d'un site, mais bien que j'ai dû commettre des erreurs d'appreciations, je pense que la ligne directrice est vraie.

Pour le lien vers Fleurs livraison, je ne sais pas trop ce que cela donnerait, j'ai encore plein d'interrogations, peut être que Google peut déplacer un site d'un référentiel à un autre si son évolution semble naturelle mais explosive, c'est le marketing viral qui m'a fait réflechir là dessus ... Je t'avoue que je ne préfère pas m'aventurer sur cette question qui est peut être le talon d'Achille de mon explication.

Pour le comptage des BLs d'un même domaine c'est un autre problème, mais il est clair qu'il ne vaut pas la même chose qu'un BL normal et j'en ai la preuve : Le site de voyage d'un ami a pour partenaire un des plus gros sites francophones : Gros en taille, et gros en fréquentation, pour tout vous dire un générateur de forums ;)

Résultat : Avec plus de 10 000 BLs, il était seulement PR 4 et perdu très très loin dans le classement.

Pour ce qui est d'échapper à l'effet sandbox, tout simplement Fleurs Livraison : Dès sa première indexation il s'est retrouvé premier sur le mot "livraison", alors qu'il était 70 ème sur "livraison fleurs", depuis il ne cesse de grimper et il se retrouve aujourd'hui 16 ème sur ce même terme après seulement quelques mois d'existence.

Mais après tout ta thèse ouvre peut être une piste, l'effet sandbox est peut être non pas appliqué à un site seul, mais à un site + une requête concurentielle du même thème que le site ... Mais là ca devient vraiment complexe ...

En conclusion ce que l'on peut dire c'est que l'on a pas affaire à n'importe qui, Google comprend très bien tout ce que l'on fait, il reste principalement basé sur la popularité d'un site pour en déterminer le classement d'où ses algorithmes de chasse aux fraudeurs de BLs ( Que vous pouvez appelle Sandbox si cela vous fait plaisir ;) ) ,et, s'il existe encore des abus au niveau du cloaking et des redirections, cela devrait ,je pense, rapidement changer.
 
WRInaute discret
Perso je crois que moyennement aux courbes, mais c'est une bonne maniere de representer le probleme.

Je pencherais plutot sur des plages de valeurs que Google accepte comme raisonnables pour l'evolution de differents parametres.

D'apres moi faut pas simplement se focaliser sur le nombre de backlinks, mais sur l'ensemble des facteurs qui changent quand un grand nombre de liens est ajoute de maniere artificielle (diversite de la provenance, reputation des sites, densite des mots cles dans les liens, etc.)

Si plusieurs de ces facteurs changent de maniere drastique d'un passage de spider a l'autre, il y a de fortes chances que Google decide que ce ne soit pas dans le meilleur interet des surfeurs de voir ce site en premiere page.

C'est une theorie que j'avais verifiee sur plusieurs parametres differents deja avant Florida. J'avais appele ca "la theorie des deltas".

Depuis il y a pas mal de parametres qui se sont ajoutes, mais d'apres moi elle reste valide.
 
WRInaute impliqué
trix a dit:
Perso je crois que moyennement aux courbes, mais c'est une bonne maniere de representer le probleme.

Je pencherais plutot sur des plages de valeurs que Google accepte comme raisonnables pour l'evolution de differents parametres.

Tu ne peux pas faire des plages uniques avec lesquelles tu jugeras 8 milliards de sites, c'est impossible, d'où les courbes. La différence entre une plage et les courbes representées, finalement c'est qu'une plage est une droite verticale x=constante sur mon schéma, alors que les courbes sont une infinité de droites x=constante

D'apres moi faut pas simplement se focaliser sur le nombre de backlinks, mais sur l'ensemble des facteurs qui changent quand un grand nombre de liens est ajoute de maniere artificielle (diversite de la provenance, reputation des sites, densite des mots cles dans les liens, etc.)

Tout à fait, olivier l'a d'ailleurs notifié :

Je pense que c'est sur le schéma des liens (nb de sites différents, origine des sites, adresses IP, format des liens, etc.) qu'il peut y avoir des analyses faites par Google (et qui nous échappent).

Et le lui ai d'ailleurs répondu :

Tout à fait, ce doit également être des arguments de sandboxage, mais au contraire, ceux là ne nous échappent pas car ils sont bien plus logiques et faciles à detourner que la courbe de croissance. Ils sont donc pour moi un complèment au sandboxing mais sont trop évidents et simple à contourner pour être les seuls en piste.

Il y'a peut être aussi la Toolbar dont on doit se méfier ... Elle peut servir à établir des statistiques en terme de fréquentation et joue peut être sur le classement (Ce qui serait dommage).

Pour le reste pourquoi pas, tout est envisageable vu le mastondonte à qui on a affaire :)
 
WRInaute discret
Le truc que me plait pas dans les courbes c'est que ca signifierais qu'un site qui resterait dormant pendant 3 mois devrait mettre un gros coup pour retourner dans la norme. C'est pas particulierement coherent avec ce que j'ai vu sur certains de mes domaines.

Le truc dont il faut aussi se souvenir quand on se frotte a Google c'est qu'ils ont une base absolument enorme de sites qu'ils ont vu evoluer dans le temps. La taille de la base est pas du tout un probleme pour eux, c'est au contraire un avantage. Une fois qu'il ont determine les parametres d'une formule qui permet de decider si les changements sont coherents avec le reste de leur base, ils ont pas a faire de calculs compliques sur toute la base. Ils font tourner certains filtres uniquement sur les premieres N pages de resultats pour les expressions les plus interessantes.

D'apres moi c'est d'ailleurs ce qui peut expliquer le phenomene de sandbox:
Un site fait un bond supernaturel sur un des parametres -> il est dans les sites potentiellement interessants sur des "expressions surveillees", Google regarde son evolution et determine que l'evolution n'est probablement pas naturelle -> le site est supprime des sites a considerer dans la partie de la base la plus active (sites qui apparaissent dans les N premieres pages des expressions interessantes).
Quand le webmaster s'est calme et que les parametres de son site recommencent a evoluer de maniere acceptable, il est de nouveau considere avec les pages standard.
 
WRInaute impliqué
Trix, j'ai finalisé mon article et curieusement ca semble concorder un peu avec tes interrogations :

Code:
Après avoir lu cet article, une question vous viendra peut être à l'esprit : Si un site est mis en sandbox, comment peut il en ressortir si son nombre de Bls est largement supérieur au maximal autorisé par la courbe ? Devra-t-il attendre plusieurs mois, voire plusieures années avant de réapparaître dans les résultats ? 

Bien qu'on m'ai reporté des cas extrêmement longs de mise à l'écart de sites par Google, je doute qu'il faille attendre que la courbe atteigne le seuil de BLs du site avant que celui-ci puisse réintégrer le classement, en effet cela signifierai qu'une centaine de Backlinks le replongerait dans la sandbox ... Mais rappellez vous, tout à l'heure nous avons évoqué le fait qu'il devait forcément exister plusieures courbes selon le nombre de backlinks à la naissance. Pour pallier à notre problème il suffirait donc qu'après une mise en bac à sable Google transfère le site dans un référentiel supérieur qui correspond davantage au cycle de vie que ce dernier a prit.
 
WRInaute accro
rituel, je ne sais pas si ta théorie est exacte, mais après tout elle en vaut bien d'autres ... mais pourquoi ne pas la généraliser et imaginant :
1- Google ne s'intéresse pas qu'aux paramètres eux même mais à leur vitesse de variation (dérivée). Dès lors la valeur de départ n'aurait plus d'importance (avec des gardes fou bien sûr), du moment que la vitesse de variation reste constante (dans une gaine de tolérence) ...

2- pourquoi ne le ferait il qu'au début de la vie d'un site, et plus ensuite ... cela pourrait expliquer que certains sites anciens attérrissent dans la SandBox ...

rituel a dit:
Bien qu'on m'ai reporté des cas extrêmement longs de mise à l'écart de sites par Google, je doute qu'il faille attendre que la courbe atteigne le seuil de BLs du site avant que celui-ci puisse réintégrer le classement, en effet cela signifierai qu'une centaine de Backlinks le replongerait dans la sandbox ...
Si c'était le cas, j'ose espérer que les concepteurs d'un tel algorithme auront prévu un effet d'hystérésis ... :wink:
 
Olivier Duffez (admin)
Membre du personnel
au fait, pourquoi dites-vous "la" sandbox ? parce que box est du féminin ? vous préférez dire "le" ou "la" sandbox ?
 
WRInaute accro
certainement parce que, comme l'a très bien expliqué Magdane, ont dit : "une" catastrophe, "une" galère, "une" tornade, "une" épidemie, "une" hécatombe, "une" désindexation et "une" SandBox, etc ... :lol:
 
WRInaute occasionnel
slt

et concernant les sites qui ne font pas la course aux bl
alors que presents dans les 1er resultats sur des requetes "concurentielles"



dh
 
WRInaute impliqué
@Cendrillon: Pour le premier point c'est fort possible en effet :)

Pour le deuxième point je suis d'accord mais les webmasters semblent plus souvent faire part de ce phénomène pour des sites récents, mais pourquoi pas ? Ca peut également être dû à l'inverse de l'effet sandbox, à savoir passer de la zone normale (verte) à la zone grise tu ne penses pas ?
 
WRInaute accro
ocsima a dit:
Erazor est parti se coucher ?
non .. je lis ici et a cheval :wink: sur le forum foot . J'essaie d'assimiler la théorie Rituel mais y a des trucs que je vais évoquer et qui ne collent pas ( selon mon expérience )
 
WRInaute impliqué
dh a dit:
slt

et concernant les sites qui ne font pas la course aux bl
alors que presents dans les 1er resultats sur des requetes "concurentielles"

bien que je trouve beaucoup de choses interessantes dans l'étude de Rituelle, je pense aussi que l'on fait beaucoup trop de tapage sur les Bls
j'ai un site en pr 5 sans aucun lien exterieur(un seul a existé au départ afin que les moteurs le trouvent), juste des liens internes

maintenant j'ai 3 cas différents qui tenteraient à prouver que les vieux sites (les vieux bébés comme pourrait dire Rituelle) sont plus cajolés que les autres

1- site de 1999 avec moins de 200 pages, pr6, completement abandonné entre 2001 et 2004
courant 2004, ajout de plusieurs milliers de pages avalées en moins d'un mois et çà cartonne sur des requetes tres concurrentielles
le site est repassé en pr5 depuis la derniere gg d'une facon inexpliquée mais çà n'a strictement rien changé au niveau du positionnement et du trafic

2 - site de 2003 avec moins de 200 pages (bébé qui perce sa premiere dent) ,pr5, ajout de 1000 pages fin decembre 2004, meme technique d'optimisation que le site sus-nommé
les 1000 pages ont été avalées par google le 2 janvier, c'est un secteur tres concurrentiel
le site sort tres bien sur des requetes qui donnent moins de 50 000 resultats et sort au-dela de la 300 place pour le reste
je precise (de nouveau) que la technique est la meme que le premier site et sur les memes requetes, donc l'age du site est un critere essentiel, les bls n'ont rien à voir et la multiplication soudaine du nombre de pages non plus

3- site créé le 1er janvier 2005,pr0, un seul bl exterieur, 180 pages
le 3 janvier google avait deja visité toutes les pages et repasse tous les jours
hier, 14 janvier, ajout de 180 pages, aujourd'hui le 15 google les a deja prises
secteur concurentiel aussi et toujours meme technique ( sans aucune chose interdite, je precise), meme constat que le deuxieme site, les requetes avec moins de 50000 resultats sortent, les autres non

un constat flagrant, la méthode de référencement étant strictement la meme , aucun site n'a plus de bls que les autres, le secteur est le meme, seul le critere age les distingue

moralité: vive les vieux bébés et laissons grandir les autres
 
WRInaute discret
La Belle Cendrillon 8) a ecrit

Google ne s'intéresse pas qu'aux paramètres eux même mais à leur vitesse de variation (dérivée). Dès lors la valeur de départ n'aurait plus d'importance (avec des gardes fou bien sûr), du moment que la vitesse de variation reste constante (dans une gaine de tolérence) ...


Heu... j'ai pas bien compris ? :roll:
 
WRInaute passionné
La théorie de rituel me parait plutot plausible.
Par contre, comme le dis crindor, je crois que l'age du site a une importance plus importante qu'on ne le dit.
J'remarque la meme chose que ses observations.

Un site de 4/5 ans, que j'avais completement délaissé pdt 1 à 2 ans (completement, il était meme en 301 vers un autre site) j'ai découvert alors le PR ... et remarqué que le PR du site était (et est toujours) de 6 malgré aucun BL ou presque ... (au départ, depuis il a des BL d'un seul site externe). Et ce site, après réouverture a été "avalé" (c'est vraiment le terme ...) par google en l'espace d'une semaine, et se place vraiment super bien.

Un autre de 3 ans mtnt, se positionne également super bien, malgré aucune recherche de BL, pas d'ajout de partenaires depuis des mois ... (par contre une activité importante, ce qui peut p-e expliqué des choses ...)

Et c'est pour le 3ème site, ou je suis d'accord avec la théorie de rituel, qui a 1an et qq semaines (cf WWW) qui a reçu un coup de massu, mais qui correspondais également à la première fois ou le nombre de BL déscendé (de peu ....) depuis sa création, alors qu'il avait l'habitude de monter régulièrement chaque mois de plusieurs centaines de BL ...

Pour résumer, comme toute théorie, il doit probablement avoir des choses à prendre qui doivent etre pret du but, d'autres qui aurait pu être vrai, mais qui sont loin de l'etre.

Sinon bravo rituel de t'avoir lancé (depuis le tps qu'on attendais) :)
 
WRInaute accro
Bon ..mon grain de sel :
- admettez en amont que je suis capable de placer des pages dans les 100 premiers résultats pour des requetes a 3 mots clés . D'accord ? continuez la lecture. Pas d'accord ? stoppez ici :lol:
Et bien la sand box n'existe pas .
Why ? Sur deux sites un nouveau et un ancien j'ai placé une trentaines de pages (identiques en construction mais pas similaires ) sur des requetes a 3 mots clés et les résultats dans le moteur sont strictement identiques. Ca donne ça :
fauxsandbox.gif

La requete la plus concurentielle renvoie moins de 300 000 résultats (donc pas trop difficile pour se placer ). Et bien GG filtre : plus c'est adwordé plus mes pages sont loin dans le classement. Et, ce n'est pas un hasard, les 7 que vous voyez en bas N/C et avec un classement > 100 sont bien entendu les plus "chères" en adwords . Et pourtant pas les + difficiles : l'une d'entre elles est a moins de 100 000 résultats dans le moteur.
C'est un communiqué d'Erazor's Lab Inc
 
WRInaute passionné
J'espère en tout cas qu'il ne s'agit pas de adwords, si ton hypothèse se vérifie, je pense que ce qui faisait la gloire de google est finis ...
 
WRInaute impliqué
Tout à fait Erazor, et j'en suis bien conscient : Quand je parlais de Sandbox, depuis le début je sous entendais une requête concurentielle non pas quantitative (nombre de résultats), mais bien qualtitative. Le sandboxing n'est pas un blacklistage qui éradique un site de toutes les requêtes quelles qu'elles soient : Tu pourras toujours trouver ton site sur des requêtes comme "Brosse à camembert" si tu as fait une page voire un site dédié à ca.

C'est d'ailleurs la raison pour laquelle mon site Fleurs livraison a été propulsé 1er sur le mot "livraison" car c'est une requête non concurentielle mais qui apporte néamnoins 13 300 000 résultats. En revanche pour "livraison fleurs" j'ai été delesté assez loin dans le classement alors qu'elle donne moins de résultats. J'ai alors fais la chasse aux partenaires et toutes les semaines j'en trouvais de nouveaux et, sans exagérer, j'ai continué les partenariats, j'ai alors été propulsé ~70ème, puis rapidement après ~50ème, puis il y a peu de temps 37ème, et maintenant ~15ème.
 
Olivier Duffez (admin)
Membre du personnel
on va voir si le joli lien que je t'ai offert en page d'accueil va te permettre d'arriver en 1ère page...
 
WRInaute impliqué
Il ne faut pas exagérer ;) Mais ce qui est sûr c'est que ca fait pas de mal :lol: Encore merci du coup de pouce :wink:
 
WRInaute passionné
Faut que je ponde une théorie lol

Sinon WRI puisque tu es la :) tu aurai une petite idée du changement d'algo fait le 17 dec dernier ? :(
 
Olivier Duffez (admin)
Membre du personnel
au fait rituel, tu cherches à être positionné sur fleurs livraison ou livraison fleurs ? sur fleurs livraison WRI arrive en 1ère page...
C'est dommage que livraison-fleurs.info soit pris et non exploité :-(
 
WRInaute accro
tonguide a dit:
J'espère en tout cas qu'il ne s'agit pas de adwords, si ton hypothèse se vérifie, je pense que ce qui faisait la gloire de google est finis ...
Pas du tout car avec le temps on améliore le positionnement . Et pour lancer un site la meilleure formation reste le judo :
(extrait de www.ffjda.com )

En observant les branches chargées de neige et voyant les plus grosses casser sous le poids de l’agresseur naturel et les plus souples s’en débarrasser en pliant, un moine japonais fit le constat suivant : le souple peut vaincre le fort. S’inspirant de cette observation et des techniques de combat des samouraïs, Jigoro Kano posa en 1882 les principes fondateurs d’une nouvelle discipline : le Judo, littéralement « voie de la souplesse ».
Pour les non pratiquants et en clair : ne luttez pas contre le monstre en cherchant un choc frontal contournez le

_mot_judo.jpg
 
WRInaute passionné
Je serai d'accord avec toi si ça concerné toutes les requetes sans exception, et non juste celle qui concerne adword ... (meme si c'est toujours une hypothèse)
 
WRInaute impliqué
Au contraire tonguide ca paraît logique que cela s'applique à certains termes, sinon ca s'appellerait un blacklistage ;)

Le but de Google n'est pas de crouler les nouveaux sites en les blacklistant, mais bien que les sites en têtes de requêtes concurentielles ne soient pas detrônés du jour au lendemain par un site suroptimisé tant au niveau contenu qu'au niveau BLs ;)
 
WRInaute passionné
Donc concurrentiel commercialement parlant, et non par rapport aux nombres de résultat ?
Etant donné ton exemple avec livraison et livraison fleurs (ou livraison avait 13 millions de résultats, si j'me rappel bien, et livraison fleur en avait moins) C'est donc ça pour toi ?
 
WRInaute impliqué
Pour moi, une requête concurentielle, ça n'a jamais été lié au nombre de résultats, c'est seulement une requête très tapée !
 
WRInaute occasionnel
en tout cas, j'ai été très marqué par l'image de la "courbe de croissance", et je vais en tenir compte pour le prochain site que je compe lancer... si je peux tirer des conclusions, je me ferais un plaisir de vous les rapporter.

merci rituel pour avoir pris le temps de rédiger ça, et bravo pour la pertinence de tes hypothèses !
 
WRInaute accro
oui enfin, en général ça va de pair ...

Ben nan. Tu peux taper tous les verbes, les adjectifs, les articles et les adverbes du dictionnaire dans google tu auras beaucoup de résultats pour certains et c'est pas pour ça qu'ils sont tapés, pratiquement aucun ne l'est.
Le paramètre "nombre d'awords" pour définir une requete concurrentiel est déja plus pertinent que le nombre de résultats, le prix des adwords l'est encore plus :wink:
 
WRInaute impliqué
Quelque chose me chiffonne ... Le cas du site d'Olivier sur le livre "Google trucs de pros". Ce site est pour moi un parfait exemple de site suroptimisé pour son âge, seulement, l'expression "livre google" ne devait pas être spécialement concurentielle avant l'apparition de ce livre ... Il avait donc toutes les chances de sortir en tête des résultats ... Hors il est toujours en retrait des autres sites sur une simple requête de 24 300 résultats ... De plus ses concurrents principaux ne sont que de simples pages de sites sans optimisation spécifique ...

Il semblerait donc que pour une nouvelle expression, ou une expression concurentielle, les sites âgés soient largement favorisés, même s'ils sont moins pertinents ...

En conclusion il en ressort clairement que l'âge d'un site a son importance dans le classement, et pour ce qui est de départager les résultats pour les sites mûrs, je pense que c'est l'affaire des critères traditionnels : Popularité et pertinence.

La recette magique est donc pour moi : Départ en douceur (BLs) + Croissance à un rythme constant (BLs) + Pertinence + Au stade de maturité un nombre de BLs suffisant pour concurrencer ses partenaires.
 
WRInaute passionné
tu remarquera que ceux qui parle de sandbox y ressorte pas progressivement, mais subitement, tu l'expliques comment ?
 
WRInaute impliqué
Franchement j'ai émis une ligne directrice qui est déjà une hypothèse alors pour ce qui est des détails je n'en sais absolument rien, j'ai peur de te mettre sur une fausse piste ... De plus pour ce qui est de la sortie de la sandbox c'est encore plus flou ... Mais j'ai expliqué dans l'article que dans mon optique Google repasserait le site dans un référentiel supérieur après sa sortie de Sandbox sinon au moindre mouvement de BLs le site replongerait dans cette dernière ... Après quand est ce qu'il sort les sites du bac à sable je n'en sais rien, peut être quand après un certain temps le site rejoint la ligne supérieur de ton ex-cycle de vie ...

Tout ce qu'il faut retenir c'est comme pour le contenu : Pas d'abus et de la patience.
 
WRInaute occasionnel
Pour subir le sandbox c'est sur qu'il n'y a que 2 possibilités au départ.

Soit c'est déclenché manuellement par des analyste humains de sites web ( peu probable)

Soit par un algorytme, La courbe de croissance des BL c'Est très intéressant.. Personne à parlé de ceux qui perdait des BL, soudain votre copain ne vous link plus exemple .. ou vous stoper le partenariat avec quelqu'un..

Aussi quand on est top 10, souvent les annuaires (spamdexing résultats google) nous link dans leur pages -www.site.com/?query=mot-bidon

Donc ca peut faire une sorte de réaction en chaine qui fait que en tombant de la position 10 a 11 sur des milliers de mots et pages a cause de notre copain qui a enlevé nos BL et bien la courbe est alors négative 10x plus.. ( on perd des milliers de BL ) et chaque pages perd des BL.

Peut etre que ce n'est pas une question nécessairement de courbe mais plutôt de perte de BL rapidement...

Moi tout mes sites ont subi une grosse perte de liens ( un site as enlevé ses BL vers moi), et ils sont tous sandboxé depuis sauf 1 qui lui à des BL d'environs 500 sites différents, alors la perte de 1 seule gros ne la pas vraiment perturbé...

Et quand je dis gros ( J'ai perdu 3000 BL d'un site PR7)

Alors les théories c bon, mais si vous avez pas d'exemple concret c trop hypothétique, Si quelqu'un a subit un sandbox peut il confirmé sil a eu perte de BL .... Quelq'un a dit plus haut faut des fait qui se sont passé en avez vous des concrets ?
 
WRInaute impliqué
Certains l'ont souligné, l'existence de la sandbox est une pure hypothèse, que je trouve peu étayée.

Je vais rappeler quelques évidences à ce sujet. La popularité d'une théorie scientifique n'a rien à voir avec sa véracité. A l'époque de Galilée, tout le monde pensait que la terre était plate, alors que... A l'époque d'Einstein, tout le monde montait des théories en partant de l'hypothèse de l'existence de l'ether, alors que...

Ce n'est pas parce que la théorie de la sandbox est populaire qu'elle est vraie. (mais ce n'est pas non plus parce qu'elle est populaire qu'elle est fausse : en fait cela n'a rien à voir).

Par ailleurs, il n'y a pas que l'existence de la sandbox qui est peu étayée. L'effet sandbox me parait aussi relever plus de la pétition de principe que de la vérité statistique... Méfiance, méfiance...

En plus je pense que dans cet histoire, tout le monde oublie trop facilement que nous sommes confrontés à l'observation de l'extérieur d'un algorithme multi-factoriel, qui prend en compte de nombreux critères.

La "googlelogie" à ce stade me rappelle ce qui se passe quand on montre des projections spatiales en 3D d'un hypercube à un observateur. Dès que l'on change l'axe de projection, l'observateur voit un objet différent... Et pourtant c'est toujours le même hypercube, un objet très simple...

Des règles très simples, combinées, produisent souvent des effets complexes, difficiles à analyser.
 
WRInaute impliqué
@domdom26: On l'a souligné, c'est l'effet inverse à la sandbox c'est à dire passer de la zone verte à la zone grise qui est inintéressante pour un bon positionnement si tes adversaires se trouvent eux dans la zone vertte ;)

@cariboo: Tout à fait cariboo, personne n'a jamais affirmé que ce qui était dit était vérifié cependant il y a des concordances suspectes qui sont peut être finalement de simples coïncidences.

J'ai voulu globalement expliquer : "Qui va piano va sano et
qui va sano va lentano", on devrait d'ailleurs le graver en haut du forum :)

En gros éviter d'être suspecté en suroptimisant de manière artificelle la popularité de son site, si néamnoins la personne le souhaite, il faudra le faire de manière progressive pour le faire passer comme naturel aux yeux de Google.

Le problème c'est qu'au plus on partira dans les détails, au plus on trouvera de cas qui contredisent la règle ... C'est un peu comme les BLs, il est indéniable qu'ils aident au positionnement, mais il y a des contre cas dans ce cas on pourrait dire qu'il est faux d'affirmer que les BLs aident au positionnement ce qui est une abérration.

Ce qu'il faut retenir de tout ca n'est pas le détail mais l'idée générale du "temps", c'est à dire l'évolution d'un site qui pour moi et j'en suis persuadé est un nouveau facteur à ne pas prendre à la légère.
 
Olivier Duffez (admin)
Membre du personnel
on est tous bien d'accord cariboo, et les nombreuses pages de discussions sur ce sujet sont là pour essayer d'y voir plus clair !
 
WRInaute passionné
L'article lui meme le précise bien
C'est ainsi que cet article s'achève, j'espère qu'il vous aura plu, notez bien une dernière fois que c'est une simple théorie et qu'il faut prendre de la distance avec cette dernière sans toutefois l'ignorer car elle reste plausible et pourrait, si elle s'avérait exacte, expliquer beaucoup de choses...

Evidemment, on ne sait meme pas si cette sandbox existe (d'ou "l'effet sandbox" ...) en ayant préalablement définis ce que nous pensions être la sandbox. Pour avancer, il faut bien faire des hypothèses sur les observations :) et j'pense qu'on est tous conscient qu'on est peut-etre completement à coté de la plaque et que c'est plus simple ou plus tordu que ça ... (d'ailleur il y a des posts dans ce sens la:))

Maintenant il reste plus qu'à prouver que ces hypothèses sont plus ou moins vrai, mais si j'étais un moteur de recherche (programmeur lol), je pense que ce critère serait vraiment intéressant, en particulier car il ne peut etre détourné par des techniques douteuses, sauf si le porte feuille suit :) (enfin ça, tous les moteurs du monde ne pourront jamais rien y faire :))
 
WRInaute discret
Je sais pas si mon exemple appuie la théorie de Rituel ;). Mais si Sandbox il y a, je viens d'en sortir aujourd'hui :mrgreen: . Je n'arrivais à me positionner sur aucune requête, meilleur positionnement : 7ème page et sur des requêtes assez précises composées de plusieurs mots.

Mon site est sorti le 15 juin, depuis ( je m'en suis beaucoup plaint sur ce forum :lol: :oops: ), aucune modification faite sur mon site n'affectait mon positionnement (rewriting, optimisation des pages, augmentation du nombre de backlinks, apparition dans DMOZ puis dans le google directory....).
Depuis 2 semaines je passe à nouveau du temps à référencer mon site (incription dans divers annuaires, dont hebdotop et hit-parade.com, et des échanges de liens avec 2 partenaires dont les sites ont des thématiques différentes de la mienne). Et aujourd'hui miracle : 1er sur 24 millions de réponses :D.

Bon mon positionnement n'est peut-être que temporaire, c'est peut-être du à mon apparition sur la page d'accueil de site comme hit-parade (pendant une journée la semaine dernière, le lendemain de mon inscription), mais le changement de positionnement et tellement important qu'on peut facilement en tirer les conclusions qui s'imposent (8O :?: :?: :?: 8O :lol:)
 
WRInaute discret
cariboo a dit:
Des règles très simples, combinées, produisent souvent des effets complexes, difficiles à analyser.
La sandbox peut-être un effet voulu, ou le résultat d'une combinaison de facteurs, pour nous je ne pense pas que ça change grand chose ;)
 
WRInaute discret
rituel a dit:
En conclusion il en ressort clairement que l'âge d'un site a son importance dans le classement, et pour ce qui est de départager les résultats pour les sites mûrs, je pense que c'est l'affaire des critères traditionnels : Popularité et pertinence.

Si vous lisez l'anglais, voici un article intéressant:

Google's Aging Delay for New Domains
By Scottie Claiborne

You've Got To Pay Your Dues

Many site owners and SEOs are worried because their new sites that
rank well in Yahoo and MSN aren't doing well in Google, and they're
blaming it on the "sandbox." The current theory is that new sites are
somehow being penalized for obtaining too many links, too quickly.

Is There a Sandbox?

Is there some sort of link analysis going on, some sort of threshold
that will get links to new sites discounted? It sounds like a logical
possibility. However, many of us who don't buy volume links or
participate in linking networks are seeing the same ranking delays.

New resource sites with a few good relevant links are taking just as
long to climb Google's ranks as the instant link pop sites. I think a
lot of people are confusing the sandbox with an "aging filter" that
appeared earlier this year.

6 Months for Results in Google

I haven't seen any brand-new sites with new domains appear at the top
of the search engine results pages (SERPs) since early in 2004. There
seems to be a delay of about 6-8 months. I've checked with many site
owners and SEOs and I haven't found anyone who's gotten a brand-new
domain ranked well in Google. If there's a magic bullet, no one's
spilling the beans.

What happens is that, as new sites get indexed, they appear for some
obscure queries; they may appear at the top for a week or so, but then
they drop to the bottom of the SERPs for several months. The page
shows a PageRank in the Google toolbar, as well as backlinks.
Everything else works fine but it just doesn't rank well for any terms
in Google. Many times not even the company name.

If you have a brand-new site that isn't ranking well, stop driving
yourself nuts wondering what you are doing wrong! Stop tweaking and
changing things, trying to influence your rankings; until the site has
been in the index a while, it doesn't seem to matter what you do to
it.

Why an Aging Delay?

My own theory is that the age factor for new sites is Google's answer
to mini-networks and other multi-site strategies intended to
artificially inflate link popularity. Many people divide what should
be a single site into multiple sites in order to capitalize on the
links that are exchanged between them. Others build a series of small
sites that are only designed to add link popularity to the main site.

By delaying the ranking of brand-new sites, the mini-network strategy
becomes more of a long-term strategy than a quick jump to the top.
Site owners who might have started new sites are going to be more
inclined to add new content on existing sites in order to avoid that
delay.

Plan Ahead for New Sites

If you are launching new sites for clients, make sure you set the
expectation that it is likely to be 7-8 months before the site
achieves any real results in Google.

We used to keep a site under wraps and launch it once it was
"perfect." Now it makes sense to get a few pages up for your new site
as soon as you complete them. The sooner Google is aware of the
domain, the better.

As soon as you have a domain name and have the hosting set up, put up
a temporary page and link to it from another site in Google's index to
start that clock ticking.

Subdomains May Avoid the Aging Delay

Pages on subdomains are generally treated as part of the main domain,
making them a possible workaround. If your client has the option of
building their site on a subdomain of a site already indexed instead
of a new top-level domain name, let them know that this may avoid the
time delay.

Paid Placement

If search engine traffic is critical to your success, get your site
out there and linked to as early as possible and plan to run an
AdWords campaign for a few months until the site can be established in
the editorial results. Yahoo and MSN do not have a delay built in, so
focus your early optimization efforts on these engines.

Don't worry, Google will eventually give your new site the respect it
deserves -- just give it time.
 
WRInaute occasionnel
Je crois rituel que tu as avancé de quoi de très intéressant, et c'est très facile a faire pour un moteur, mais plus simplifié comme cendrillons le disais


Voici ce que ca donne, Ex tsunamie souvent on cherche des lieux on trouve les sites gouvernementaux ou les mairies etc...

MAis dans le cas d'une catastrophe : pleins de gens se mettent a faire des liens vers LE SITE a visité donc il y a explosion de BL.

En vrai il est pertinent de montrer le site de la semaine... plus celui du gouverment ou autre...

Et après 2 mois quand plus personnes en parle et qu'il n'y a plus de BL augmentant ca revient notre bon vieux site du gouvernement ou de la mairie...

Ce qui expliquerait que l'orsque l'on fait bouger les choses notre positionnement augmente très vite et ensuite redessant si on continue pas... Évidemment si on reste avec cette explosion celui qui a le plus de points de classement restera au top.

Car il est très important de ne pas oublier je crois que c'est un ensemble de facteurs qui détermine tous un pointage...

EX d'un calcul de pointage :
Occurence dans le URL = 5 pts par mots
Occurence dans le texte = 1pts par % d'occurence du mot dans tous le texte
Ancienneté : 1996 = 20 pts 97 = 15 pts 98 = 12 pts 99 = 11 pts ....etc
Meta = 1 pts par mots ( les meta sont encore et restera toujours un peu)
Alt= 1/5ieme de pts par mot

BL = 1 pts par domaine et 0.01 pts pour les autres du même domaine

Courbe de Rituel : 5 pts par % d'augmentation de BL entre la date x et la date Y ( selon moi un semaine d'interval) et - 5pts par perte de % des BL


Si cette algo ressemble a google.. Cela voudrais dire que nous revenons apres quelque temps surtout si nous allons cherché des BL ailleurs.

Mais cendrillons et plusieur ont parlé de 6 mois jours pour jours d'un changement radical.
 
WRInaute occasionnel
dièse a dit:
Je sais pas si mon exemple appuie la théorie de Rituel ;). Mais si Sandbox il y a, je viens d'en sortir aujourd'hui :mrgreen: . Je n'arrivais à me positionner sur aucune requête, meilleur positionnement : 7ème page et sur des requêtes assez précises composées de plusieurs mots.

Mon site est sorti le 15 juin, depuis ( je m'en suis beaucoup plaint sur ce forum :lol: :oops: ), aucune modification faite sur mon site n'affectait mon positionnement (rewriting, optimisation des pages, augmentation du nombre de backlinks, apparition dans DMOZ puis dans le google directory....).
Depuis 2 semaines je passe à nouveau du temps à référencer mon site (incription dans divers annuaires, dont hebdotop et hit-parade.com, et des échanges de liens avec 2 partenaires dont les sites ont des thématiques différentes de la mienne). Et aujourd'hui miracle : 1er sur 24 millions de réponses :D.

Bon mon positionnement n'est peut-être que temporaire, c'est peut-être du à mon apparition sur la page d'accueil de site comme hit-parade (pendant une journée la semaine dernière, le lendemain de mon inscription), mais le changement de positionnement et tellement important qu'on peut facilement en tirer les conclusions qui s'imposent (8O :?: :?: :?: 8O :lol:)

:) Oulala tu me rassure et conforte dans mon idée. Je suis exactement dans le même cas que toi et j'attends que la pénalité sur mon site disparaisse (voir mon post dans l'autre topic sur l'effet sandbox).

Pour ceux qui doute de l'existence de la Sandbox (allez je lui mets même une majuscule lol), on ne peut pas nier qu'elle existe. J'en suis un des témoins et pour le vivre pour la deuxième fois je peux vous assurer qu'on la reconnait sans problème. Voici d'ailleurs les symptomes que j'ai pu constater :

- chute violente et brutale de votre site dans les résultats de Google, normalement après un changement sur vos pages visant à optimiser davantage vos pages (augmentation de la densité des mots clés au dessus d'un certain seuil, nombreux bl supplémentaires etc...) : votre site n'apparait plus du tout dans les premières pages de Google sur des expressions concurentielles même si vous étiez très très bien placé auparavant. Attention, il ne s'agit pas de quelques places perdues, cela donne vraiment l'impression de sombrer dans les abimes de google.

- immobilité suspecte de vos pages dans les résultats de google : malgré les modifications positives ou négatives que vous pouvez effectuer sur vos pages, votre site ne bouge pratiquement pas dans les résultats de google. Rien à faire, toutes les modifications que vous faites n'influent quasiment en rien sur votre positionnement.

- de nombreux autres sites moins bien, voire pas du tout optimisés pour les expressions clé en question apparaissent devant vous : du fait de votre déclassement, et donc chute dans les résultats de gg, beaucoup de sites qui au départ n'étaient pas du tout optimisés ni pensés pour se positionner sur l'expression clé qui vous intéresse apparraissent pourtant devant vous.

- Après un certain laps de temps (qui doit surement être variable, entre 4 et 6 mois pour mon expérience) tout redevient normal : du jour au lendemain, tout comme vous vous etes soudainement retrouvé perdu dans les profondeurs de google, votre site réapparait à ses positions initiales ou presque. Le retour à la normale est aussi violent et imprévisible que la mise à l'écart de votre site.

Voilà en gros ce que je peux ressortir de mon expérience. Je ne sais absolument pas s'il s'agit de la sandbox (ni même si elle existe) ou bien d'un filtre différent mais toujours est-il que cette pénalité existe bel et bien et ce même pour les anciens sites. A défaut de sandbox on peut cependant être sur de pouvoir parler de "mise à l'écart" et même de "pénalité brutale".

Reste à comprendre les mécanismes exactes de cet effet sandbox (s'il ne s'agit pas d'un filtre distinct). L'idée d'une courbe de croissance me parait assez censée et c'est déjà ce que je pensais implicitement sans avoir forcément mis de nom dessus. Logiquement, la pertinence et popularité d'un site devrait suivre une certaine courbe dans le temps, en dépassant les limites de cette courbe dite naturelle le site est mis à l'écart car jugé suspect. Oui pourquoi pas et il y a surement de ca.

On peut en revanche aussi faire des objections et contre exemples :

- Dans le cas de la catastrophe en asie par exemple, certains sites traitant du sujet (humanitaires, collecte de dons etc...) ont vu leux bl multipliés par 100 ou plus en quelques jours. La croissance ne semble pourtant pas naturelle et pourtant elle l'est. Pire, leur nombre de bl ne vas pplus augmenter et même diminuer pour les sites qui ont lancé des campagnes publicitaires pour la collecte de dons.

- les techniques pour bien se positionner sur google commencent à être connues et bon nombre de webmasters lancent donc maintenant des nouveaux sites qui sont déjà optimisés pour les expressions clé choisies. Ils sont logiquement pénalisés par l'effet sandbox mais sont-ils pourtant moins pertinents pour autant ?-

- Dans ta courbe un site qui n'évolue plus passe dans une zone dans laquelle google le considère comme "dénué d'intéret". Hors par expérience j'ai pu constater que les sites dont j'ai quasiment cessé de m'occuper pendant 2-3 ans n'ont absolument pas vu leur traffic diminuer. Donc le fait de cesser la recherche de bl, de ne pas mettre à jour ou modifier le contenu de la page, continuer l'optimisation n'a pas influé sur le trafic.

En revanche, dans le sens inverse, en cas d'optimisation trop rapide je suis d'accord avec toi c'est possible, sans en connaitre vraiment les mécanismes précis.
 
WRInaute impliqué
WebRankInfo a dit:
on est tous bien d'accord cariboo, et les nombreuses pages de discussions sur ce sujet sont là pour essayer d'y voir plus clair !

Visiblement, cette histoire de Sandbox est devenue une affaire de foi...

Et les très nombreux articles et messages sur le sujet n'aident pas à y voir plus clair, mais ajoutent à la confusion en ajoutant de nouvelles spéculations sur les anciennes.

Ce mystérieux et hypothétique "effet Sandbox" a pour effet immédiat de transformer les messages sur WRI du type :
"je n'arrive à pas arriver en première position des résultats sur Google, aidez moi"
en
"mon site est sandboxé, comment sortir de la sandbox ?".

Sauf que ... autant on savait répondre au premier type de question (soyez patients, soignez votre code, vos balises H1, Title..., travaillez les backlinks etc...), autant à la deuxième question la réponse devient souvent "ben... on sait pas... t'es dans la sandbox, dommage pour toi !"

Je suis étonné par ailleurs que personne n'ait encore repris l'un des articles sortis récemment sur l'analyse temporelle des liens pour essayer de donner une explication scientifique à l'effet Sandbox... Ah si, je sais : ces articles laissent penser que l'enjeu en terme de pertinence pour les moteurs est de tenir compte de la fraîcheur des liens, pas de leur ancienneté...
[/list]
 
Nouveau WRInaute
pas plus d'effet sand box que santa claus :)

bonjour à vous,

C'est quand meme risible tout ça, il n'y a pas plus d'effet sandbox que santaclaus existe :) enfin c'est peux etre le nom qui lui est donné mais ça fais bien longtemp que j'ai compris et d'ailleurs le directeur de google france s'en est expliqué sur le JDNET il n'y a pas si longtemp et pour reprendre ces mots on a des algorythme qui detecte les pages satelites et autres tricherie de webmaster toute detection entraine le rejet du site du cache de google meme si il y revient plus tard si il est re detecté il sera retiré egalement du cache a nouveau d'ou cet effet.. cela va aussi et c'est tres important de noter ça car bon nombre d'entre vous vont dire "eh bien non j'ai pas de pages sat et mon site est qd meme sorti du cache" soit le site est liés a un site qui en utilise soit comme l'algo de similarité a changer vos pages sont à plus de 50 ou 60 % ou 70 % de similarité et la aussi google sévis la parcontre jsuis moins d'accord car la si vous avez un site avec la meme charte graphique sur toute les pages comme normalement tt le monde et meme si le contenu de la page change elle est prise en page similaire et donc enlever du cache prenons un exemple tres simple sur le site webrankinfo : si on prend similar page checker on se rend compte que
https://www.webrankinfo.com/dossiers/yahoo is 52.576168447918% percentage similar to https://www.webrankinfo.com/dossiers/conseils/relancer-referencement
cela reste encore dans le raisonable 52% à savoir à partir de combien il enleve les pages du cache...
comme ce qui est dit depuis des années sur ce forum veiller a ne pas tricher avec des techniques douteuses et vous verrez il n'y a pas de sandbox :) de plus cet effet est plus au moins arrivé aprés l'effet maxdeliens et autre... et les sites qui les utilisaient on été les premiers a etre zapper du cache ..
à bon entendeur..
salut :)
 
WRInaute passionné
Alors les sites de galerie photo sont systématiquement viré ?
En effet le contenu changerai très peu (juste l'adresse des images du centre) donc en gros la page sera 90% identique aux autres .... Pas génial
 
Nouveau WRInaute
salut à toi

ce n'est pas "systématiquement viré" ce que je veux dire c'est qu'en effet les pages dynamiques sont mal prise en compte d'ou l'url rewriting mais creer aussi donc des pages similaires photo=1 photo=2 etc.. et ces pages sortent du cache.. l'effet santaclaus quoi :) heu sandbox plutot :)
et j'ai remarquer aussi que du coup que trop de pages similaires je vais dire une betise mais pour donner un exemple disons que si plus de 50% du site est similaire la c'est l'index qui saute... donc sanction mais pas santaclaus ou sandbox :)

voila ce que j'ai analysé mais ce n'est que mon avis..
a+
 
WRInaute impliqué
Net-annoo tu n'as pas lu l'article en entier ni les commentaires qui s'en suivent, tu es complètement à côté de la plaque avec les références du directeur de GG France que tu donnes et l'URL rewriting qui n'ont rien à voir avec ce que des milliers de webmasters honnêtes et de tous pays subissent depuis quelques temps ...

Désolé d'être si crû avec toi mais je pense qu'une relecture s'impose ainsi que les exemples donnés, notamment www.livre-google.com
 
WRInaute passionné
bah voila une théorie intéressante, si on a trop de site à gros PR qui pointe vers soit, comparé aux sites sans PR (ou petit plutot), google peut le prendre comme pas naturel, en effet, pourquoi, si votre site est apprécié, seul les gros sites feraient un lien vers vous, en général c'est plutot des petits sites et quelques rares gros sites.

Vous croyez pas ? :)
 
WRInaute accro
eh bé ... avec toutes les conditions et critères divers et variés que vous êtes en train de nous imaginer, je ne voudrais pas avoir à le coder ce filtre ... :lol:
 
WRInaute passionné
Faut ce qui faut pour déclasser la moitié des sites lol (non j'blague, mais faut avoué qu'il y a tellement de conditions mtnt qu'on laisse faire, enfin moi en tout cas :))
 
Nouveau WRInaute
salut à vous

ecoute rituel est ce que j'ai dit que tu étais à coté de la plaque avec ta théorie ? non bon alors situ pense avoir la science infuse tant mieux pour toi j'ai tres bien lu les articles meme ceux sur seo et ce n'est que mon avis... et quand tu parle des backlinks suspect la on peux dire que tu es a cote de la plaque car si j'ouvre un site demain et que je fais pointer tout mes sites dessus tes histoires de backlink.j'ai analysé des centaines de sites et tt les sites ou j'ai eu des probs sont ceux que j'expose de plus sur certains site j'attend des bl depuis plus de 3 mois c'est par pour ça que mon site est touché par santaclaus... alors je te repete je ne critique pas leurs analyse ni la tienne mais respecte simplement les idées des autres...
tu as ton point de vue ne veux pas dire que les autres sont a coté de la plaque...

merci pour ton point de vue
 
WRInaute impliqué
Ce que rituel voulait dire je crois c'est que tu étais un peu en dehors du sujet ! Sinon, essaye de mettre juste un peu de ponctuation dans tes messages car là ça ne facilite pas la lecture ni compréhension. :wink:
 
Nouveau WRInaute
salut a toi

bein pas trop d'apres moi, surtout que cela s'applique à son site que je viens de regarder, si tu regarde les pages prises en compte sur ce site l'effet santa claus a commencer.. du a quoi ? au fait que ces pages si tu regarde sont pratiquement identique du coup google les retires du cache
/livraison/bouquet_450.html
/livraison/bouquet_120.html
etc.. sa va etre idem pour les autres bientot.. et si trop de page comme ça hop plus dans le cache.. et pour l'histoire d'etre bloqué sur certaine requete je pense que c'est plus des retard de prise en compte des bl et de mises à jour entre les serveurs etc..
mais je le repete ce n'est que mon point de vue..
a+
 
WRInaute impliqué
Je crois que tu confond deux choses : Désindexation de pages et sandbox ...

Quand on parle de sandbox, on parle de perte subite de positionnement d'un domaine sur une requête, c'est à dire la page d'accueil d'un site non pas des pages annexes, l'URL rewriting n'intervient donc pas dans ce processus.

Quand on parle de désindexation, on parle des pages non rewritées et similaires qui disparaissent, ou qui se voient attribuer ni titre ni description.

Ce qui n'est pas du tout la même chose ;)
 
Nouveau WRInaute
oui j'ai bien bien compris rituel mais rewrité ou non la n'est pas le prob
ce que j'essaye de t'expliquer c'est que pour reprendre l'exemple avec tes deux pages quelles soit rewrité ou pas ne change rien au fait quelles soit identique et si tu en as trop gg les desindexe apres ça si tu en as trop je pense meme mais ça c'est encore mon point de vue, il est tres facile a gg de comprendre que la requete premiere de ton site cest livraison fleurs et moi ce que je pense et pour reprendre ça :
"Désindexation de pages et sandbox"
pour moi c'est liée parceque si tu as trop de pages desindexer tu seras surement penalisé sur ta requete premiere qui est livraison fleurs... et la on rejoins bien l'effet sandbox.. ton site de coté sur certaines requetes..
sandbox est pour moi une sanction de gg car l'algo de similarité est severe + pour certain site l'utilisation de pages sat .. donc site pénalisés sur leur requete..
mais ce n'est que mon point de vue..
 
Nouveau WRInaute
ça bien sur en + de l'effet reel qui consiste à balancer le site au fin fond apres avoir eu son effet de fraicheur...
ça le maintien au fond du bac et ressortir de temps en temps..
a+
 
WRInaute accro
sur certain points, je suis un peu d'accord avec net-annoo (même si je n'apprécie pas sa manière agressive de le dire :wink:) ...
par exemple je suis un peu d'accord avec lui lorsqu'il dit que la SandBox n'existe pas ... en effet, je ne crois pas que les concepteurs de Google aient prévu cette fonction en tant que telle ... les algorithmes de Google constituent un système complexe comportant des dizaines (centaines ?) de paramètres et de nombreux filtres interéagissant entre eux ... nous sommes dans une approche systémique ...

et un peu comme dans le système météo, où une combinaison de phénomènes en asie peut provoquer des tornades dans le pacifique ... ici aussi (à moindre échelle bien sûr), la combinaison de certains réglages de paramètres associés à certains filtres, peuvent provoquer un phénomène (recherché ou non) que l'on peut appeler l' "effet SandBox" ... sans forcément pouvoir prouver mathématiquement qu'il existe, on peut néamoins l'observer, constater les conditions dans lesquelles il se manifeste et les effets qu'il produit sur un site ... je crois que c'est ce qu'a essayé de faire Rituel, et son analyse (qui ne pourra être prouvée fautes de connaitre les algorithmes de Google) en vaut bien une autre ...

Alors vous pouvez continuer à crier que l'effet SandBox n'existe pas ... vous n'en savez de toutes façons pas plus que ceux qui pensent qu'il existe ... ou alors expliquez nous comment un phénomène qui se reproduit sur des milliers de sites, dans des conditions similaires n'est que le fruit du hazard ... :wink:
 
Nouveau WRInaute
bonjour à vous

j'etais simplement un peu agressif sur le fait de dire que jetais a cote de la plaque ce qui est un peu un manque de respect.. ça c'est pour la premiere chose..
sur ce que j'explique et ça cest mon point de vue perso tout ces sites qui sont soit disant dans un sandbox, ils y sont ,mais à mon avis et ce n'est pas la seule cause du a l'algo de similarité gg fait simplement sauté les pages qui pour lui sont similaires ( du à mon avis au fait que les pages sat etait vraiment similaires avec juste les mots clés etc qui changeais..) et du coup si tu regarde les pages prises en compte sur ces sites tu te rend qu une bonne partie de ces pages sont soit plus dans le cache pas de description etc soit en page supplementaires qui veut dire introuvable.. du coup sanction de gg car trop de page similaire et du coup te stocke dans un bac a sable ..
l'algo crois qu on triche en fait non ...
ce n'est que mon point de vue
voila :)
 
WRInaute passionné
Cendrillon a dit:
par exemple je suis un peu d'accord avec lui lorsqu'il dit que la SandBox n'existe pas ... en effet, je ne crois pas que les concepteurs de Google aient prévu cette fonction en tant que telle ... les algorithmes de Google constituent un système complexe comportant des dizaines (centaines ?) de paramètres et de nombreux filtres interéagissant entre eux ... nous sommes dans une approche systémique ...

J'ai tendance à être assez d'accord avec ça. Par exemple, je ne crois pas que cet effet soit volontaire. Si l'objectif de Google est de fournir à l'internaute des résultats "pertinents", comme on dit, l'effet Sandbox a pour effet de proposer les résultats pertinents... d'il y a six mois. Je ne crois pas que ce soit le but de Google.

L'effet sandbox revient à donner une vue un peu dépassée du web (six mois, c'est toute une époque !), à laisser au fond du classement les sites récents et, pour certains, plus pros, plus mûrs, plus ergonomiques, mieux fichus que ceux conçus avant car bénéficiant de savoir-faire nouvellement acquis (c'est tout neuf, Internet, les sites progressent à vitesse grand V et on peut penser que beaucoup de nouveaux sites ne répètent pas les erreurs de ceux qui ont essuyé les plâtres).

Cela peut mettre en cause la crédibilité du robot par exemple si la concurrence parvient à laisser passer moins de spammeurs tout en présentant malgré cela les sites récents dans les premières pages.

Pour faire donc un peu de divination (ça me gène pas, je suis un pronostiqueur lamentable, en général), je prédis donc que l'effet sandbox ne va pas continuer d'exister en tant que tel très longtemps. 8)
 
WRInaute impliqué
Bonjour à tous,
Cendrillon a dit:
Alors vous pouvez continuer à crier que l'effet SandBox n'existe pas ... vous n'en savez de toutes façons pas plus que ceux qui pensent qu'il existe ... ou alors expliquez nous comment un phénomène qui se reproduit sur des milliers de sites, dans des conditions similaires n'est que le fruit du hazard ... :wink:
Je suis d'accord avec Cendrillon sur l'ensemble, je dirais qu'il n'y a aucun hazard. C'est le terme souvent employé lorsque l'explication du phénomène n'est pas trouvée.
On n'a pas trouvé d'explication ne signifie pas qu'elle n'existe pas.
Elle est très complexe, et comme le dit Cendrillon, elle correspond à une agrégation de critères.
Quelque soit la prudence prise, la décision, ici la "punition" ou sa levée, doit intervenir à un moment donné.
"Je n'ai rien changé et …." : L'examinateur espérait des progrès et ceux-ci ne viennent pas. ….
Un point important cité par Rituel est la différence entre les requêtes concurrentielles et les autres. Les concurrentielles sont celles (quelque soit le nombre de résultats) pour lesquelles des liens commerciaux apparaissent en haut des pages (pas uniquement à droite). Il est intéressant de regarder avec outiref (BL, densités) le premier résultat sur la requête de Rituel.
Au boulot ! :wink:
Edité : J'avais mal tourné ma phrase :oops:
 
WRInaute impliqué
Pour moi la Sandbox c'est une évolution de Google, pour parler de manière barbare : Google v2, jusqu'à présent nous avions à faire à Google v1, je m'explique :

Avant Google, le seul paramètre à prendre en compte pour se positionner sur un outil de recherche était le contenu, sont alors naturellement apparues des pages sur-optimisées tant au niveau méta qu'au niveau contenu même mettant alors à plat la pertinence des outils de recherches de l'époque ...

Google est alors apparu, et son succès est dû à l'incroyable pertinence de ses résultats, pourquoi ? Car il ajoute à la pertinence du contenu d'une page un critère de popularité, mais ca personne ne le sait encore ...

Les rumeurs vont alors bon train sur l'outil, mais personne n'est vraiment sûr de ce qui se trame réélement derrière ce moteur de recherche ... C'est alors que Google commet l'erreur de diffuser une barre permettant de consulter la popularité d'un site sur une échelle de 0 à 10 et beaucoup constatèrent qu'en règle générale au plus cette valeur est élevée au plus le classement d'un site sur une requête populaire est bon.

Google avait à l'époque pensé (à juste titre) que le Pagerank se construisait de manière naturelle, avec le temps ...

Mais il était trop tard, ils ont diffusé l'outil et tout le monde a compris, une chasse aux Backlinks a alors eu lieu, soudainement des partenariats toutes pages virent massivement le jour, certains sites multiplièrent leurs Backlinks par plus de 1000 et se retrouvèrent de ce fait propulsés dans le classement ... Classement, qui, par voie de conséquence, perdait de sa pertinence à une vitesse alarmante.

Depuis (Avant le 1er Janvier 2005) ... Google se tait, cela fait des mois que le PageRank n'est pas mis à jour, certains crient à la mort de ce critère avec amertume car c'est leur seul repère concret avec le classement du moteur, d'autres pensent qu'il toujours mis à jour mais qu'il n'est plus affiché ...

Entre temps de nombreux webmasters se plaignent de chutes subites et brutales dans le classement sans n'avoir effectuées aucune modification sur leur site, mais Google reste silencieux, on pense à une régression du moteur alors même que ses concurrents semblent gagner du terrain ...

Sans aucun doutes, l'algorithme du moteur avait changé. A-t-il sévit sur la prise en compte des Backlinks ? A-t-il ajouté un nouveau critère pour détecter les sites propulsant leur popularité de manière artificelle ?

A cette dernière question je répond oui et cette mise à jour porte le nom de SandBox.
 
WRInaute accro
WebRankInfo a dit:
on va voir si le joli lien que je t'ai offert en page d'accueil va te permettre d'arriver en 1ère page...
Ca a l'air de doper ..a l'inverse j'attends le passage de cet article avec une page qui va avoir un PR 0 puis 4 ou 5 sur le principe. Evolution a suivre

rituel a dit:
Sans aucun doutes, l'algorithme du moteur avait changé. A-t-il sévit sur la prise en compte des Backlinks ? A-t-il ajouté un nouveau critère pour détecter les sites propulsant leur popularité de manière artificelle ? A cette dernière question je répond oui et cette mise à jour porte le nom de SandBox.
nan car tout dépends de la requete voir mon tableau https://www.webrankinfo.com/forum/highl ... htm#195350
Donc la sanbox pour moi n'existe pas mais il y a un filtre pour des requetes concurentielles ( en $ pas en nombre de résultats ).
 
WRInaute impliqué
Erazor a dit:
Donc la sanbox pour moi n'existe pas mais il y a un filtre pour des requetes concurentielles ( en $ pas en nombre de résultats ).
Existe, existe pas ?
Un filtre ? Pourquoi ? La concurrence est plus rude.
En tout cas bonne définition concise d'une requête concurrentielle
Et de la différence entre le niveau pro et le niveau amateur (comme moi)
 
WRInaute impliqué
@Erazor : Tu dis qu'il y a un filtre, mais la sandbox est un filtre et tu prétend qu'elle n'existe pas ... Je ne comprend pas trop ... A moins que tu sois dans le même cas que moi, à savoir que tu refuses que les gens crient à la sandbox dès qu'ils n'arrivent pas à positionner un site.

@Ocsima :
Un filtre ? Pourquoi ? La concurrence est plus rude.

Mais il était trop tard, ils ont diffusé l'outil et tout le monde a compris, une chasse aux Backlinks a alors eu lieu, soudainement des partenariats toutes pages virent massivement le jour, certains sites multiplièrent leurs Backlinks par plus de 1000 et se retrouvèrent de ce fait propulsés dans le classement ... Classement, qui, par voie de conséquence, perdait de sa pertinence à une vitesse alarmante.
 
WRInaute impliqué
rituel a dit:
Mais il était trop tard, ils ont diffusé l'outil et tout le monde a compris, une chasse aux Backlinks a alors eu lieu, soudainement des partenariats toutes pages virent massivement le jour, certains sites multiplièrent leurs Backlinks par plus de 1000 et se retrouvèrent de ce fait propulsés dans le classement ... Classement, qui, par voie de conséquence, perdait de sa pertinence à une vitesse alarmante.
....
Sans aucun doutes, l'algorithme du moteur avait changé. A-t-il sévit sur la prise en compte des Backlinks ? A-t-il ajouté un nouveau critère pour détecter les sites propulsant leur popularité de manière artificelle ?
Oui la concurrence est plus rude.
rituel a dit:
A moins que tu sois dans le même cas que moi, à savoir que tu refuses que les gens crient à la sandbox dès qu'ils n'arrivent pas à positionner un site
Oui elle a bon dos.
 
WRInaute accro
rituel a dit:
@Erazor : Tu dis qu'il y a un filtre, mais la sandbox est un filtre et tu prétend qu'elle n'existe pas ...
Ben si tu veux on peut nommer ce filtre sandbox :lol: mais pourquoi le nommer lui et pas les autres alors ?
Ce qui me parait douteux c'est d'en faire une généralité alors qu'a mon avis c'est un simple filtre comme tant d'autres. Parce que bientot les conversations entre webmasters ça va donner ça

- salu twoa ca va ?
- ouais moi ça va et toa ?
- pas trop j'suis sanboxé
- oua c'est vache !

Bref du sandbox a toutes les sauces :wink: pour toutes les situations que l'on arrive pas a expliquer la on est d'accord
 
WRInaute impliqué
En fait, la sandbox est un outil juridique pour référenceurs. Ci-dessous un exemple de contrat de référencement:

Article 12:
Dans le cas ou le site Internet, objet de ce présent contrat signé entre les parties ci-dessus désignées, tomberait dans le bac à sable, tout recours juridique envers notre société serait impossible, et déclaré sans suite.

ok, je sort :arrow:
 
WRInaute accro
Il n'entre bien sur aucun morceau d'ane dans cette recette . C'est un hommage aux parties si parfumées, agréable au toucher et au gout de nos testicules . Au contraire des votres
 
Nouveau WRInaute
2 plombes pour lire tout ca

Très intéressantes ces différentes interventions... Particulièrement, la mise au point de Rituel sur la perte de valeur du PR et donc par contre coup des BLs (vers la p 6)...

C'est effectivement un des points importants du moment concernant les changements qui s'opèrent sur Google. N'oublions pas les effets néfastes du GGBombing ou des référencements trops faciles à coups de BLs...

Que reste-t-il donc à GG pour donner une valeur supplémentaire à la pertinence de son index ? Effectivement = l'age du site en est un.

Je m'étonne seulement que personne n'ai soulevé une évidence. Inutile de trop compliquer... Qu'est ce qui donne une pertinence à un site ? Hormis son age ou son contenu ? La réponse fait naitre d'autre fantasmes...

ola
 
Nouveau WRInaute
rituel a dit:
Sans aucun doutes, l'algorithme du moteur avait changé. A-t-il sévit sur la prise en compte des Backlinks ? A-t-il ajouté un nouveau critère pour détecter les sites propulsant leur popularité de manière artificelle ?
.
salut :)

c'est ce que j'essayai de t'expliquer mais en chinois j'avoue :)
et ce fameux criteres qui detecte les sites a bcp à voir avec la similarité..
du coup pleins de sites sont sanctionné pour en fait des sites qui sont (mal optimisés)...
a+
 
WRInaute accro
WebRankInfo a dit:
on va voir si le joli lien que je t'ai offert en page d'accueil va te permettre d'arriver en 1ère page...
raté .. et pour cause le BL PR 7 est passé en archive depuis 2 jours et en PR ..0 !
C'est une belle démo de l'effet "livre d'or" . Rien ne sert de les spammer car peu de temps apres la page dégringole dans le site et son effet meurt
Sinon Rituel a été un ou deux jours a la 11eme place pour livraison fleurs.
Il a duré ce que dure une rose : un matin :lol:
 
WRInaute impliqué
Erazor a dit:
Sinon Rituel a été un ou deux jours a la 11eme place pour livraison fleurs.
Il a duré ce que dure une rose : un matin :lol:

Non, il fait du Yo-Yo depuis 3 semaines entre la 11ème et la 2x ème position et également entre la 2x et la 3x ème position.

https://www.webrankinfo.com/forum/t/lancement-du-forum-techniques-de-referencement.21506/

WebRankInfo a dit:
En fait j'attire votre attention sur le fait que les participants à ce forum particulier devront montrer leurs aptitudes à participer à ces débats (techniques) : pas de troll, pas d'agressivité, respect des points de vues de chacun, messages apportant réellement quelque chose à la discussion.
 
WRInaute accro
explique toi clairement tu sous entends que mon message est trollique, agressif ou qu'il n'apporrte rien ? ou les trois ?
 
Nouveau WRInaute
Re: 2 plombes pour lire tout ca

Erazor a dit:
ola a dit:
Je m'étonne seulement que personne n'ai soulevé une évidence.
lis un peu le forum ça fait mille ans qu'on en parle de l'age du capitaine

Je n'ai sandout pas été assez précis sur ma vision de l'effet sandbox... A en croire la courtoisie de la remarque d'Erazor :D

Sont donc en cause :
- l'âge du site
- sa popularité via les BL / PR
- un modèle de progression balisé

J'insistais sur le fait que l'effet sandbox s'explique très certainement en partie par la baisse du(des) critère(s) de popularité - avec au passage la mise en place de systèmes de détection des BLs frauduleux plus resserrés - au bénéfice de l'âge du site et certainement d'autres critères.

Et parmi ces autres critères, il en est un qui n'a pas été abordé vraiment à ma connaissance dans la discussion, et qui l'est rarement sur ce forum : l'audience du site comme critère de pertinence.

Je le sais bien, le bot va avoir du mal en passant à connaitre l'audience du site. Mais il existe d'autres recours pour GG (et d'autres moteurs) pour se faire une idée de l'audience d'un site. C'est je pense LE critère de pertinence rêvé pour un moteur.

Donc, en admettant que GG ait les moyens de connaitre l'audience d'un site grosso modo, il paraît logique que les sites qui démarrent - et qui ne bénéficient plus autant du critère de popularité à coup de BLs prestigieux - se retrouvent dans le fond, car disposant d'une audience 0, d'une ancienneté 0 et de BLs sur lesquels s'appliquent un filtre plus serré.

Il est à noter que l'effet sandbox est certainement mis à toutes les sauces en grande partie par la perte du critère de popularité. C'est en effet sur ce critère que de nombreux "petits" sites faisaient reposer leur positionnement, qu'ils soient récents ou anciens.

J'espère avoir été plus précis. (Erazor > si qqn a déjà fait cette analyse qqpart dans le forum, prière de m'en excuser :wink: )

ola
 
WRInaute passionné
cariboo a dit:
... ces articles laissent penser que l'enjeu en terme de pertinence pour les moteurs est de tenir compte de la fraîcheur des liens, pas de leur ancienneté...

Je trouve cette idée interessante (c'est p'têtre parce que que je l'ai eu aussi :wink: )

La valeur de liens pérennes dans le temps et/ou de liens frais...
Qu'en pensez-vous ?
 
Discussions similaires
Haut