Test t3 : étude de l'effet sandbox

WRInaute passionné
Cendrillon a dit:
certains ont dit qu'il pouvait y avoir des sandbox sélectives ... alors imagine que tu ais un accroissement soudain de backlink, avec pour ces BL un "text anchor" qui reviendrait très souvent (genre une campagne d'inscription massive et automatique dans les annuaires) ... alors il est possible d'avoir une sandbox sélective sur ce "text anchor" ...

fandecine a dit:
Faut y réflechir! Quand tu fait un millier de liens par exemple c'est difficile de varier les encres (pour ma part je prends un mot clé + le titre du film en clair). Maintenant cela voudrait-il dire que pour éviter le bac à sable il ne faut plus mettre ses mots clés dans les encres et en revenir au bon vieux "cliquez ici" !

Encore une fois, que faites vous des cas, où il n'y a pas de campagne de BL ?

Le cas se constate sur le test que j'ai signalé et hervéG l'a également déja rencontré.

On est dans un cas, ou l'on ne peut pas s'interreser à un accroissement irrégulier puisque il n'y a pas d'accroissement , ou extrêmement faible.

Ces pages serait-elles freinées parce que trop jeune, n'ayant pas encore fait leur preuve ? j'entends par là que l'indice de confiance n'est pas encore attribué à ces pages donc on met en bac à sable.
je ne sais pas, mais si c'est le cas, il faut la jouer très fine :
Pas ou vraiment très peu de BL -> dans le bac en attente (période de gestation)
Trop de BL d'un coup -> dans le bac en attente (période de mise à l'épreuve)
Pas évident de calculer pour passer entre les deux.
 
WRInaute impliqué
correiaj :
tout site me parait parfait pour le test 2, objectif te sortir de la sandbox par le haut, si ca marche cela doit etre possible sous moins de 2 mois (durée de prise en compte des liens par google).
quand meme une question, es tu sur d'avoir 130 liens provenants d'annuaires ?


oli004 :
j'en ai justement parlé à hervé y a pas longtemps, je pense que google analyse de très près les BL, pour justifier une position x il faut avoir entre y et z liens, comment google définit il cette marge ? peut etre en se fiant des sites de références, trustrank pourquoi pas ?
en tout cas ca expliquerait que meme si tu fais une page avec 1 seul lien pour ne pas tomber dans la sandbox, tu y tombes car ta position n'est pas justifée par ton nb de liens (nb et valeur bien sur).


fandecine :
ta théorie comme quoi des milliers de BL sont un critère important est vérifiable, en tout cas je pense le contraire, je préfére avoir 1 bon lien sur 5 sites que 3000 liens sur 2 sites.
on pourrait effectivement faire un test assez facilement pour cela :
on fait 2 pages différentes mais sans aucune clé, on met 1 page sur site A et l'autre sur site B.
puis on fait 1000 liens sur un site qui pointe sur le site A avec anchor "trucmuch" (donc site A recoit 1000 liens)
et 1 lien sur 5 sites différents pointant sur le site B avec anchor "trucmuch" (donc site B recoit 5 liens)
je parirais fort que le site B ressorte avant le site A sur la requete "trucmuch".
 
WRInaute impliqué
correiaj :
tout site me parait parfait pour le test 2, objectif te sortir de la sandbox par le haut, si ca marche cela doit etre possible sous moins de 2 mois (durée de prise en compte des liens par google).
quand meme une question, es tu sur d'avoir 130 liens provenants d'annuaires ?
Ben a peu près, c´est très dur de savoir. Je te dis ce nombre car c´est a peu près le nombre auquel j´ai soumis mon site. Mais sur google rien apparait, sur yahoo oui et msn aussi... Mais c´est pas très fiable. Alors tu peux prendre comme fourchette 100-150.
 
WRInaute impliqué
Bon, voilà ce que je viens de constater:
( et cela me paraît logique, d´autant plus que mathématiquement, c´est très probable)
Le filtre "sandbox" de google (peu importe son nom), semble en fait sanctionner la création de backlink provenant de sites eux mêmes suspects dans le sens où ils créént de nouveaux liens en quantité. En gros, il me semble que s´inscrire dans un annuaire payant, ou demandant un lien retour est moins pénalisant, seulement parce qu´ils reçoivent moins de soumissions, et donc créent moins de liens (je pense au nombre de liens par page et non par site).
Ce constat me semble tout à fait logique, car l´effet sandox, qui n´est en fait l´application d´un filtre x à une condition positive (true) survient ad hoc (quasi instantanément) car ces fameux annuaires, produisants des quantités de liens importants, sont par conséquent visités et "crawlés" très très souvent voire en continu.
En clair, je pense que le filtre anti spam (sandbox) de google est quasi incontournable, car il n´existe que deux solutions:
-soumettre son site dans le plus d´annuaires possibles, afin d´obtenir le pr (ou popularité) le plus important en un minimum de temps = sandbox (+/- 6 mois)
-obtenir au fur et à mesure des liens pertinents: pas d´effet sandbox, mais le temps nécessaire à attenidre ce même pr sera à peu de chose près le même, voire plus long (point positif: on suit sereinement la progression du site).
En définitive (si ce raisonnement s´avère exacte), ce filtre permet d´obtenir deux conséquences importantes pour la pertinence des résultas:
-non seulement cela permet d´éliminer les sites jeunes de base, et cela est excellent car cela élimine en grande partie les sites spams (x ou arnaque) et oblige les autres sites à faire leurs preuves, comme dans le commerce réel (seuls les meilleurs survivent, une sorte de loi de Darwin quoi).
-Mais aussi, cela permet aux grandes compagnies, ayant un budget de marketing assez élevé, d´obtenir de nombreux liens payants ou acquis ipso facto de par leur notoriété, de se placer en très bonne position dès le début. Disons qu´elles auront besoin d´un mois pour arriver à un résultat équivalent à la sortie de la sandbox.
Cela explique aussi la durée aléatoire de l´application du filtre, car tout dépend de la dernière soumission à ce type d´annuaire (et de sa prise en copmte par les ggbots). D´autre part, cela va parfaitement dans le sens de la vision du commerce outre atlantique: faites place aux grands, mais tout le monde peut gagner (All of witch are american dream)...
 
WRInaute impliqué
1ere retombée de tests :

- objectif de la recherche
Voir si l'anchor des liens est facteur de sandbox sur les clés de l'anchor.

- mise en place des tests
plusieurs pages sur plusieurs sites (plus ou moins récents) ont été faites de manière plus ou moins optimisées et sur plusieurs sujets.
de 1 à 5 liens ont été crée en interne ou en externe selon les cas, les anchors de ces liens ne contiennent en aucun cas les clés des requetes.

- résultat
certaines pages tombent en sandbox alors qu'aucune clé n'est contenu dans l'anchor du ou des liens.

- explication avec un cas concret
une page optimisée pour "vie tranquille" est créée,
meme si on fait peu de liens (1à5 pour ne pas brusquer) avec comme anchor "aucun rapport"
la page est sandboxée.

- conclusion
les clés des anchors ne sont pas déclencheurs de sandbox sur des requetes spécifiques.

... la suite pour plus tard :wink:
 
WRInaute accro
[HS]

"aucun rapport" (> "pas de nana") > "vie tranquille"

Sisi... Les termes sont liés...

[/HS]

ok, ok... je :arrow: :arrow: :arrow:
 
WRInaute impliqué
sandbox déterminée par des astuces avec ***** et autres systemes analogues.
c'est sur qu'il faut au départ être d'accord avec ce genre de requetes, mais personellement j'y crois à 100% et pas pour rien d'ailleurs.
 
Nouveau WRInaute
Il serait intéressant dans savoir plus sur les sites origines (quel type, nombre de backlink, rapport thématique, age...).

Merci Caro
 
Discussions similaires
Haut