Messages: 341

Enregistré le: 22 Oct 2004

Message le Mar Jan 18, 2005 6:15

dièse a écrit:Je sais pas si mon exemple appuie la théorie de Rituel ;). Mais si Sandbox il y a, je viens d'en sortir aujourd'hui :mrgreen: . Je n'arrivais à me positionner sur aucune requête, meilleur positionnement : 7ème page et sur des requêtes assez précises composées de plusieurs mots.

Mon site est sorti le 15 juin, depuis ( je m'en suis beaucoup plaint sur ce forum :lol: :oops: ), aucune modification faite sur mon site n'affectait mon positionnement (rewriting, optimisation des pages, augmentation du nombre de backlinks, apparition dans DMOZ puis dans le google directory....).
Depuis 2 semaines je passe à nouveau du temps à référencer mon site (incription dans divers annuaires, dont hebdotop et hit-parade.com, et des échanges de liens avec 2 partenaires dont les sites ont des thématiques différentes de la mienne). Et aujourd'hui miracle : 1er sur 24 millions de réponses :D.

Bon mon positionnement n'est peut-être que temporaire, c'est peut-être du à mon apparition sur la page d'accueil de site comme hit-parade (pendant une journée la semaine dernière, le lendemain de mon inscription), mais le changement de positionnement et tellement important qu'on peut facilement en tirer les conclusions qui s'imposent (8O :?: :?: :?: 8O :lol:)


:) Oulala tu me rassure et conforte dans mon idée. Je suis exactement dans le même cas que toi et j'attends que la pénalité sur mon site disparaisse (voir mon post dans l'autre topic sur l'effet sandbox).

Pour ceux qui doute de l'existence de la Sandbox (allez je lui mets même une majuscule lol), on ne peut pas nier qu'elle existe. J'en suis un des témoins et pour le vivre pour la deuxième fois je peux vous assurer qu'on la reconnait sans problème. Voici d'ailleurs les symptomes que j'ai pu constater :

- chute violente et brutale de votre site dans les résultats de Google, normalement après un changement sur vos pages visant à optimiser davantage vos pages (augmentation de la densité des mots clés au dessus d'un certain seuil, nombreux bl supplémentaires etc...) : votre site n'apparait plus du tout dans les premières pages de Google sur des expressions concurentielles même si vous étiez très très bien placé auparavant. Attention, il ne s'agit pas de quelques places perdues, cela donne vraiment l'impression de sombrer dans les abimes de google.

- immobilité suspecte de vos pages dans les résultats de google : malgré les modifications positives ou négatives que vous pouvez effectuer sur vos pages, votre site ne bouge pratiquement pas dans les résultats de google. Rien à faire, toutes les modifications que vous faites n'influent quasiment en rien sur votre positionnement.

- de nombreux autres sites moins bien, voire pas du tout optimisés pour les expressions clé en question apparaissent devant vous : du fait de votre déclassement, et donc chute dans les résultats de gg, beaucoup de sites qui au départ n'étaient pas du tout optimisés ni pensés pour se positionner sur l'expression clé qui vous intéresse apparraissent pourtant devant vous.

- Après un certain laps de temps (qui doit surement être variable, entre 4 et 6 mois pour mon expérience) tout redevient normal : du jour au lendemain, tout comme vous vous etes soudainement retrouvé perdu dans les profondeurs de google, votre site réapparait à ses positions initiales ou presque. Le retour à la normale est aussi violent et imprévisible que la mise à l'écart de votre site.

Voilà en gros ce que je peux ressortir de mon expérience. Je ne sais absolument pas s'il s'agit de la sandbox (ni même si elle existe) ou bien d'un filtre différent mais toujours est-il que cette pénalité existe bel et bien et ce même pour les anciens sites. A défaut de sandbox on peut cependant être sur de pouvoir parler de "mise à l'écart" et même de "pénalité brutale".

Reste à comprendre les mécanismes exactes de cet effet sandbox (s'il ne s'agit pas d'un filtre distinct). L'idée d'une courbe de croissance me parait assez censée et c'est déjà ce que je pensais implicitement sans avoir forcément mis de nom dessus. Logiquement, la pertinence et popularité d'un site devrait suivre une certaine courbe dans le temps, en dépassant les limites de cette courbe dite naturelle le site est mis à l'écart car jugé suspect. Oui pourquoi pas et il y a surement de ca.

On peut en revanche aussi faire des objections et contre exemples :

- Dans le cas de la catastrophe en asie par exemple, certains sites traitant du sujet (humanitaires, collecte de dons etc...) ont vu leux bl multipliés par 100 ou plus en quelques jours. La croissance ne semble pourtant pas naturelle et pourtant elle l'est. Pire, leur nombre de bl ne vas pplus augmenter et même diminuer pour les sites qui ont lancé des campagnes publicitaires pour la collecte de dons.

- les techniques pour bien se positionner sur google commencent à être connues et bon nombre de webmasters lancent donc maintenant des nouveaux sites qui sont déjà optimisés pour les expressions clé choisies. Ils sont logiquement pénalisés par l'effet sandbox mais sont-ils pourtant moins pertinents pour autant ?-

- Dans ta courbe un site qui n'évolue plus passe dans une zone dans laquelle google le considère comme "dénué d'intéret". Hors par expérience j'ai pu constater que les sites dont j'ai quasiment cessé de m'occuper pendant 2-3 ans n'ont absolument pas vu leur traffic diminuer. Donc le fait de cesser la recherche de bl, de ne pas mettre à jour ou modifier le contenu de la page, continuer l'optimisation n'a pas influé sur le trafic.

En revanche, dans le sens inverse, en cas d'optimisation trop rapide je suis d'accord avec toi c'est possible, sans en connaitre vraiment les mécanismes précis.
Haut
Messages: 769

Enregistré le: 8 Fév 2003

Message le Mar Jan 18, 2005 9:22

WebRankInfo a écrit:on est tous bien d'accord cariboo, et les nombreuses pages de discussions sur ce sujet sont là pour essayer d'y voir plus clair !


Visiblement, cette histoire de Sandbox est devenue une affaire de foi...

Et les très nombreux articles et messages sur le sujet n'aident pas à y voir plus clair, mais ajoutent à la confusion en ajoutant de nouvelles spéculations sur les anciennes.

Ce mystérieux et hypothétique "effet Sandbox" a pour effet immédiat de transformer les messages sur WRI du type :
"je n'arrive à pas arriver en première position des résultats sur Google, aidez moi"
en
"mon site est sandboxé, comment sortir de la sandbox ?".

Sauf que ... autant on savait répondre au premier type de question (soyez patients, soignez votre code, vos balises H1, Title..., travaillez les backlinks etc...), autant à la deuxième question la réponse devient souvent "ben... on sait pas... t'es dans la sandbox, dommage pour toi !"

Je suis étonné par ailleurs que personne n'ait encore repris l'un des articles sortis récemment sur l'analyse temporelle des liens pour essayer de donner une explication scientifique à l'effet Sandbox... Ah si, je sais : ces articles laissent penser que l'enjeu en terme de pertinence pour les moteurs est de tenir compte de la fraîcheur des liens, pas de leur ancienneté...
[/list]
Haut
Messages: 41

Enregistré le: 21 Jan 2004

Message le Mar Jan 18, 2005 12:52

pas plus d'effet sand box que santa claus :)

bonjour à vous,

C'est quand meme risible tout ça, il n'y a pas plus d'effet sandbox que santaclaus existe :) enfin c'est peux etre le nom qui lui est donné mais ça fais bien longtemp que j'ai compris et d'ailleurs le directeur de google france s'en est expliqué sur le JDNET il n'y a pas si longtemp et pour reprendre ces mots on a des algorythme qui detecte les pages satelites et autres tricherie de webmaster toute detection entraine le rejet du site du cache de google meme si il y revient plus tard si il est re detecté il sera retiré egalement du cache a nouveau d'ou cet effet.. cela va aussi et c'est tres important de noter ça car bon nombre d'entre vous vont dire "eh bien non j'ai pas de pages sat et mon site est qd meme sorti du cache" soit le site est liés a un site qui en utilise soit comme l'algo de similarité a changer vos pages sont à plus de 50 ou 60 % ou 70 % de similarité et la aussi google sévis la parcontre jsuis moins d'accord car la si vous avez un site avec la meme charte graphique sur toute les pages comme normalement tt le monde et meme si le contenu de la page change elle est prise en page similaire et donc enlever du cache prenons un exemple tres simple sur le site webrankinfo : si on prend similar page checker on se rend compte que
http://www.webrankinfo.com/yahoo/index.php is 52.576168447918% percentage similar to http://www.webrankinfo.com/referencement/index.php
cela reste encore dans le raisonable 52% à savoir à partir de combien il enleve les pages du cache...
comme ce qui est dit depuis des années sur ce forum veiller a ne pas tricher avec des techniques douteuses et vous verrez il n'y a pas de sandbox :) de plus cet effet est plus au moins arrivé aprés l'effet maxdeliens et autre... et les sites qui les utilisaient on été les premiers a etre zapper du cache ..
à bon entendeur..
salut :)
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Mar Jan 18, 2005 15:50

Alors les sites de galerie photo sont systématiquement viré ?
En effet le contenu changerai très peu (juste l'adresse des images du centre) donc en gros la page sera 90% identique aux autres .... Pas génial
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Mar Jan 18, 2005 16:01

Tiens rituel, tu été à la seconde page pour "livraison fleurs" il me semble, tu es passé à la 3eme ...
Haut
Messages: 41

Enregistré le: 21 Jan 2004

Message le Mar Jan 18, 2005 16:40

salut à toi

ce n'est pas "systématiquement viré" ce que je veux dire c'est qu'en effet les pages dynamiques sont mal prise en compte d'ou l'url rewriting mais creer aussi donc des pages similaires photo=1 photo=2 etc.. et ces pages sortent du cache.. l'effet santaclaus quoi :) heu sandbox plutot :)
et j'ai remarquer aussi que du coup que trop de pages similaires je vais dire une betise mais pour donner un exemple disons que si plus de 50% du site est similaire la c'est l'index qui saute... donc sanction mais pas santaclaus ou sandbox :)

voila ce que j'ai analysé mais ce n'est que mon avis..
a+
Haut
Messages: 1175

Enregistré le: 16 Mar 2003

Message le Mar Jan 18, 2005 20:35

Net-annoo tu n'as pas lu l'article en entier ni les commentaires qui s'en suivent, tu es complètement à côté de la plaque avec les références du directeur de GG France que tu donnes et l'URL rewriting qui n'ont rien à voir avec ce que des milliers de webmasters honnêtes et de tous pays subissent depuis quelques temps ...

Désolé d'être si crû avec toi mais je pense qu'une relecture s'impose ainsi que les exemples donnés, notamment www.livre-google.com
Haut
Messages: 5165

Enregistré le: 14 Fév 2004

Message le Mar Jan 18, 2005 22:07

tonguide a écrit:Tiens rituel, tu été à la seconde page pour "livraison fleurs" il me semble, tu es passé à la 3eme ...

normal : un bl pr 7 ça pardonne pas .. faut dépeiriser .. 8)
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Mar Jan 18, 2005 22:19

bah voila une théorie intéressante, si on a trop de site à gros PR qui pointe vers soit, comparé aux sites sans PR (ou petit plutot), google peut le prendre comme pas naturel, en effet, pourquoi, si votre site est apprécié, seul les gros sites feraient un lien vers vous, en général c'est plutot des petits sites et quelques rares gros sites.

Vous croyez pas ? :)
Haut
Messages: 4940

Enregistré le: 17 Aoû 2004

Message le Mar Jan 18, 2005 22:22

eh bé ... avec toutes les conditions et critères divers et variés que vous êtes en train de nous imaginer, je ne voudrais pas avoir à le coder ce filtre ... :lol:
Haut
Messages: 1429

Enregistré le: 28 Nov 2003

Message le Mar Jan 18, 2005 22:25

Faut ce qui faut pour déclasser la moitié des sites lol (non j'blague, mais faut avoué qu'il y a tellement de conditions mtnt qu'on laisse faire, enfin moi en tout cas :))
Haut
Messages: 41

Enregistré le: 21 Jan 2004

Message le Mar Jan 18, 2005 23:49

salut à vous

ecoute rituel est ce que j'ai dit que tu étais à coté de la plaque avec ta théorie ? non bon alors situ pense avoir la science infuse tant mieux pour toi j'ai tres bien lu les articles meme ceux sur seo et ce n'est que mon avis... et quand tu parle des backlinks suspect la on peux dire que tu es a cote de la plaque car si j'ouvre un site demain et que je fais pointer tout mes sites dessus tes histoires de backlink.j'ai analysé des centaines de sites et tt les sites ou j'ai eu des probs sont ceux que j'expose de plus sur certains site j'attend des bl depuis plus de 3 mois c'est par pour ça que mon site est touché par santaclaus... alors je te repete je ne critique pas leurs analyse ni la tienne mais respecte simplement les idées des autres...
tu as ton point de vue ne veux pas dire que les autres sont a coté de la plaque...

merci pour ton point de vue
Haut
Messages: 716

Enregistré le: 20 Mai 2004

Message le Mer Jan 19, 2005 0:08

Ce que rituel voulait dire je crois c'est que tu étais un peu en dehors du sujet ! Sinon, essaye de mettre juste un peu de ponctuation dans tes messages car là ça ne facilite pas la lecture ni compréhension. :wink:
Haut
Messages: 41

Enregistré le: 21 Jan 2004

Message le Mer Jan 19, 2005 0:20

salut a toi

bein pas trop d'apres moi, surtout que cela s'applique à son site que je viens de regarder, si tu regarde les pages prises en compte sur ce site l'effet santa claus a commencer.. du a quoi ? au fait que ces pages si tu regarde sont pratiquement identique du coup google les retires du cache
/livraison/bouquet_450.html
/livraison/bouquet_120.html
etc.. sa va etre idem pour les autres bientot.. et si trop de page comme ça hop plus dans le cache.. et pour l'histoire d'etre bloqué sur certaine requete je pense que c'est plus des retard de prise en compte des bl et de mises à jour entre les serveurs etc..
mais je le repete ce n'est que mon point de vue..
a+
Haut
Messages: 1175

Enregistré le: 16 Mar 2003

Message le Mer Jan 19, 2005 1:05

Je crois que tu confond deux choses : Désindexation de pages et sandbox ...

Quand on parle de sandbox, on parle de perte subite de positionnement d'un domaine sur une requête, c'est à dire la page d'accueil d'un site non pas des pages annexes, l'URL rewriting n'intervient donc pas dans ce processus.

Quand on parle de désindexation, on parle des pages non rewritées et similaires qui disparaissent, ou qui se voient attribuer ni titre ni description.

Ce qui n'est pas du tout la même chose ;)
Haut
Messages: 41

Enregistré le: 21 Jan 2004

Message le Mer Jan 19, 2005 1:37

oui j'ai bien bien compris rituel mais rewrité ou non la n'est pas le prob
ce que j'essaye de t'expliquer c'est que pour reprendre l'exemple avec tes deux pages quelles soit rewrité ou pas ne change rien au fait quelles soit identique et si tu en as trop gg les desindexe apres ça si tu en as trop je pense meme mais ça c'est encore mon point de vue, il est tres facile a gg de comprendre que la requete premiere de ton site cest livraison fleurs et moi ce que je pense et pour reprendre ça :
"Désindexation de pages et sandbox"
pour moi c'est liée parceque si tu as trop de pages desindexer tu seras surement penalisé sur ta requete premiere qui est livraison fleurs... et la on rejoins bien l'effet sandbox.. ton site de coté sur certaines requetes..
sandbox est pour moi une sanction de gg car l'algo de similarité est severe + pour certain site l'utilisation de pages sat .. donc site pénalisés sur leur requete..
mais ce n'est que mon point de vue..
Haut
Messages: 41

Enregistré le: 21 Jan 2004

Message le Mer Jan 19, 2005 2:25

ça bien sur en + de l'effet reel qui consiste à balancer le site au fin fond apres avoir eu son effet de fraicheur...
ça le maintien au fond du bac et ressortir de temps en temps..
a+
Haut
Messages: 4940

Enregistré le: 17 Aoû 2004

Message le Mer Jan 19, 2005 9:14

sur certain points, je suis un peu d'accord avec net-annoo (même si je n'apprécie pas sa manière agressive de le dire :wink:) ...
par exemple je suis un peu d'accord avec lui lorsqu'il dit que la SandBox n'existe pas ... en effet, je ne crois pas que les concepteurs de Google aient prévu cette fonction en tant que telle ... les algorithmes de Google constituent un système complexe comportant des dizaines (centaines ?) de paramètres et de nombreux filtres interéagissant entre eux ... nous sommes dans une approche systémique ...

et un peu comme dans le système météo, où une combinaison de phénomènes en asie peut provoquer des tornades dans le pacifique ... ici aussi (à moindre échelle bien sûr), la combinaison de certains réglages de paramètres associés à certains filtres, peuvent provoquer un phénomène (recherché ou non) que l'on peut appeler l' "effet SandBox" ... sans forcément pouvoir prouver mathématiquement qu'il existe, on peut néamoins l'observer, constater les conditions dans lesquelles il se manifeste et les effets qu'il produit sur un site ... je crois que c'est ce qu'a essayé de faire Rituel, et son analyse (qui ne pourra être prouvée fautes de connaitre les algorithmes de Google) en vaut bien une autre ...

Alors vous pouvez continuer à crier que l'effet SandBox n'existe pas ... vous n'en savez de toutes façons pas plus que ceux qui pensent qu'il existe ... ou alors expliquez nous comment un phénomène qui se reproduit sur des milliers de sites, dans des conditions similaires n'est que le fruit du hazard ... :wink:
Haut
Messages: 41

Enregistré le: 21 Jan 2004

Message le Mer Jan 19, 2005 10:14

bonjour à vous

j'etais simplement un peu agressif sur le fait de dire que jetais a cote de la plaque ce qui est un peu un manque de respect.. ça c'est pour la premiere chose..
sur ce que j'explique et ça cest mon point de vue perso tout ces sites qui sont soit disant dans un sandbox, ils y sont ,mais à mon avis et ce n'est pas la seule cause du a l'algo de similarité gg fait simplement sauté les pages qui pour lui sont similaires ( du à mon avis au fait que les pages sat etait vraiment similaires avec juste les mots clés etc qui changeais..) et du coup si tu regarde les pages prises en compte sur ces sites tu te rend qu une bonne partie de ces pages sont soit plus dans le cache pas de description etc soit en page supplementaires qui veut dire introuvable.. du coup sanction de gg car trop de page similaire et du coup te stocke dans un bac a sable ..
l'algo crois qu on triche en fait non ...
ce n'est que mon point de vue
voila :)
Haut
Messages: 1651

Enregistré le: 8 Avr 2004

Message le Mer Jan 19, 2005 10:47

Cendrillon a écrit:par exemple je suis un peu d'accord avec lui lorsqu'il dit que la SandBox n'existe pas ... en effet, je ne crois pas que les concepteurs de Google aient prévu cette fonction en tant que telle ... les algorithmes de Google constituent un système complexe comportant des dizaines (centaines ?) de paramètres et de nombreux filtres interéagissant entre eux ... nous sommes dans une approche systémique ...


J'ai tendance à être assez d'accord avec ça. Par exemple, je ne crois pas que cet effet soit volontaire. Si l'objectif de Google est de fournir à l'internaute des résultats "pertinents", comme on dit, l'effet Sandbox a pour effet de proposer les résultats pertinents... d'il y a six mois. Je ne crois pas que ce soit le but de Google.

L'effet sandbox revient à donner une vue un peu dépassée du web (six mois, c'est toute une époque !), à laisser au fond du classement les sites récents et, pour certains, plus pros, plus mûrs, plus ergonomiques, mieux fichus que ceux conçus avant car bénéficiant de savoir-faire nouvellement acquis (c'est tout neuf, Internet, les sites progressent à vitesse grand V et on peut penser que beaucoup de nouveaux sites ne répètent pas les erreurs de ceux qui ont essuyé les plâtres).

Cela peut mettre en cause la crédibilité du robot par exemple si la concurrence parvient à laisser passer moins de spammeurs tout en présentant malgré cela les sites récents dans les premières pages.

Pour faire donc un peu de divination (ça me gène pas, je suis un pronostiqueur lamentable, en général), je prédis donc que l'effet sandbox ne va pas continuer d'exister en tant que tel très longtemps. 8)
Haut
Messages: 602

Enregistré le: 4 Sep 2004

Message le Mer Jan 19, 2005 11:02

Bonjour à tous,
Cendrillon a écrit:Alors vous pouvez continuer à crier que l'effet SandBox n'existe pas ... vous n'en savez de toutes façons pas plus que ceux qui pensent qu'il existe ... ou alors expliquez nous comment un phénomène qui se reproduit sur des milliers de sites, dans des conditions similaires n'est que le fruit du hazard ... :wink:

Je suis d'accord avec Cendrillon sur l'ensemble, je dirais qu'il n'y a aucun hazard. C'est le terme souvent employé lorsque l'explication du phénomène n'est pas trouvée.
On n'a pas trouvé d'explication ne signifie pas qu'elle n'existe pas.
Elle est très complexe, et comme le dit Cendrillon, elle correspond à une agrégation de critères.
Quelque soit la prudence prise, la décision, ici la "punition" ou sa levée, doit intervenir à un moment donné.
"Je n'ai rien changé et …." : L'examinateur espérait des progrès et ceux-ci ne viennent pas. ….
Un point important cité par Rituel est la différence entre les requêtes concurrentielles et les autres. Les concurrentielles sont celles (quelque soit le nombre de résultats) pour lesquelles des liens commerciaux apparaissent en haut des pages (pas uniquement à droite). Il est intéressant de regarder avec outiref (BL, densités) le premier résultat sur la requête de Rituel.
Au boulot ! :wink:
Edité : J'avais mal tourné ma phrase :oops:
Modifié en dernier par ocsima le Mer Jan 19, 2005 11:05, modifié 1 fois.
Haut
Messages: 1175

Enregistré le: 16 Mar 2003

Message le Mer Jan 19, 2005 12:21

Pour moi la Sandbox c'est une évolution de Google, pour parler de manière barbare : Google v2, jusqu'à présent nous avions à faire à Google v1, je m'explique :

Avant Google, le seul paramètre à prendre en compte pour se positionner sur un outil de recherche était le contenu, sont alors naturellement apparues des pages sur-optimisées tant au niveau méta qu'au niveau contenu même mettant alors à plat la pertinence des outils de recherches de l'époque ...

Google est alors apparu, et son succès est dû à l'incroyable pertinence de ses résultats, pourquoi ? Car il ajoute à la pertinence du contenu d'une page un critère de popularité, mais ca personne ne le sait encore ...

Les rumeurs vont alors bon train sur l'outil, mais personne n'est vraiment sûr de ce qui se trame réélement derrière ce moteur de recherche ... C'est alors que Google commet l'erreur de diffuser une barre permettant de consulter la popularité d'un site sur une échelle de 0 à 10 et beaucoup constatèrent qu'en règle générale au plus cette valeur est élevée au plus le classement d'un site sur une requête populaire est bon.

Google avait à l'époque pensé (à juste titre) que le Pagerank se construisait de manière naturelle, avec le temps ...

Mais il était trop tard, ils ont diffusé l'outil et tout le monde a compris, une chasse aux Backlinks a alors eu lieu, soudainement des partenariats toutes pages virent massivement le jour, certains sites multiplièrent leurs Backlinks par plus de 1000 et se retrouvèrent de ce fait propulsés dans le classement ... Classement, qui, par voie de conséquence, perdait de sa pertinence à une vitesse alarmante.

Depuis (Avant le 1er Janvier 2005) ... Google se tait, cela fait des mois que le PageRank n'est pas mis à jour, certains crient à la mort de ce critère avec amertume car c'est leur seul repère concret avec le classement du moteur, d'autres pensent qu'il toujours mis à jour mais qu'il n'est plus affiché ...

Entre temps de nombreux webmasters se plaignent de chutes subites et brutales dans le classement sans n'avoir effectuées aucune modification sur leur site, mais Google reste silencieux, on pense à une régression du moteur alors même que ses concurrents semblent gagner du terrain ...

Sans aucun doutes, l'algorithme du moteur avait changé. A-t-il sévit sur la prise en compte des Backlinks ? A-t-il ajouté un nouveau critère pour détecter les sites propulsant leur popularité de manière artificelle ?

A cette dernière question je répond oui et cette mise à jour porte le nom de SandBox.
Haut
Messages: 5165

Enregistré le: 14 Fév 2004

Message le Mer Jan 19, 2005 12:30

WebRankInfo a écrit:on va voir si le joli lien que je t'ai offert en page d'accueil va te permettre d'arriver en 1ère page...

Ca a l'air de doper ..a l'inverse j'attends le passage de cet article avec une page qui va avoir un PR 0 puis 4 ou 5 sur le principe. Evolution a suivre

rituel a écrit:Sans aucun doutes, l'algorithme du moteur avait changé. A-t-il sévit sur la prise en compte des Backlinks ? A-t-il ajouté un nouveau critère pour détecter les sites propulsant leur popularité de manière artificelle ? A cette dernière question je répond oui et cette mise à jour porte le nom de SandBox.

nan car tout dépends de la requete voir mon tableau http://www.webrankinfo.com/forums/highl ... htm#195350
Donc la sanbox pour moi n'existe pas mais il y a un filtre pour des requetes concurentielles ( en $ pas en nombre de résultats ).
Haut
Messages: 602

Enregistré le: 4 Sep 2004

Message le Mer Jan 19, 2005 13:28

erazor a écrit:Donc la sanbox pour moi n'existe pas mais il y a un filtre pour des requetes concurentielles ( en $ pas en nombre de résultats ).

Existe, existe pas ?
Un filtre ? Pourquoi ? La concurrence est plus rude.
En tout cas bonne définition concise d'une requête concurrentielle
Et de la différence entre le niveau pro et le niveau amateur (comme moi)
Haut
Messages: 1175

Enregistré le: 16 Mar 2003

Message le Mer Jan 19, 2005 13:47

@erazor : Tu dis qu'il y a un filtre, mais la sandbox est un filtre et tu prétend qu'elle n'existe pas ... Je ne comprend pas trop ... A moins que tu sois dans le même cas que moi, à savoir que tu refuses que les gens crient à la sandbox dès qu'ils n'arrivent pas à positionner un site.

@Ocsima :
Un filtre ? Pourquoi ? La concurrence est plus rude.


Mais il était trop tard, ils ont diffusé l'outil et tout le monde a compris, une chasse aux Backlinks a alors eu lieu, soudainement des partenariats toutes pages virent massivement le jour, certains sites multiplièrent leurs Backlinks par plus de 1000 et se retrouvèrent de ce fait propulsés dans le classement ... Classement, qui, par voie de conséquence, perdait de sa pertinence à une vitesse alarmante.
Haut
Messages: 602

Enregistré le: 4 Sep 2004

Message le Mer Jan 19, 2005 14:06

rituel a écrit:Mais il était trop tard, ils ont diffusé l'outil et tout le monde a compris, une chasse aux Backlinks a alors eu lieu, soudainement des partenariats toutes pages virent massivement le jour, certains sites multiplièrent leurs Backlinks par plus de 1000 et se retrouvèrent de ce fait propulsés dans le classement ... Classement, qui, par voie de conséquence, perdait de sa pertinence à une vitesse alarmante.
....
Sans aucun doutes, l'algorithme du moteur avait changé. A-t-il sévit sur la prise en compte des Backlinks ? A-t-il ajouté un nouveau critère pour détecter les sites propulsant leur popularité de manière artificelle ?

Oui la concurrence est plus rude.
rituel a écrit:A moins que tu sois dans le même cas que moi, à savoir que tu refuses que les gens crient à la sandbox dès qu'ils n'arrivent pas à positionner un site

Oui elle a bon dos.
Haut
Messages: 5165

Enregistré le: 14 Fév 2004

Message le Mer Jan 19, 2005 14:47

rituel a écrit:@erazor : Tu dis qu'il y a un filtre, mais la sandbox est un filtre et tu prétend qu'elle n'existe pas ...

Ben si tu veux on peut nommer ce filtre sandbox :lol: mais pourquoi le nommer lui et pas les autres alors ?
Ce qui me parait douteux c'est d'en faire une généralité alors qu'a mon avis c'est un simple filtre comme tant d'autres. Parce que bientot les conversations entre webmasters ça va donner ça

- salu twoa ca va ?
- ouais moi ça va et toa ?
- pas trop j'suis sanboxé
- oua c'est vache !

Bref du sandbox a toutes les sauces :wink: pour toutes les situations que l'on arrive pas a expliquer la on est d'accord
Haut
Messages: 889

Enregistré le: 3 Fév 2003

Message le Mer Jan 19, 2005 15:11

En fait, la sandbox est un outil juridique pour référenceurs. Ci-dessous un exemple de contrat de référencement:

Article 12:
Dans le cas ou le site Internet, objet de ce présent contrat signé entre les parties ci-dessus désignées, tomberait dans le bac à sable, tout recours juridique envers notre société serait impossible, et déclaré sans suite.

ok, je sort :arrow:
Haut
Messages: 602

Enregistré le: 4 Sep 2004

Message le Mer Jan 19, 2005 15:43

vache, sauce, ... fais attention erazor, une ménagère peut trainer :
http://www.google.fr/search?hl=fr&c2cof ... cher&meta=
Haut
Messages: 5165

Enregistré le: 14 Fév 2004

Message le Mer Jan 19, 2005 16:00

Il n'entre bien sur aucun morceau d'ane dans cette recette . C'est un hommage aux parties si parfumées, agréable au toucher et au gout de nos testicules . Au contraire des votres
Haut