Messages: 161

Enregistré le: 11 Aoû 2004

Message le Mer Fév 14, 2007 18:11

Intéressant.

Mais la menace de la Sandbox n'est possible qu'en fonction de nombreux BL 'louches', ou s'agit il plutôt d'un verdict général sur le site face à l'analyse de ses BL, liens, mots clef, famlink ou autre ?

Sinon, il faut aussi garder à l'espris que chaque positionnement de page sera fait en fonction d'un "mot clef" ou "phrase clef".
Un site n'ira pas forcément en Sandbox selon ces mots.

Question simple: Un site en Sandbox sera donc invisible quel que soit les mots clef ?
Haut
Messages: 5

Enregistré le: 6 Juin 2006

Message le Lun Mar 12, 2007 15:26

Bonjour,
Je pourrais répondre à cette question en citant l'experience avec un de mes sites. Il était très bien positionné jusqu'a la semaine dernière (7 mars). Pour au moins 10 expressions très populaires en anglais, il était dans le top 5.

Ce que je peux observer quelques jours plus tard, c'est qu'il a perdu son positionnement pour toutes ces requêtes. Pour certaines, il est rendu à la page 50. Cependant, pour deux des requêtes sur lesquelles je travaile depuis toujours, je n'ai pas été trop déclassé. C'est un peu comme si j'avais perdu mon travail des derniers mois.

Je suis convaincu que c'est l'effet sandbox et non un changement d'algo. J'ai référencé plusieurs sites de la même façon, et les autres n'ont pas perdu leur positionnement.

J'ai du franchir la limite de la sur optimisation...
Haut
Messages: 6

Enregistré le: 15 Mar 2007

Message le Ven Mai 04, 2007 18:03

Cette discussion est très longue, mais très intéressante.

Et il m'inspire de nombreuses choses. en vrac :

1. La valeur ajoutée de Google est de présenter à l'internaute les pages les plus pertinentes, et pas d'afficher celles dont le PR est le plus élevé. La pertinence étant un critère éminement difficile à calculer, il est normal que l'algorythme de Google évolue pour tenir compte de l'évolution du Web en général, et des talents des Webmestres à contourner ses calculs.

2. Les sites dont la survie dépend des pubs qu'ils proposent sont dans la même problématique que les télévisions privées gratuites, c'est à dire la course à l'audience, donc au PR. La première page de Google est de taille finie, alors que le nombre de candidats augmente et qu'il est donc de plus en plus difficile d'y être. La compétition est donc rude, et il y a beaucoup moins de gagnants que de perdants.

3. L'internaute lui-même reste libre de choisir son moteur ou de résister à l'égémonie de Google, ainsi que de zapper les pubs ou de systématiquement voir aussi les pages 5 et 6 ... il intervient donc aussi dans le processus et l'évolution se fait dans un bal à trois ou l'équilibre est instable et évolue de manière perpételle, chacun des acteurs tirant de son coté. Il est possible que de faibles variations dans l'équilibre provoquent des "ruptures" de style "bac à sable".

4. On commence à vivre des situations un peu surréalistes. Par exemple, à quoi sert un annuaire payant, si justement le critère pour lequel on y est est justement d'être payant ... inversement, pourquoi être obligé de s'inscrire à un annuaire gratuit pour y être (mon-annuaire.com, l'annuaire de tous ceux qui sont dans mon-annuaire.com!)?

Toute cela me fait penser à des phénomènes d'interaction complexes du style accident : le "bac à sable" serait alors la traduction d'une somme de variations des paramètres pris en compte par Google, couplés à l'apparition ou la modification d'autres sites, le tout avec un algorythme donc Google lui-même ne maîtrise peut-être pas les résultats. Par exemple, pour passer de première page en troisième page, il suffit simplement que onze sites vous passent devant ... et pourtant quel impact sur le trafic!

On se retrouve alors dans une situation de style aléatoire ou l'accident dépend non pas d'un facteur, mais de combinaisons de facteurs qui provoquent "parfois" des accidents. Et donc, tout comme pour un accident de voiture, vous pouvez avoir un accident en ayant commis la seule faute d'être sur la route d'un chauffard, ou n'avoir jamais d'accident alors que vous êtes un chauffard manifeste.

Pour aller plus loin, la solution qui marche dans cette hypothèse est la gestion des risques :

1. Vous vous assurez contre le bac à sabe (la LOYD'S devrait faire ce genre d'assurance)
2. Vous apprenez à conduire prudement (ça ne supprime pas le risque mais ça en diminue la probabilité)
3. Vous anticipez l'évolution suivante de vos partenaires (par exemple quid si Google supprime carrement l'influence du BL dans ses calculs!).

Voilà ... et encore merci pour cette somme d'informations.
Haut
Messages: 64

Enregistré le: 21 Nov 2006

Message le Jeu Mai 24, 2007 9:33

Comment trouver l'age d'un site ?

Slt

Je n'arrive pas à remettre la main, sur ce site qui donnait l'age de vos sites.

Quelqu'un aurait cette URL svp ?

J'essais d'expliquer pourquoi un site que j'ai publié fin janvier, n'apparait sur aucune des expressions choisis, même pas avec le nom du site. Or toutes les pages sont indexé, et bcp de BL ont été créés, ainsi qu'une 10è de Communiqué de presse publiés.

Il faudrait que je sache quel age ont les concurents.
Haut
Messages: 10

Enregistré le: 26 Oct 2007

Message le Ven Nov 02, 2007 16:26

Bonjour,

Ma théorie a rajouté sur celle-ci est un poil differente,

Je pense que l'algorythme de google se sert de references,

En partant de se principe un site etant jeune ( age de la premiere page indexée ), peut donc bénéficier d'un "filtre spécial" lors du filtrage des requetes ( "prime de fraicheur"), pour ne pas paraitre laisé, sur les mots clés meme concurenciels (a condition d'avoir un optimisation propre), car etant jeune : aucune référence.

Quelques jours apres, google a recuperé une référence, par rapport au nombre de visites et la popularité de chaque mots clés (chez moi l'effet de sand box se fait ressentir sur les pages contenant des mots clés concurenciels, sinon les autres pages a mots cles "rares" garde leurs traffic naturel).

Si les visites par rapport a la popularité du mot clés et la position dans google ne correspond pas a la référence, les pages avec mots clés concurenciels peuvent "disparaitre des requetes" pendant un certains temps,
jusqu'a la prochaine comparaison (10 aines de jours).

NB : je pense qu'a l'efffet sand box s'ajoute la dure lois du maitres google ( sa taille ), les data center n'etant pas alignés, on pourrait remarqué des baisses de traffic liés a des consultations dans des data center non "alignés".
Haut
Messages: 273

Enregistré le: 20 Juil 2007

Message le Jeu Fév 21, 2008 10:42

Google prendrait de plus en plus en considération l'évolution d'un site dans le temps?
Haut
Messages: 7

Enregistré le: 25 Fév 2008

Message le Lun Fév 25, 2008 18:05

Re: Comment trouver l'age d'un site ?

jh_ice a écrit:Slt
Je n'arrive pas à remettre la main, sur ce site qui donnait l'age de vos sites.


Pourquoi ne pas utiliser simplement le whois ?
Haut
Messages: 11

Enregistré le: 19 Mar 2008

Message le Mer Mar 19, 2008 11:28

Re: Comment trouver l'age d'un site ?

TireAuFlanc a écrit:
jh_ice a écrit:Slt
Je n'arrive pas à remettre la main, sur ce site qui donnait l'age de vos sites.


Pourquoi ne pas utiliser simplement le whois ?


Tu fais comment exactement ? tu peux me donner la syntaxe stp ?

Merci par avance.
Haut
Messages: 8092

Enregistré le: 22 Fév 2006

Message le Mer Mar 19, 2008 11:33

On ne peut pas placer d'adresse en signature, rsx781.
Mets ton site dans ton profil, il apparaîtra sous un bouton "www" sous tes messages.
Haut
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Mer Mar 19, 2008 14:02

rsx781 a fait remonter des vieilles discussions uniquement pour y caser des liens vers son site.
Malheureusement pour lui/elle, les modos s'en sont rendus compte et l'ont désactivé (son compte)
Haut
Messages: 165

Enregistré le: 27 Mar 2007

Message le Ven Avr 09, 2010 19:26

Bonjour,

Dans la théorie de la sandbox, l'on nous présente comme "peu naturel" par exemple le fait qu'un nouveau site obtienne très rapidement un nombre trop important de backlinks puis plus rien ...

Sur ce point, une chose me laisse perplexe. Si un nombre soudain et important de backlinks peu sembler dans de nombreuses situations "surnaturel" selon moi ce n'est pas toujours le cas. Aujourd'hui par exemple on parle de plus en plus de Buzz marketing, ce qui signifie qu'un site peu très bien et de façon tout à fait naturelle et pourtant très ponctuelle obtenir des dizaines de milliers de backlinks en quelques jour puis plus rien. On dit qu'il a fait un Buzz.

Pensez vous qu'en pleine époque ou on parle de plus en plus de marketing viral etc. Google n'y ai pas pensé. cette théorie signifie que Google pénaliserait alors les nouveaux sites ayant fait un buzz sur une actualité ou une vidéo ?

Bien sur l'auteur dit lui même qu'il ne s'agit que d'une théorie et on sait qu'il faut la prendre avec distance.

Je pense moi qu'il y'a une chose sur laquelle nous pouvons tous tomber d'accord, Google pénalise ce qui n'est pas naturel.

Et la théorie de la sandbox nous présente comme peu naturel le fait qu'un site obtienne très vite pleins de backlinks puis s'essoufle.

Pourtant il me semble qu'il y'a d'autres choses que Google pourrait utiliser et qui d'après moins sont plus fiables pour "détecter le surnaturel"

Sur la plus part des annuaires que les référenceurs utilisent on ne peut obtenir un lien que vers une page d'accueil.
Pourtant et c'est vrai pour la plus part des sites web (je n'ai pas vérifier statistiquement, mais je pense que c'est une information qu'on peut considérer comme juste)les pages les plus intéressantes en matière de contenu pour les visiteurs, sont les pages internes. La page d'accueil est un peu le tableau de bord du site c'est une page très importante, mais si je veux faire un lien, en tout bien tout honneur, depuis mon site vers une information que j'ai trouvé vraiment intéressante, je ne vais pas (sauf cas précis) lier une page d'accueil mais une page interne d'un autre site.

Attention, ceci ne veut pas dire qu'un lien vers une page d'accueil est considéré comme suspect mais plutôt qu'est considéré comme suspect un site avec pleins de liens vers sa page d'accueil (qui pourtant ne représente pas le coeur du contenu du site en question) et très peu vers ses pages internes qui sont censées être les plus intéressantes...

Dans ce cas précis on peu être sur à 99 % que ce n'est pas naturel, donc pénalisé.

Et pourquoi pas une autre théorie sur la sandbox ...

Imaginons un site dont la page d'accueil bénéficie d'un nombre intéressant de liens entrants, mais dont les autres pages en bénéficient très peu. Alors ces pages internes deviendraient comme un fardeau, lourd à porter par la page d'accueil qui serait en fait "la seule roue motrice" du site. Plus le référenceur appuye sur l'accélérateur (à forse d'inscription dans les annuaires et d'échanges de liens bidons en footer) plus tout le site s'enlise.

L'une des forces de WRI, c'est d'avoir de nombreux liens certes, mais de nombreux liens aussi vers des pages internes, en gros il n'a pas qu'une roue motrice qui serait sa page d'accueil mais pleins d'autres roues motrices (plus petites peut êtres...mais motrices).

Vous direz sans doute, celui là il a pas inventé l'eau chaude, mais par contre ce me parait plus pertinent que l'histoire de pleins de backlinks en peu de temps, c'est peut être la destination de ces backlinks qui compte plus que leur nombre.
Haut
Messages: 343

Enregistré le: 17 Oct 2008

Message le Sam Avr 10, 2010 19:52

Hello,
Ben écoute, je sais pas trop pour les autres mais je n'arrive pas à obtenir de liens profonds ou si peu.
Ce qui fait que j'ai environ 2% de liens vers des pages internes (plus de 1000 liens enfin, ça c'est selon GG), sur un site où il y a pourtant du contenu. Pas de sandbox, et je doute qu'il en ait dans l'avenir. Je ne crois pas que Google punisse l'échange de liens comme ça.
Sinon je me dis qu'un site qui prend trop de liens d'un coup mangera de la poussière (c'est encore arrivé récemment, je l'ai lu dans un autre sujet), après toute la question est de savoir combien de temps dure la pénalité.
Si c'est une pénalité pour backlinks, à mon avis, un site en sort vite.

La pénalité pour duplicate par contre... J'ai l'impression qu'on s'en sort en supprimant les doublons, mais pas seulement : il faudrait également bien reprendre son entrée de backlinks. (c'est aussi une impression)
Haut
Messages: 3306

Enregistré le: 2 Juil 2008

Message le Dim Avr 18, 2010 12:10

J'aime bien la théorie de masterblaster, qui pourrait nous faire sortir de ce mythe de la sandbox.
Il n'est pas certain qu'il y ait une sandbox volontairement créée par les programmeurs.
Dans les systèmes informatiques complexes et modulaires, il y a des comportements émergents qui se créent tout seul, en conséquence imprévisible des comportements programmés.
La sandbox est peut-être tout simplement un comportement émergent, et comme elle apporte un plus au moteur de recherche il n'a pas été modéré.
Ca expliquerait qu'il soit difficile à comprendre et à anticiper, et que certains se sentent injustement touchés alors que des concurrents passent entre les mailles du filet.
Haut
Messages: 18187

Enregistré le: 23 Fév 2004

Message le Lun Avr 19, 2010 13:58

L'effet SandBox est peut-être aussi simplement prévu. A rapprocher de QDF.

N'oublions pas que ce que beaucoup voient comme une chute (effet SandBox) peut tout aussi bien être la fin d'une prime de fraîcheur, tout simplement ;)
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Lun Avr 19, 2010 15:44

100% en phase avec HawkEye.

QDF, c'est l'évaluations des requêtes sur un critère "recherche de l'info fraiche". Cet algo implique qu'on qualifie aussi les pages comme "info fraiche".
D'autre part, cela renvoie à une notion de "cycle de vie de l'information". Y'a des infos "météores". On en parle fort, mais pas longtemps. A l'inverse, y'a des pages dont la valeur informationnelle se maintiens dans le temps.

Là dessus, on peut greffer des notions de lutte anti-spam. Si ça a la couleur et l'odeur du buzz (plein de backlinks d'un coup), mais que ça ne fait pas vraiment du buzz (du trafic ?)... c'est du spam.

A mons sens, ce qu'on appelle Sandbox peut aussi bien recouvrir un effet naturel du cycle de vie de l'information, ou un filtre anti-spam qui aurait tenté de truander une notoriété.
Haut
Messages: 165

Enregistré le: 27 Mar 2007

Message le Lun Mai 03, 2010 18:19

MagicYoyo a écrit:100% en phase avec HawkEye.

QDF, c'est l'évaluations des requêtes sur un critère "recherche de l'info fraiche". Cet algo implique qu'on qualifie aussi les pages comme "info fraiche".
D'autre part, cela renvoie à une notion de "cycle de vie de l'information". Y'a des infos "météores". On en parle fort, mais pas longtemps. A l'inverse, y'a des pages dont la valeur informationnelle se maintiens dans le temps.

Là dessus, on peut greffer des notions de lutte anti-spam. Si ça a la couleur et l'odeur du buzz (plein de backlinks d'un coup), mais que ça ne fait pas vraiment du buzz (du trafic ?)... c'est du spam.

A mons sens, ce qu'on appelle Sandbox peut aussi bien recouvrir un effet naturel du cycle de vie de l'information, ou un filtre anti-spam qui aurait tenté de truander une notoriété.


Salut à tous,

A quoi servirait la prime de fraîcheur, si c'est pour renvoyer aussi tôt une page dans les basfonds. La prime de fraîcheur est un concept qui me rend perplexe. Non pas qu'il n'existe pas mais, c'est plus à la notion de "prime" que je ne crois pas.

On va pas reparler tous les critères d'un bon positionnement, mais gardons les 2 plus importants le contenu et les liens

Un site est nouveau, on ne peut pas le juger sur son nombre de liens entrants, puisqu'il est nouveau. Par contre les robots l'ont trouvé et il a été classé, peut être au début uniquement en fonction de son contenu, non pas parce qu'il a bénéficié d'une prime quelconque, mais simplement parce que son contenu est jugé pertinent ... dans quelque temps (?) il devra passer le baptême du feu, comme ses grands frères et concurrents, en étant aussi jugé pour sa "fiabilité" (sa popularité, ses liens entrants). Ce serait peut être une des raisons pour lesquelles beaucoup de sites font une chute vertigineuse après un assez bon positionnement en début de vie.
Haut
Messages: 1

Enregistré le: 6 Mai 2010

Message le Jeu Mai 06, 2010 11:34

rituel a écrit:Voir l'article remis en forme par Olivier ici


Bonjour,
Je connais actuellement un problème de référencement sur Google. Depuis le début du mois d'Avril, pas mal de pages de notre site internet ont disparu des 1ère requêtes (alors que nous étions parmi les 1er jusqu'à présent sur les mots clés travaillés). Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits. Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ? Par ailleurs, on m'a aiguillé sur le phénomène de sandbox que vous abordez. Pour votre info, ce back ground n'est pas accepté sur certains postes (sécurisés) et nos pages s'affichent toutes en noir ... seuls le texte couleur et les photos ressortent. Cela ne concernent pas tout le monde mais c'est un indice de plus qui me fait dire que ce back groud en question n'est pas le bienvenu. Que l'on se comprenne bien, mon objectif n'est pas de tout ratisser sur le web (je ne cautionne pas cette tendance qui décridibilise bcp de monde) mais simplement de ressortir correctement sur les mots clés en rapport avec une activité (+ la destination géographique en question).
Qu'en pensez-vous ? Est-ce que j'enlève cet habillage ?
Merci par avance.
Frédéric
Haut
Messages: 165

Enregistré le: 27 Mar 2007

Message le Sam Mai 08, 2010 16:43

langnat a écrit:Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits.

Bonjour Frédéric,

Sincèrement, la sandbox comme étant un passage obligatoire cela m'étonnerait, mais je ne renie pas son existence.

Je pense qu'il n'y a pas de fumée sans feu, si vous avez chuté dans les SERP, il y'a peut être une raison rationnelle à cela avant de parler de sandbox.

Vous dites avoir travaillé à partir des balises méta title, description et "keywords" ... ce n'est peut être pas suffisant ?
Avez vous aussi optimisé votre contenu pour améliorer votre positionnement ?
A moins que vous n'ayez dans votre secteur que très peu de concurrence.

Et mis à part le contenu, quelle est votre stratégie actuelle dans la recherche de backlinks ? Les annuaires ?
Est ce que vous contactez d'autres webmasters pour établir des échanges de liens, est ce que vous essayez d'obtenir des liens placés dans le coeur du contenu ? Est ce que vous axez votre recherche de backlinks seulement pour la page d'accueil ou est ce que vous obtenez aussi des liens vers les autres pages de votre site ?

Certains disent que quand vous êtes dans le bac à sable, le mieux c'est de ne rien faire et d'attendre, personnellement je ne suis pas pour les stratégies attentistes... mais attention beaucoup de ceux qui disent qu'il vaut mieux ne rien faire sont beaucoup beaucoup plus calés que moi. Mais c'est un forum et on y partage des points de vue :-)

langnat a écrit:Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ?


La prise en compte par Google de la vitesse de chargement de vos pages, c'est plus que jamais de l'actualité et cela a un impact sur le positionnement. Mais est ce que votre background a alourdi votre page à ce point ?
A vous de comparer votre vitesse de chargement et celle de vos concurrents et voyez si c'est significatifs ... j'ai des doutes.

Masterblaster
Haut
Messages: 70

Enregistré le: 8 Aoû 2007

Message le Mar Juil 27, 2010 20:32

masterblaster a écrit:
langnat a écrit:Nous avons travaillé notre référencement à partir des meta title, description et keywords et cela portait ses fruits.

Bonjour Frédéric,

Sincèrement, la sandbox comme étant un passage obligatoire cela m'étonnerait, mais je ne renie pas son existence.

Je pense qu'il n'y a pas de fumée sans feu, si vous avez chuté dans les SERP, il y'a peut être une raison rationnelle à cela avant de parler de sandbox.

Vous dites avoir travaillé à partir des balises méta title, description et "keywords" ... ce n'est peut être pas suffisant ?
Avez vous aussi optimisé votre contenu pour améliorer votre positionnement ?
A moins que vous n'ayez dans votre secteur que très peu de concurrence.

Et mis à part le contenu, quelle est votre stratégie actuelle dans la recherche de backlinks ? Les annuaires ?
Est ce que vous contactez d'autres webmasters pour établir des échanges de liens, est ce que vous essayez d'obtenir des liens placés dans le coeur du contenu ? Est ce que vous axez votre recherche de backlinks seulement pour la page d'accueil ou est ce que vous obtenez aussi des liens vers les autres pages de votre site ?

Certains disent que quand vous êtes dans le bac à sable, le mieux c'est de ne rien faire et d'attendre, personnellement je ne suis pas pour les stratégies attentistes... mais attention beaucoup de ceux qui disent qu'il vaut mieux ne rien faire sont beaucoup beaucoup plus calés que moi. Mais c'est un forum et on y partage des points de vue :-)

langnat a écrit:Début Avril, nous avons travaillé l'esthétique en centrant nos pages en les habillant de jambes gauche et droite légèrement grisées (avec un back ground). Visiblement cela à un poids (je ne le connais pas exactement), est-ce que cela n'aurait pas causé une lenteur à l'ouverture et un moindre repérage de la part de Google ?


La prise en compte par Google de la vitesse de chargement de vos pages, c'est plus que jamais de l'actualité et cela a un impact sur le positionnement. Mais est ce que votre background a alourdi votre page à ce point ?
A vous de comparer votre vitesse de chargement et celle de vos concurrents et voyez si c'est significatifs ... j'ai des doutes.

Masterblaster


Pour en revenir à la vitesse de chargement d'une page, à quel point pensez vous que cela peut influer sur le positionnement d'un site? Quelqu'un aurait des éléments ou un retour d'expérience à faire partager suite par exemple à un changement de serveur?
Haut