Messages: 2877

Enregistré le: 24 Mai 2004

Message le Jeu Nov 24, 2005 18:08

Ouep... pas faux.
La position communément admise ici jusqu'alors est que a mise en Sandbox est due à une croissance anormale du nombre de backlinks.

J'en suis effectivement pas fondamentalement convaincu. Peut-être que la nature des backlinks est prépondérante... :roll:
Haut
Messages: 835

Enregistré le: 28 Jan 2005

Message le Jeu Nov 24, 2005 18:25

echanges-liens a écrit:Le vôtre peut-être ? (votre annuaire musical, pas mal positionné dans Google d'ailleurs)

spidetra a écrit:Un exemple d'annuaire de qualité spécialisé dans la musique : -annuaire-musique.narayana.fr


Merci bien :oops:
Haut
Messages: 454

Enregistré le: 19 Mar 2004

Message le Jeu Nov 24, 2005 22:29

WebRankInfo a écrit: Un site "normal" fait des liens sortants, c'est la nature du web. Un site qui n'en fait pas est un site louche (et il y en a bcp...)

A bon :lol:
tu prend les plus gros sites en France il ne fond pas de liens sortants et ne sont pas louche pour la majorité .
ou à tu étais cherché ce truc ? :?:
la majorité des gros sites fond des liens en JavaScript ou se fond quelques liens entre eux .
comme y sont déjà site de confiance , ben y monte un réseau de liens de sites de confiances . :lol:
et bientôt il vendrons des liens dur au mois :twisted: tu vois ce que je veux dire.
si un site de confiance te vend un lien 500€ mois et ben tu devient site de confiance ! :?: :idea:
Haut
Messages: 360

Enregistré le: 4 Mai 2005

Message le Ven Nov 25, 2005 1:04

Avant de computer des millions de liens, Google ferait bien d'apprendre les subtilités du frameset et du noframes.
Je dis ca, je dis rien...
http://www.google.com/search?client=opera&rls=fr&q=villa+de+luxe&sourceid=opera&num=100&ie=utf-8&oe=utf-8
Haut
Messages: 454

Enregistré le: 19 Mar 2004

Message le Ven Nov 25, 2005 23:03

Malaiac a écrit:Avant de computer des millions de liens, Google ferait bien d'apprendre les subtilités du frameset et du noframes.
Je dis ca, je dis rien...
http://www.google.com/search?client=opera&rls=fr&q=villa+de+luxe&sourceid=opera&num=100&ie=utf-8&oe=utf-8


tu à raison il mais delà plusieurs mois à voir des mots cachés alors des calculs savants :lol:
je pense qu'il passe plus de temps à calculé ses revenus de pub :lol:
Haut
Messages: 1306

Enregistré le: 27 Avr 2003

Message le Sam Nov 26, 2005 5:36

Il faut oublier tout ce qu'on sait et repartir sur de nouvelles bases.
En attendant, les fondamentaux du réf marchent toujours, même si c'est moins efficace sur le court terme il me semble que c'est valide sur le long terme.
Haut
Messages: 635

Enregistré le: 25 Avr 2004

Message le Mar Nov 29, 2005 10:34

Pourquoi ?
Au contraire, a mon avis, c'est plutot le retour en force des annuaires.
Mais, les vrais annuaires.
Pas le nieme PhpMyAnnu, ou toute dernière TopList qui délivre pour la nieme fois le même contenus sans aucune valeur ajoutée pour l'internaute.
Mettre en place un annuaire ça demande un vrai boulot...


Oui je confirme que cela demande un vrai boulot avec mon annuaire www.annuaire-philatelie.com j'au dus attendre 12 mois pour être en 1er page sur le mot philatélie

Mais comment savoir quel site est n’est pas de confiance, et que faire si un site en référencer sur des centaines de petit annuaire.
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Mar Nov 29, 2005 11:06

thickparasite a écrit:Il faut oublier tout ce qu'on sait et repartir sur de nouvelles bases.
En attendant, les fondamentaux du réf marchent toujours, même si c'est moins efficace sur le court terme il me semble que c'est valide sur le long terme.


J'ai l'impression que les critères de positionnement de Google privilégie de plus en plus les sites informatifs au détriment... des sites marchands (qui par nature ont un contenu moins textuel).
Stratégie volontaire pour diriger les sites marchands vers les liens commerciaux ? J'ai bien peur que oui...
Haut
Messages: 635

Enregistré le: 25 Avr 2004

Message le Mar Nov 29, 2005 11:27

C’est l’impression que j’ai aussi. Si l’on réfléchit bien a la nature du net, il ai et il restera un énorme réseau ou se côtoie sites informatifs (association étude personnelle sur tel ou tel sujet) marchant et priée (intranet, etc..)

Pourquoi placer en 1er pages d’une recherche des sites marchands ?
Peut que si google nous proposait une option afficher les sites marchands serai un plus pour mieux cibler notre recherche.
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Mar Nov 29, 2005 11:54

baptiste a écrit:Peut que si google nous proposait une option afficher les sites marchands serai un plus pour mieux cibler notre recherche.


Tiens c'est pas bête ça ! :idea:
Haut
Messages: 1651

Enregistré le: 8 Avr 2004

Message le Mar Nov 29, 2005 11:57

baptiste a écrit:Pourquoi placer en 1er pages d’une recherche des sites marchands ?

Parce que beaucoup de recherches sont des recherches d'information commerciale 8)
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Mar Nov 29, 2005 12:12

Je suis d'accord avec toi, mais ne pensez-vous pas que GG favorise les sites de contenu; et ce faisant repousse les sites marchands plus loin dans l'index ?
Haut
Messages: 257

Enregistré le: 27 Juin 2005

Message le Mar Nov 29, 2005 12:12

Le trustrank va faire mal à tous ces service de SEO et annuaires dupliqué.... Je vais commencer à regretter mes soumissions de site dans ces services gratuits de référencement.
Haut
Messages: 1500

Enregistré le: 7 Juil 2003

Message le Mar Nov 29, 2005 13:29

chantra a écrit:Le trustrank va faire mal à tous ces service de SEO et annuaires dupliqué.... Je vais commencer à regretter mes soumissions de site dans ces services gratuits de référencement.


les annuaires dupliqués vont plutot être pénalisés par des algo de SpamLink détection, surtout si les annuaires sont fortement connectés entre eux.
a mon avis, cela ne rentre pas dans la même catégorie que le TrustRank.
Haut
Messages: 1651

Enregistré le: 8 Avr 2004

Message le Mar Nov 29, 2005 14:15

MagicYoyo a écrit:Je suis d'accord avec toi, mais ne pensez-vous pas que GG favorise les sites de contenu; et ce faisant repousse les sites marchands plus loin dans l'index ?


Si tu veux, c'est pas forcément antinomique. Si tu veux vendre à distance (par Internet ou non), il vaut mieux que tu donnes un maximum d'information à l'acheteur potentiel. Celui-ci ne peut pas toucher le produit, il s'agit donc de décrire celui-ci sous toutes les coutures.

Un bon site marchand regorge d'info, c'est à dire de contenu digeste pour les moteurs.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Mar Nov 29, 2005 22:23

MagicYoyo a écrit:Peut que si google nous proposait une option afficher les sites marchands serai un plus pour mieux cibler notre recherche.



Ah ouiiis, serais premier sur quasiment toutes mes requêtes :lol: , marre d'être chaque fois trentième :twisted:
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Mer Nov 30, 2005 16:54

Que pensez-vous des propositions suivante à propos du TrusRank et de la Sandbox :
- la Sandbox est une pénalité
- la Sandbox correspond à la durée que met un site à atteindre un certain niveau de confiance et/ou de popularité
- l'unité du PageRank est la page, l'unité du TrustRank est le site.
- des liens provenant de sites de confiance et/ou de popularité permettent d'atteindre le(s) niveau(x) requis
- on ne sait pas si certains évènements, comme des "backlinks de mauvaise qualité" peuvent dégrader l'indice de confiance d'un site.


Au cours de la vie d'un site, d'autres critères viennent enrichir l'indice de confiance d'un site (TrustRank) :
- ancienneté du nom de domaine
- date de 1ère indexation de la page
- age des backlinks (?)
Haut
Messages: 769

Enregistré le: 8 Fév 2003

Message le Ven Déc 02, 2005 9:50

la Sandbox est une pénalité


Non, pas au sens propre. Cela fait longtemps que je crois que la Sandbox n'existe pas en tant que tel, et n'est qu'un effet de bord dû à la combinaison de différents filtres, notes et autres algos empilés par Google, et il me semble que cette version est aujourd'hui confirmée.

la Sandbox correspond à la durée que met un site à atteindre un certain niveau de confiance et/ou de popularité

Trop simple. Ce n'est pas qu'une histoire de confiance et de popularité. C'est un effet multifactoriel, ces critères en faisant partie.

l'unité du PageRank est la page, l'unité du TrustRank est le site.

C'est faux. Le Trustrank est une note donnée à une page. Elle dépend d'autres notes attribuées à une page. Seule la root list, les "seeds" sont probablement une liste de sites.

des liens provenant de sites de confiance et/ou de popularité permettent d'atteindre le(s) niveau(x) requis

C'est nécessaire. Pas forcément suffisant. Pour le Trustrank, qui est un algorithme itératif, la structure des liens entre sites de confiance à son importance.

on ne sait pas si certains évènements, comme des "backlinks de mauvaise qualité" peuvent dégrader l'indice de confiance d'un site.

Si j'en crois les articles de Garcia Molina, si, on sait.
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Ven Déc 02, 2005 11:03

Tout d'abord, merci de ces réponses que j'ai étudié précieusement. Mais j'en veux plus !

cariboo a écrit:
la Sandbox est une pénalité

Non, pas au sens propre. Cela fait longtemps que je crois que la Sandbox n'existe pas en tant que tel, et n'est qu'un effet de bord dû à la combinaison de différents filtres, notes et autres algos empilés par Google, et il me semble que cette version est aujourd'hui confirmée.

Effet volontaire ou induit; Je crois que la conséquence de l'effet Sandbox est bien une dégradation du positionnement du site. Il s'agit d'un effet négatif. C'est une note négative affectée à une page, pas une note nulle. Cet effet est assez puissant pour exclure une page des résultats pour une requête très précise et particulière pour laquelle elle est pourtant "sexy".


cariboo a écrit:
la Sandbox correspond à la durée que met un site à atteindre un certain niveau de confiance et/ou de popularité

Trop simple. Ce n'est pas qu'une histoire de confiance et de popularité. C'est un effet multifactoriel, ces critères en faisant partie.

Pourais-tu développer succintement ?

cariboo a écrit:
l'unité du PageRank est la page, l'unité du TrustRank est le site.

C'est faux. Le Trustrank est une note donnée à une page. Elle dépend d'autres notes attribuées à une page. Seule la root list, les "seeds" sont probablement une liste de sites.

J'en suis pas si sur. Le TrustRank se propage via les liens et donc se transmet via les pages. Mais rien ne dit que GG ne fasse pas une moyenne des notes de TrustRank reçues par un site. Il y a plus de logique à considérer le spam à l'échelle d'un site qu'à l'échelle d'une page.

cariboo a écrit:
des liens provenant de sites de confiance et/ou de popularité permettent d'atteindre le(s) niveau(x) requis

C'est nécessaire. Pas forcément suffisant. Pour le Trustrank, qui est un algorithme itératif, la structure des liens entre sites de confiance à son importance.
Si je comprends bien, à l'instar du PageRank, le TrustRank est aussi affecté par la "qualité" des liens (position dans la page, profondeur du lien, réciprocité des liens, thématique des pages liées, texte de l'ancre[?]...)

cariboo a écrit:
on ne sait pas si certains évènements, comme des "backlinks de mauvaise qualité" peuvent dégrader l'indice de confiance d'un site.

Si j'en crois les articles de Garcia Molina, si, on sait.

Tu as raison, c'est l'essence même du TrustRank. Mais il faut aussi envisager la possibilité qu'il y ait des écarts entre les solutions proposées par les chercheurs dans leur publications et ce qui à été implémenté dans l'algo de Google.
Haut
Messages: 769

Enregistré le: 8 Fév 2003

Message le Ven Déc 02, 2005 12:28

Effet volontaire ou induit; Je crois que la conséquence de l'effet Sandbox est bien une dégradation du positionnement du site. Il s'agit d'un effet négatif. C'est une note négative affectée à une page, pas une note nulle. Cet effet est assez puissant pour exclure une page des résultats pour une requête très précise et particulière pour laquelle elle est pourtant "sexy".


Tu as raison : il y'a un effet de seuil, au delà duquel la page est classée "spammy". En deça de ce seuil, la "pénalisation" n'est qu'un recul dans les positions sur les pages de résultat.

Pourais-tu développer succintement ?

Succinctement cela va être très dur... Disons que pour bien se classer dans Google, pour un nouveau site, recevoir des liens de "sites de confiance" est utile, mais ni nécessaire ni suffisant, que la popularité n'est nécessaire que si la requête est concurrentielle, et que je n'ai jamais vu de confirmation réelle qu'il y'avait un facteur du genre : je ne met pas en tête de résultats un site qui a moins de six mois. Le critère d'âge existe peut-être, mais sûrement très pondéré par autre chose, car des sites nouveaux peuvent scorer "haut" dans google.

J'en suis pas si sur. Le TrustRank se propage via les liens et donc se transmet via les pages. Mais rien ne dit que GG ne fasse pas une moyenne des notes de TrustRank reçues par un site. Il y a plus de logique à considérer le spam à l'échelle d'un site qu'à l'échelle d'une page.

Non. Les moteurs recherchent à enlever des pages "spammy". Pas des sites. Car un même site peut contenir à la fois des pages "normales" et des pages de "spam". Mieux vaut éviter le "délit de sale gueule" en se privant de pages pertinentes : où alors, toutes les pages en blogspot.com sont à virer ;)

Si je comprends bien, à l'instar du PageRank, le TrustRank est aussi affecté par la "qualité" des liens (position dans la page, profondeur du lien, réciprocité des liens, thématique des pages liées, texte de l'ancre[?]...


Il est affecté par la structure des liens, point barre. C'est un rank comme un autre, calculé "à rebours",

Tu as raison, c'est l'essence même du TrustRank. Mais il faut aussi envisager la possibilité qu'il y ait des écarts entre les solutions proposées par les chercheurs dans leur publications et ce qui à été implémenté dans l'algo de Google.


Tu as raison d'être prudent là dessus. Mais si on part du principe qu'un Trustrank, même adapté, est utilisé par Google, alors, forcément, cela marche comme cela, car c'est le principe même qui est derrière l'algo.
Haut
Messages: 2192

Enregistré le: 2 Avr 2005

Message le Ven Déc 02, 2005 13:22

Tout ce que vous dites est bien joli, mais même si il y a surement beaucoup de vrais vous oubliez que google à un moyen trés simple et trés efficace de mesurer la "popularité" d'un site: Compter le nombre de click vers ce site dans ses pages de résultats. C'est une mesure trés objective.

De plus, avec la Google bar, il peut trés bien, cette fois par une analyse statistique, affecter un facteur de popularité à tel ou tel site.

Ceux qui utilisent le sitemap ont surement remarqué que Google leur propose des stats assez, disons surprenantes de la par d'un moteur de recherche. A votre avis, d'ou tire t'il ces stats! :wink:
Haut
Messages: 769

Enregistré le: 8 Fév 2003

Message le Ven Déc 02, 2005 15:35

mesure trés objective.


Cette mesure est assez connue également pour n'avoir rien à voir avec la pertinence de la page par rapport à une requête donnée.
Haut
Messages: 2192

Enregistré le: 2 Avr 2005

Message le Ven Déc 02, 2005 15:53

cariboo a écrit:
mesure trés objective.


Cette mesure est assez connue également pour n'avoir rien à voir avec la pertinence de la page par rapport à une requête donnée.


Ah bon!?

Si je recherche quelquechose sur GG et que je clique ensuite sur un lien dans les pages de résultats ce n'est pas pertinent! Ell est bonne celle la! :lol:

Imagine qu'un site soit par exemple premier sur une requete et qu'il y ait deux fois moins de clics que sur le site qui est cinquième. Qu'en conclurais tu si tu étais GG? Moi j'en concluerais que ce site est peut être mieux référencé mais moins interessant et que l'autre semble bien plus interressant bien que moins bien référencé et j'agirais en concéquence.

Il faut arreter de penser en webmaster et se mettre à la place des internautes. En tant qu'internaute je me fou complétement de savoir si tel ou tel site est bien référencé, si il a sa place sur la première page de GG ou non! Je lit ce que je vois et si cela correspond à ce que je cherche je clique! Et lorsque je cherche je parcourt facilment 5 ou 6 pages de resultats et je ne clique pas sur tous les liens ni sur les mieux placés.

Si en mesurant le taux de click sur les pages de résultats on obtient pas un critére de pertinance des resultats proposés, je veux bien boufer un autre moceaux de mon avatar! :wink: (ça m'arrive quand je me suis trompé!) C'est exactement comme si tu me dis que l'avis des critiques est plus important que celui du public en matière de cinéma, literature ou autre!

Elle est bonne celle-la! :lol:
Haut
Messages: 769

Enregistré le: 8 Fév 2003

Message le Ven Déc 02, 2005 16:10

Là où tu as raison c'est que compter les clics sert à améliorer l'algo, Google le fait comme tous les moteurs grand publics. C'est ce qu'on appelle une expérience de retour de pertinence par l'utilisateur.

Mais quand je cherche "jaguar" dans un moteur de recherche, je ne cherche pas à obtenir les pages les plus cliquées qui parlent de jaguar, mais bien les pages qui sont les plus "en rapport" avec la requête jaguar.

La pertinence de la réponse n'est donc pas une question de fréquentation des pages. Sinon, on ne verrait que les pages de MSN en tête des résultats des moteurs.
Haut
Messages: 2192

Enregistré le: 2 Avr 2005

Message le Ven Déc 02, 2005 16:17

cariboo a écrit:Mais quand je cherche "jaguar" dans un moteur de recherche, je ne cherche pas à obtenir les pages les plus cliquées qui parlent de jaguar, mais bien les pages qui sont les plus "en rapport" avec la requête jaguar.


Ben, peut-être que les pages les plus pertinentes pour "jaguar" sont celles qui ont été le plus souvant cliquées dans les pages de resultats de GG sur cette requete!

SI je devais faire un moteur de recherche, je me servirais de ce critère en tout cas! Un internaute est toujours plus indiqué qu'un robot ou un algorithme pour déterminer la pertinance du résultat de sa recherche.
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Ven Déc 02, 2005 16:20

fandecine a écrit:Imagine qu'un site soit par exemple premier sur une requete et qu'il y ait deux fois moins de clics que sur le site qui est cinquième. Qu'en conclurais tu si tu étais GG?

Je suis plutôt d'accord avec Cariboo. Je concluerai que la description (snipet) proposée pour le second est plus percutante que celle choisie pour le premier.

L'internaute qui clique sur un résultat proposé par un moteur le fait à priori, en fonction de la description proposée et non en fonction du contenu réel de la page (puisqu'il ne le connait pas encore). Cela ne préjuge que peu la pertinence réelle de la page.
Je ne dis pas qu'il y a aucune correlation, mais elle me parait trop indirecte pour en tirer des indices de pertinence.
Haut
Messages: 80

Enregistré le: 25 Nov 2005

Message le Ven Déc 02, 2005 16:31

Bonjour à tous et merci pour vos contributions. Elles répondent à de nombreuses questions au sujet des modifications de l'algo de google.

Je suis d'accord avec Caribou et MagicYoyo. Le taux de clic ne peut pas vraiment être un critère de pertinence.
1. un site en 1ere position sera plus cliqué plus que l'internaute pense a priori que GG est fiable
2. une description attractive genre "voyage tahiti discount - appel gratuit ..." attirera sans doute plus que "voyage tahiti, séjour tahiti, croisiere tahiti" et aura plus de clics

Par contre, je me demandais, si Google utilisait les données issues de la google bar pour évaluer la pertinence d'un site Ex:
- temps passé sur le site = plus il est long, plus le site est intéressant
- taux de retour sur la page de résultat GG = plus il est élevé, moins le site est pertinent ...

C'est sur qu'il faudrait déployer des algos de fous et avoir des machines tres puissantes mais qui sait ??
Modifié en dernier par mia_mi le Ven Déc 02, 2005 16:36, modifié 1 fois.
Haut
Messages: 2192

Enregistré le: 2 Avr 2005

Message le Ven Déc 02, 2005 16:35

MagiYoYo, tu raisonne comme un webmaster qui calcule la pertinence d'une page en comptant les occurances de mots dans cette page pas comme un internaute qui recherche un réponse à sa recherche!

Et c'est parceque les webmasters raisonnent comme cela que l'on est arrivé à des situations d'abus dans les techniques de référencement. Hors, il semble que GG ait décidé de faire la chasse à ses pratiques en introduisant un facteur "'humain" dans son algo (trustrank, visite des sites par des humain etc...) et ce que je dis me semble être un des critères utilisé par GG. :D
Haut
Messages: 2192

Enregistré le: 2 Avr 2005

Message le Ven Déc 02, 2005 16:43

mia_mi a écrit:Il est en effet, facile de mettre du contenu attractif dans la balise description pour améliorer le taux de clic, un peu comme quand on rédige les pub adwords ?


Oui c'est facile mais:

1/ c'est difficile de concilier mots cles dans le titre de page et titre atrayant
2/ c'est google qui décide de ce qu'il affiche pour décrire ta page, et pas le webmaster du site!

Quand à la google bar ou autre alexa bar, yahoo bar elles sont bien entendu la pour analyser les habitudes des internautes!

Si certains de vous ont déjà eu accés à des statistiques de visites qualitative comme Xiti Pro ils comprendrons ce que je veux dire!

Médiametrie utilise un echantillon de foyer auquels il donne une zapette pour étudier leurs habitudes en matière de télévision et qualifier ainsi l'audiance des programmes. Sur le net, les zapettes c'est les "machin bar" et autres!

Ne le dites pas mais on nous espionne! :wink:
Haut
Messages: 2877

Enregistré le: 24 Mai 2004

Message le Ven Déc 02, 2005 18:52

fandecine a écrit:MagiYoYo, tu raisonne comme un webmaster qui calcule la pertinence d'une page en comptant les occurances de mots dans cette page pas comme un internaute qui recherche un réponse à sa recherche!


Si tu dis ça parce que je suis les propos de Cariboo, je crois que tu n'est pas très objectif. C'est un très fin connaisseur des moteurs de recherche.
Et je suis sur que la lecture de ses articles sur la sémantique appliquée aux moteurs de recherche et ses traductions de publications sur l'analyse thématique te convaincrons qu'il existe d'autres solutions plus pertinentes que ce que tu proposes.
Haut