BrowseRank : l'algo de Microsoft, meilleur que le PageRank ?

Olivier Duffez (admin)
Membre du personnel
Des chercheurs de Microsoft ont indiqué avoir mis au point un algorithme intitulé BrowseRank, permettant de mesurer l’importance d’une page sur le web. Contrairement au célèbre PageRank de Google qui, dans sa version initiale, ne se base que sur la présence de liens entre les pages, le BrowseRank tient compte aussi du trafic généré par ces liens ainsi que du temps passé par les internautes sur les pages.

Les avancées techniques du BrowseRank
Pour développer leur algorithme, les chercheurs de Microsoft Research Asia (Bin Gao, Tie-Yan Liu et Hang Li) sont partis de la faiblesse des modèles de calcul de popularité basés uniquement sur le graphe des liens entres les milliards de pages que constituent le web. Ils expliquent que ces modèles (dont le plus célèbre représentant est certainement le PageRank) ne représentent pas assez bien la réalité, puisqu’ils ignorent le comportement des internautes. Le Browse Rank est donc un indice d’importance d’une page calculé à la fois à partir du maillage de liens mais aussi des clics sur ces liens, et du temps passé sur les pages d’arrivée :
  • plus il y a d’internautes qui sont arrivés sur une page en ayant cliqué sur un lien, plus cette page est importante
  • plus ces internautes sont restés longtemps sur cette page, plus elle est importante.
Outre ces 2 innovations algorithmiques, les chercheurs disent que leur modélisation représente mieux la nature du web (que celle utilisée pour le calcul du PageRank).

browserank.png

Illustration du BrowseRank (image tirée de l’article publié par les chercheurs)

Comment Microsoft récolte les données nécessaires au BrowseRank
D’un point de vue pratique, l’algorithme du BrowseRank nécessite l’accès à des données issues du surf des internautes. C’est chose possible avec les barres d’outils que proposent la plupart des grands moteurs de recherche (MSN/Live dans le cas présent mais aussi Google ou Yahoo). Les utilisateurs de ces barres d’outils ont sans doute oublié qu’ils ont accepté de transmettre aux moteurs des informations sur les pages qu’ils visitent, mais ils sont pourtant des millions à fournir ainsi en permanence ces données.

Bien entendu, pour des raisons de confidentialité, les données personnelles ne sont pas exploitées par le BrowseRank ; d’ailleurs elles ne sont pas vraiment nécessaires.

Performances du BrowseRank
D’après les chercheurs, leur algorithme est plus performant que le PageRank et le TrustRank, aussi bien pour aider un moteur de recherche à classer les pages par pertinence que pour identifier le spam. Ils ont effectué des tests sur un échantillon de 10.000 sites web, que des utilisateurs ont analysé pour indiquer s’ils les considéraient comme du spam ou pas. Au passage, si quelqu’un peut m’expliquer comment ces chercheurs peuvent calculer le TrustRank, je suis preneur ! Cet algorithme utilise en effet une sélection manuelle de sites jugés comme étant absolument dignes de confiance aux yeux des moteurs ; 2 calculs du TrustRank basés sur des listes différentes aboutiront forcément à des valeurs différentes de TrustRank…

Sans surprise, les sites qui obtiennent les meilleurs scores de BrowseRank sont des sites populaires du web 2.0, sans doute à cause du temps que les internautes passent dessus (au top : MySpace, YouTube, FaceBook).

Le BrowseRank est-il déjà exploité ?
MSN/Live utilise-t-il déjà le BrowseRank ? C’est sans doute encore un peu tôt, d’autant plus que des améliorations doivent encore être apportées :
  • ils doivent tenir compte du nombre de mots et du poids des fichiers annexes à la page HTML afin de normaliser les durées
  • ils doivent trouver une solution à l’absence de données de navigation sur les pages les moins populaires du web (pour lesquelles seul un algorithme conventionnel basé sur le maillage des pages est utilisable).
Rien n’est précisé non plus sur la faisabilité d’une industrialisation du calcul du BrowseRank à l’ensemble du web. Google prétend savoir calculer le PageRank (et d’autres critères sans doute) plusieurs fois par jour, pour les milliards de pages de son index.

Google et son PageRank sont-ils dépassés ?
Toujours d’après ces chercheurs, même les versions les plus évoluées du PageRank sont dépassées par leur algorithme. Ils citent deux versions qui se rapprochent du BrowseRank :
  • PageRank UBG : une sorte de PageRank pondéré calculé à partir de données de navigation des internautes
  • Naive BrowseRank : une version basique du BrowseRank, obtenue en faisant le produit du nombre de clics (sur les backlinks) par le temps moyen passé sur la page.
Cela dit, je me demande s’il ne faut pas relativiser un peu les choses… Google utilise déjà certaines des évolutions importantes décrites par les chercheurs de Microsoft :
  • les liens qui génèrent du trafic ont plus de poids que les autres (d’où la moins bonne efficacité des liens en pied de page)
  • les liens issus de pages de thématique proche ont plus de poids que les autres
  • les données de la barre d’outil de Google peuvent être utilisées, que ce soit pour des calculs de taux de rebond ( »bounce rate ») ou de temps de visite de chaque page)
Que Google utilise ou pas un algorithme de type BrowseRank, que Microsoft ait déjà réussi ou non à industrialiser les tests de ses chercheurs en laboratoire, il me semble évident que les concepts exploités par le BrowseRank doivent faire partie de toute bonne optimisation du netlinking (stratégies d’amélioration du référencement par le biais des liens). En clair, cela remet (une fois de plus) l’utilisateur final au cœur du système : c’est l’internaute et non l’éditeur de site qui indique quelles pages sont les plus intéressantes du web…

A propos des auteurs
tie-yan-liu.jpg
Tie-Yan Liu semble être indiqué comme l’auteur principal de cet article (le PDF ne semble plus disponible, j’ai enlevé le lien : BrowseRank: Letting Web Users Vote for Page Importance). Il est chercheur au centre de recherche de Microsoft à Pékin, il travaille actuellement dans le secteur de la recherche web.
 
WRInaute accro
Encore un excellent article avec de bonnes analyses personnelles ! Tu es en forme en ce moment Olivier...

Bon sinon, c'est une évolution qui va dans le sens de ce que ressentaient déjà certains membres de WRI et si je ne me trompe pas, le 1er et celui qui met le plus en avant cette théorie est Hawkeye.

Maintenant, comme tu l'a expliqué en fin d'article, je ne pense pas non plus que ce soit si nouveau que ça et que Google exploite de telles données depuis un moment déjà.
 
WRInaute occasionnel
Très intéressant en effet.
C'est bien si la concurrence commence à se bouger face à google, mieux vaut tard que jamais.
 
WRInaute passionné
Quelque part, ces "nouveaux" algorithme" ne font que théoriser quelques règles de bon sens : un lien souvent souvent cliqué a plus de valeur qu'un autre, intérêt d'une page proportionnel au temps que l'internaute y passe, etc. Mais il ne faut se leurrer sur le fait que tout cela peut aussi être manipuler par les webmasters...
 
WRInaute accro
C'est du tout bon.
[ Et mince, il va falloir ajouter une couche aux études : la vitesse de lecture, c'est vaguement quantifiable mais la compréhension du texte en fin de lecture, comment la mesurer ? :) ]
 
WRInaute passionné
Szarah a dit:
C'est du tout bon.
[ Et mince, il va falloir ajouter une couche aux études : la vitesse de lecture, c'est vaguement quantifiable mais la compréhension du texte en fin de lecture, comment la mesurer ? :) ]

Facile, des un employé de chaque moteur derrière chaque internaute! Et des QCM :D
 
WRInaute passionné
Ce principe de temps de lecture me pose problème, je ne le trouve pas super pertinent. Il est évident que sur youtube, le temps passé sur une page est énorme, mais sur un site d'actus, on peut ne passer que 30 secondes à lire un petit article et avoir trouvé l'information qu'on cherchait.
 
WRInaute occasionnel
A mon avis il y a aussi un autre probleme avec le temps de lecture... on ne mesure pas combien de temps un internaute est SUR la page mais combien de temps la pages est ouverte dans un navigateur.

Un internaute qui navigue avec 5 onglets ouverts peut laisser une page ininteressante ouverte pendant 20 minutes sans pour autant etre dessus 20 minutes...
 
WRInaute occasionnel
Très peu de gens se servent réellement des onglets et les résultats sont pondérés vu qu'ils sont pris sur des millions d'utilisateurs.
Par contre, le raisonnement de dadovb reste vrai.
 
WRInaute accro
On peut aussi ouvrir une page à cause de son titre et d'un snippet accrocheurs et se rendre compte au bout de deux phrases qu'on cherchait autre chose mais terminer tout de même la lecture, au cas où ça deviendrait intéressant plus bas :)
Encore une fois, la solution passe par un modèle statistique à affiner par l'observation d'une grande quantité de cas.
Le moteur qui peut examiner le plus de lectures devrait logiquement disposer des stats les plus précises.
 
Olivier Duffez (admin)
Membre du personnel
Merci pour vos retours. Moi aussi je me suis posé des questions sur cette prise en compte du temps passé sur chaque page :
- comment peut-on vraiment compter le temps passé sur une page si c'est la dernière consultée avant que l'internaute ferme son navigateur ? Il me semble en effet que la barre d'outils ne transmet pas ce type d'informations, mais seulement la liste des URL consultées (avec les dates/heures associées)
- une page avec une vidéo sera en effet forcément vue plus longtemps qu'une page avec uniquement du texte

Ca me fait aussi penser à ce fameux taux de rebond : on ne peut pas dire qu'une page est de mauvaise qualité sous prétexte que l'internaute a quitté le site aussitôt après avoir consulté la page (qu'il avait trouvée dans un moteur). Par exemple, je cherche une adresse, un numéro de téléphone ou des horaires d'ouverture : dès que j'ai trouvé l'info, je pars et je suis content :)

Mais globalement je pense que leur algo du BrowseRank peut en effet être plus performant que le PageRank (en tout cas celui que l'on connait...).
 
WRInaute passionné
Je viens de me rendre compte d'un truc...
En fait, c'est une mauvaise solution le browse rank.


Plus un site sera visité plus il sera bien placé ... et plus il sera visité...
Et inversement pour, les moins bien placés.


En gros, les resultat d'aujourd'hui du browserank dépendent...de ceux d'hier...(et ceux d'hier d'avant hier...)

Au moins, le pagerank n'a pas ce biais.
 
WRInaute passionné
moktoipas a dit:
Plus un site sera visité plus il sera bien placé ... et plus il sera visité...
Et inversement pour, les moins bien placés.

Tout à fait d'accord avec toi et mieux il sera placé plus il a des chances de recevoir des liens naturels. Ils vont se mordre la queue avec ce système.
 
WRInaute accro
Moktoipas et kmenslow, non. Justement, avec le PR, plus une page a de liens, plus elle est visible et du coup, plus elle a de lien, etc...

Avec le browse rank, ils cherchent à déterminer la qualité d'une page sur l'expérience utilisateur donc plus une page est de qualité par rapport à une requête, plus elle est visible. Ces statistiques ne sont pas tirées de la quantité de visite mais de la qualité de visites. Et justement, ça corrige le problème du chat qui se mord la queue.
 
Nouveau WRInaute
Il me semble que le temps passé sur une page n'est pas une donnée très fiable. Etant donné qu'on peut très vite laissé sont navigateur ouvert et faire autre chose, il y a des gens qui surfe en ouvrant un lien dans un autre onglet ou fenêtre. De plus il suffit alors de surfer sur ces propres site avec la toolbar google et/ou Microsoft pour voir ces pages remonté dans les moteurs de recherche.

Bref cela peut-être un variable de l'algorithme mais ne doit pas être déterminant comme Microsoft semble le tester
 
WRInaute passionné
dans le PR, pour simplifier
* plus il y a de lien, mieux on est placé

dans le BR, pour simplifie
* plus on a de visiteur qui reste longtemps mieux on est placé


le PR change quand de nouveau liens sont crées
le BR change quand la quantité et la durée des visites change

Je pense que le nombre de BL varie beaucoup moins vite que le nombre de Visiteurs.

Je pense que les visites sont trop "versatiles" pour qu'on puisse s'appuyer dessus de manière fiable.

Admettons que tu mette un site en maintenance pendant deux jours et que le calcul du PR et du BR se font pile dans cette periode

Ton BR va chutter drastiquement (beacoup moins de visiteurs qui restent 10 secondes et se cassent) alors que ton PR va pas bouger.

Et quand tu as fini ta maintenance, ton BR a chuté, tu reçois beaucoup moins de visiteurs depuis le moteur...et tu continue a t'enfoncer...
 
WRInaute accro
En même temps, un site en maintenance répond t-il bien à la requête d'un internaute ? Mérite-t-il d'être en haut du classement ?

Et à ce que j'ai pu comprendre, c'est le traffic provenant de liens qui compte, pas le traffic global. Donc grâce à ça, à mon avis, ils cherchent à dissocier :
- les liens SEO qui ne rapporte pas de traffic ou un traffic de mauvaise qualité (surtout pour les liens hors thématique)
- les liens pour les utilisateurs qui eux, drainent un bon traffic (quantité et durée) puisque le webmaster qui fait ce genre de lien a un intérêt éditorial à le faire et pas un intérêt SEO

EDIT : donc logiquement dans le BR, seul les liens de qualité comptent. Alors que dans le PR, tous les liens comptent (même si finalement, on sait que Google en filtre une partie)
 
WRInaute passionné
Un site qui est en maintenance ne mérite pas d'être en haut, mais avec le BR, il ne pourra pas remonter correctement après la maintenance.

Maintenant si le BR est juste en fait le degré de "confiance" d'un lien calculé en fonction du nb de clic et de la durée des visites sur le site d'arrivée, c'est déjà mieux, mais pas révolutionnaire.
 
WRInaute accro
admettons un site A

le site A est normal : les gens qui viennent dessus via des liens y restent en moyenne 2 minutes, consultent plusieurs pages, ...
conséquence : bon BR

le site A passe en maintenance : forcément, le BR chute puisque les gens qui arrivent via des liens ne restent plus

Le site A revient : le site retrouve son niveau initial puisque les gens qui viennent via des liens rerestent en moyenne 2 minute et consultent plusieurs pages, ...
Conséquence : le BR revient à son niveau initial

Non ?
 
WRInaute passionné
Dans ce cas la, ca veux dire qu'on prend en compte que les liens hors moteurs, pour beaucoup de site, ça va faire un échantillon tout petit non ?


Pour moi, le BR ne peux pas se passer du PR.

Ya un truc qui me gène, mais j'arrive pas a l'expliquer.
 
WRInaute accro
Maintenant, pour les référenceurs, il restera à savoir si des liens strictement SEO ne seraient pas pénalisants dans la formule du BR.

En effet, avec le PR, on peut presque faire des liens à gogo, on sait que ces liens peuvent être filtrés mais jamais pénalisants. Sinon, il serait trop simple pour nos concurrent de nous faire chuter notre positionnement en faisant des liens à gogo qui ne seraient jamais cliquer.

Par contre, pour le BR, j'espère que les liens qui ont un indice trop bas de "qualité de clic" ne seront pas pénalisant, sinon, ça risque de faire mal...
 
WRInaute passionné
*Par contre, pour le BR, j'espère que les liens qui ont un indice trop bas de "qualité de clic" ne seront pas pénalisant, sinon, ça risque de faire mal...

Ben a mon avis non, sinon, il suffit de faire plein de liens vers ton concurent et hop...
 
WRInaute accro
moktoipas a dit:
Pour moi, le BR ne peux pas se passer du PR.

A ce que j'ai pu comprendre, c'est un "rank" qui s'approche du PR mais qui analyse les liens de manière différente. Mais sinon, dans une logique plus globale, c'est presque la même chose.
 
Olivier Duffez (admin)
Membre du personnel
moktoipas a dit:
Dans ce cas la, ca veux dire qu'on prend en compte que les liens hors moteurs, pour beaucoup de site, ça va faire un échantillon tout petit non ?


Pour moi, le BR ne peux pas se passer du PR.

Ya un truc qui me gène, mais j'arrive pas a l'expliquer.
je pense qu'il ne s'agit que de l'analyse des liens entre pages indexées (ce qui exclut donc les moteurs)
l'objectif est très clairement de réussir à exclure les liens créés pour le référencement mais jamais cliqués...
 
WRInaute accro
Ce qui est soit disant "révolutionnaire", ce n'est pas la capacité à calculer un "rank" en analysant les liens qui pointent vers une page. Comme expliqué dans l'article d'Olivier, il y a déjà plusieurs méthodes pour le faire et chaque moteur à ses ranks maison.

Par contre, ce qui est soi disant "innovant" c'est de pouvoir calculer un poids pour chacun de ces liens en fonction de l'expérience utilisateur suite à un clic. Là, on arrive à quelque chose d'interressant car on revient à la définition d'un lien : on fait un lien pour qu'il soit suivi et parce qu'il mène à du contenu complémentaire; on fait un lien pour l'internaute, pas pour le robot.

Mais bon, j'suis sûr que Google à déjà ce genre d'outil ;)
 
WRInaute accro
BrowseRank = "popularité de la page" x "temps moyen passé sur la page"
= mesure de la valeur de la page pour les annonceurs

Que ce soit aussi une mesure de la qualité de la page, certainement pas dans tous les cas !

Jean-Luc
 
WRInaute occasionnel
Moi je me pose vraiment des questions sur la confidentialité des données privées.

Trouvez-vous normal qu'un moteur de recherche utilise vos données de surf afin de classer de sites pour d'autres visiteurs ?

Du plus, si ces visites sont étudiées à partir d'un toolbar bien précis, les données me semblent franchement faussées.

Si les données sont récoltées par les utilisateurs de IE, par exemple, je doute très fort qu'un site consacré à linux et firefox arrive à sortir très haut...

Bref, ça va être la loi du plus grand groupe qui va gagner.
 
WRInaute accro
blman a dit:
plus une page est de qualité par rapport à une requête, plus elle est visible.

Pour cela faut bien qu'elle réponde dans le moteur, et donc comme dit Moktoipas il y aura avantage à etre gros et ancien,
et bonjour les nouveau sites : ils ne sont pas près de monter.

Je suis bien moins confiant que vous sur cette nouvelle idée/algo
et puis c'est loin d'être la première fois qu'on nous annonce
une idée géniale et un brevet formidable pour un résultat... :(

Enfin la bonne nouvelle c'est que Micros0ft Live s'attaque enfin
aux sites de Spam, parce que de très loin c'est le plus en retard des 3 gros
 
WRInaute passionné
WebRankInfo a dit:
l'objectif est très clairement de réussir à exclure les liens créés pour le référencement mais jamais cliqués...

Et c'est là qu'il y a un risque puisque le fait qu'un lien soit régulièrement cliqué et que les visiteurs restent relativement longtemps sur le site lié, n'exclut pas les liens promotionnels.

J'ai l'exemple d'un de mes sites qui envoi de nombreux visiteurs tous les jours vers un autre des mes sites, puisque le simple texte de l'ancre du lien le fait sortir sur des requêtes contextuelles.
Je pense que l'expérience des internautes est positive puisqu'ils arrivent au final sur un site qui correspond à leur recherche.
Mais ces liens n'ont rien de "naturels" puisque je me fait de l'auto pub.

Celui qui n'a pas le moyen de se faire de la pub sur d'autres sites d'une façon ou d'une autre, aura du mal à obtenir des liens naturellement et son site risque donc de rester au tapis.
Avec le PR ils avaient la possibilité de glaner des liens de médiocre qualité sur les annuaires et autres échanges de liens mais là ils seront coincés.
 
WRInaute accro
Thierry Bugs a dit:
Pour cela faut bien qu'elle réponde dans le moteur, et donc comme dit Moktoipas il y aura avantage à etre gros et ancien,
et bonjour les nouveau sites : ils ne sont pas près de monter.

Bon voila comment on pourrait aussi interpréter le texte :

- J'ai un gros site ancien avec 1000 BL et sur ces 1000 BL seulement 100 sont bien cliqués. On est d'accord que là, le BR devrait être faible
- J'ai un nouveau site avec 100 BL et 75 sont bien cliqués.

Utiliseront-ils un ratio, des quantités, etc... ? Là, comme ça, on ne peut rien dire mais c'est possible que ce soit bien pensé cet algo ;)

Je ne vois pas pourquoi avoir toujours plus de BL pourrait être avantage avec cet algo ? Je pense que ça désavantage uniquement ceux qui font du lien strictement pour les robots, pas les nouveaux sites
 
WRInaute passionné
kmenslow a dit:
moktoipas a dit:
Plus un site sera visité plus il sera bien placé ... et plus il sera visité...
Et inversement pour, les moins bien placés.

+1
C'est comme le mec qui veut entrer en boite de nuit et qui se fait dire à l'entrée : " Désolé, c'est reservé aux habitués"...
 
WRInaute impliqué
dans la logique

finalement chaque fois que des informations sont publiées sur des algorythmes.. On a toujours l'impression que c'est ce qui semblait faire progresser les classements depuis bien longtemps. Chez google ces comportements semblaient déjà efficients, et si les barres d'outils semblaient avoir atteint leurs limites, ce qui semble vraiment avoir fait monter en flèche l'influences des critères off pages aujourd'hui tant appréciés pour déjouer le "spam notoriété" , c'est google analytics . Une mine d'or de renseignements pour google. Ajoutez les datas des providers internet et le projet est bouclé.
 
WRInaute discret
WebRankInfo a dit:
Il me semble en effet que la barre d'outils ne transmet pas ce type d'informations, mais seulement la liste des URL consultées (avec les dates/heures associées) ...

Il y a deja un "spyware" dans IE, c'est le filtre anti hameçonnage

ca envoit beaucoup d'infos à Microsoft

Si le browserank est si bon je pense qu'il faut s'attendre à ce que Google sorte son propre navigateur (ou une version de firefox customisée google)
 
WRInaute accro
Le BR va surtout servir à déspammer les résultats du moteur de Microsoft, ce qui devrait automatiquement améliorer leur qualité.
Mais GG ne reste pas les bras croisés : il me semble qu'il fait le ménage dans les BL de piètre qualité, c'est tendance, on l'a vu venir et au final il restera un cran plus haut que ce que promet la mise en oeuvre du BR.
 
WRInaute discret
BR et taux de rebond

Bonjour,
j'avais signalé dans un topic différent que Google utilisait des éléments de pondération tels que le temps de lecture moyen d'une page fonction de son contenu UTILE et de son architecture pour affiner le fameux taux de rebond d'une page - éléments se rapprochant du concept BR-.
 
WRInaute accro
WebRankInfo a dit:
Mais globalement je pense que leur algo du BrowseRank peut en effet être plus performant que le PageRank (en tout cas celui que l'on connait...).
sauf qu'on sait très bien que le PR ne représente qu'une faible partie dans le positionnement dans les SERP pour gg, vu que l'ordre d'apparition ne suit pas un PR décroissant
mrPringle a dit:
Très peu de gens se servent réellement des onglets
non, ils ouvrent des fenêtres différents, mais ça revient au même
 
WRInaute impliqué
Oniris a dit:
Moi je me pose vraiment des questions sur la confidentialité des données privées.

Trouvez-vous normal qu'un moteur de recherche utilise vos données de surf afin de classer de sites pour d'autres visiteurs ?

Du plus, si ces visites sont étudiées à partir d'un toolbar bien précis, les données me semblent franchement faussées.

Si les données sont récoltées par les utilisateurs de IE, par exemple, je doute très fort qu'un site consacré à linux et firefox arrive à sortir très haut...

Bref, ça va être la loi du plus grand groupe qui va gagner.

Bien vu Oniris :)
 
WRInaute accro
L'objectif ultime pour un moteur qui veut vraiment servir ses utilisateurs, c'est tout de même de procurer un classement spécifique à chaque internaute en fonction de sa "personnalité de navigation" connue.
C'est encore très grossier et surtout basé sur les données les plus faciles à récolter (langage, géolocalisation, ...) mais d'affinage en affinage, ça arrivera.
Un internaute = un classement : le rêve :)

(Et il y aura un bouton "Skip perso", bien entendu, pour faire perdurer la compétition globale).
 
WRInaute discret
c'est risqué d'utiliser le temps passé sur une page comme critère
je veux dire, ça dépend de l'info recherchée par l'internaute
prenez l'exemple de quelqu'un qui cherche une phrase célèbre dans un film ou si un acteur a joué dans tel film
il va rester très peu de temps sur la page en question (une fois l'info obtenue) et pourtant elle aura parfaitement répondu à sa requête

même chose pour deux pages répondant à la même requête, l'une étant mieux organisée que l'autre
et bien c'est sur celle qui est le moins bien organisée que l'internaute va passer le plus de temps (à chercher l'info souhaitée donc) alors que c'ets n'ets pas forcément celle-ci qui répond le mieux à sa requête

je comprends que ça permett d'éliminer une partie du spam (si un internaute quitte aussitot la page il ya de fortes chances qu'elle ne correspondait en fiat pas du tout à sa requete) mais c'est risqué quand même
 
Nouveau WRInaute
Temps passé sur les pages : il suffit de ne pas prendre en compte la dernière visitée. Statistiquement, ils retomberont sur leurs pieds. Mais je suppose qu’ils y ont déjà pensé.

Contenu des pages : avec ou sans vidéo, ou pire, jeux de mots croisés, de Sudoku - la remarque sur l’annuaire téléphonique est très juste. Cela pose plutôt un problème d’étalonnage, c'est-à-dire de comparaison de sites à vocations différentes. Annuaire et réseau social par exemple. Si l’on ne corrige pas l’indice, les réseaux sociaux auront un Browse Rank de 10 pour les meilleurs à 5 pour les pires et les annuaires de 2 pour les meilleurs et de 5 pour les pires. Un site traitant de l’architecture sassanide peut n’avoir que 1000 visites par an et être au top dans son domaine.

Google semble de plus en plus capable de pénétrer le contenu contextuel. On parle des mots clé à double ou triple vocation : « palettes », par exemple, qui se réfère au transport autant qu’à la peinture. Google y associe maintenant en bas de page les recherches apparentées. Leur première page de résultats est un mix transport et peinture. Mais on peut supprimer les occurrences « peinture » en cliquant sur « palettes transport ».

Je doute davantage de leur capacité actuelle à distinguer les contenus structurels : annuaire, réseau social, site marchand grand public, site d’entreprise, etc… Et s’ils veulent que leur Browse Rank ait un sens, ce qui est souhaitable, parce que le Page Rank a perdu le sien, il leur faudra résoudre ce petit problème.
 
Discussions similaires
Haut