Twitter et Facebook : ça compte pour le SEO

WRInaute passionné
Re: Twitter et FB ca compte pour la SEO

Je trouve que les réponses sont ambiguës.
Utiliser un lien dans un tweet ne signifie pas nécessairement qu'il améliore le référencement. Si les moteurs se sont intéressés à Twitter, c'est essentiellement à cause de la rapidité de émergence des buzz.
Sur les 1eres réponses, à aucun moment ils ne parlent de classement. Seulement de "signal utilisé"... qui peut l'être dans la détection de tendances à la manière de Google Trends.

La notion de "social authority" n'éclaire pas mieux la situation. D'autant que Google dit l'utiliser quasi-exclusivement pour la recherche temps réel.

Perso, je considère que ces réponses n'éclairent rien du tout.
 
WRInaute impliqué
Re: Twitter et FB ca compte pour la SEO

Oui, il est clair que Google est moins affirmatif que Bing.
Mais ce n'est qu'un début, évidemment que ça va compter de plus en plus, même dans le positionnement.
 
WRInaute passionné
Re: Twitter et FB ca compte pour la SEO

Rien de neuf au fait que Google s'intéresse au signal envoyé par la visite d'un internaute.
Il y a plusieurs brevets qui tendent dans ce sens.
J'ai osé nommer ce concept le PersonRank et j'en parle d'un bout sur http://www.laurentbourrelly.com/blog/321.php
Ce n'est qu'un morceau d'une notion plus vaste entourant ce qu'on peut appeler l'odeur de l'internaute. Tout comme un backlink, mais via la visite d'un humain.
 
WRInaute occasionnel
Re: Twitter et FB ca compte pour la SEO

merci pour l'info
perso j'avais remarqué l'apparition de liens de twitter et fb il y a une ou deux semaine.
après a savoir si il améliore ou non le positionnement d'un site c'est une autre histoire
++elembius
 
WRInaute passionné
Re: Twitter et FB ca compte pour la SEO

Pour ceux qui en doutent il y avait une étude faite aussi par SEOMOZ où ils arrivaient à placer des pages rien qu'avec des BLs twitter.
Après je sais plus où je l'ai vu (trop malade pour chercher ce soir désolé), mais en tout je vais l'utiliser de plus en plus pour mes clients.
 
WRInaute passionné
C'est assez marrant lors de la publication d'un twitt, en regardant au même moment ses logs serveurs, on voit qui vient et la vitesse est vraiment incroyable: Google arrive plus rapidement que la seconde après le clic sur le bouton "twitt", c'est assez intéressant surtout niveau performance elle même.
 
WRInaute passionné
A noter que ce site -http://twifficiency.com/ peut permettre de calculer quelque chose sur la "twifficiency". J'ignore les méthodes de calculs utilisés, j'arrive à 36%
 
WRInaute passionné
J'ai vraiment tendance à voir plus loin que Facebook et Twitter pour parler de ce que j'appelle le PersonRank.
En fait, pendant que nous focalisions sur le PageRank, Google utilisait aussi l'internaute pour construire un vote de confiance similaire à celui émis par un backlink. C'est là-dessus que je concentre mes efforts pour créer cette émulsion nécessaire à valoriser un site Web.
De ce fait, les liens en nofollow sont tout à fait utiles, à partir du moment où ils sont cliqués.
 
WRInaute accro
La notoriété d'un utilisateur Twitter ou Facebook est prise en compte par Google pour l'attribution du poids des liens situés dans ses tweets ou sur sa fanpage
Je pense que tu te trompes Olivier pour les utilisateurs de Facebook. Google n'a aucun moyen de connaître l'administrateur d'une fanpage, d'autant plus qu'il n'apparait pas dans les commentaires.
Si Google est tordu, il peut scanner régulièrement les utilisateurs pour en déduire leurs amis et leurs intérêts. Comme on frôle l'espionnage, j'espère que ça ne va pas jusque-là.
Par contre beaucoup de murs sont semi-publics, c'est à dire accessible si on a un compte, même si on n'est pas ami avec la personne. On peut se demander si Google a un compte, ou un accès privilégié, à ces infos, comme autrefois certains forums dont les parties privées pouvaient être crawlées.
 
Olivier Duffez (admin)
Membre du personnel
@fredfan : pour les pages Facebook, il s'agit en effet de la notoriété d'un "profil" et pas d'un individu, mais ça reste globalement associé à un ou plusieurs sites, repérables par les moteurs facilement

@milkiway : quand même pas "de l'avis opposé" ! mais c'est vrai qu'il y a environ 1 an je n'étais pas super convaincu mais j'ai pourtant bien créé et largement développé mon compte Twitter
depuis 2 mois je me suis mis + sérieusement à Facebook
 
WRInaute accro
thickparasite a dit:
De ce fait, les liens en nofollow sont tout à fait utiles, à partir du moment où ils sont cliqués.
je suis du même avis, y compris si cela n'a aucun effet en terme de SEO. In fine, ce qui nous intéresse, c'est quand même d'obtenir des visiteurs pour transformer ensuite (soit en client, soit en clics pubs, ...) les BL n'en sont qu'un moyen et non une fin
 
WRInaute accro
Je m'interroge beaucoup sur la présence de l'identifiant personnel facebook dans les balises open-graph quand on met des boutons j'aime ou partager sur nos sites.
Ca permet de savoir à qui appartiennent les sites.
Aucun moteur de recherche n'aurait repéré cet indicateur ?
 
WRInaute passionné
Leonick a dit:
In fine, ce qui nous intéresse, c'est quand même d'obtenir des visiteurs pour transformer ensuite (soit en client, soit en clics pubs, ...) les BL n'en sont qu'un moyen et non une fin

Voilà!
Le débat dépasse largement les entités Facebook et Twitter pour englober tous les liens cliqués - nofollow ou pas. La visite d'un internaute en tant que telle est un vote de popularité. Cela s'étend même à la mise en favori ou l'abonnement au flux RSS qui sont des votes de confiance aussi intéressants qu'un backlink.

En d'autres termes, entre un BL qui ne sera jamais cliqué car il est en footer dans une partouze de liens et un lien sur Youtube, Twitter ou n'importe où avec un nofollow, mais qui sera abondamment cliqué, je privilégie le deuxième.

Tout cela permet de créer ce que j'appelle une "émulsion" fortement bénéfique à la valorisation d'un site aux yeux de Google.
 
Olivier Duffez (admin)
Membre du personnel
On est d'accord, Google cherche à prendre en compte le plus possible l'engagement de l'internaute.
Mais il faut bien trouver des critères mesurables. Je ne suis pas certain que Google puisse mesurer les mises en bookmarks, quelqu'un à des infos précises là-dessus ? Notamment dans Chrome ?
 
WRInaute passionné
C'est sûr qu'il le mesure de multiples manières. Le sujet de mon billet posté plus haut concerne les annotations de pages Web.
Voici l'extract

Un moteur de recherche procure des résultats qui sont classés en fonction d’une mesure de confiance associée avec des entités présentées sous forme de notes au sein des résultats de recherche. Un moteur de recherche reçoit une requête et sélectionne les documents pertinents pour cette requête.
Le moteur de recherche détermine également les notes associées avec les documents sélectionnés, ainsi que les niveaux de confiance des entités qui procurent les notes. Les niveaux de confiance sont utilisés pour déterminer le facteur de confiance des documents respectifs. Les facteurs de confiance sont également utilisés pour ajuster le score de récupération de l’information des documents. Les résultats de recherche sont ainsi classés sur la base d’information du score ajusté.

Les infos que j'avais eu émanant indirectement de Google remontent bien avant ça - 2005 ou 2006 - où il était question du concept d'odeur de l'internaute. Tout cela n'est donc pas neuf, mais il y a bien des brevets qui prouvent que c'est loin d'être une rumeur.

Après, faire du reverse-engineering là dessus pour comprendre le système de mesure, tu sais aussi bien que moi qu'il vaut mieux ne pas y penser.
 
WRInaute discret
Julia41 a dit:
C'est assez marrant lors de la publication d'un twitt, en regardant au même moment ses logs serveurs, on voit qui vient et la vitesse est vraiment incroyable: Google arrive plus rapidement que la seconde après le clic sur le bouton "twitt", c'est assez intéressant surtout niveau performance elle même.

Dans le genre, il est assez cocasse de noter que gg indexe plus vite les RT que Twitter lui même !
 
WRInaute impliqué
Article intéressant, merci.

Une question, suite à "La notoriété d'un utilisateur Twitter ou Facebook est prise en compte par Google pour l'attribution du poids des liens situés dans ses tweets ou sur sa fanpage."

Google utiliserait que les pages fans, ou aussi les murs des membres ? Utilise t-il les pages des groupes ?

Suis pas très facebook, pas encore compris à quoi cela servait, à par mettre sur le net des dates soirée puis les photos de ses potes bourrés et des minettes pas farouches.

Bref, pour reformuler mon intérrogation, il me semble que sur facebook, il y a les murs des membres, les pages fans et les murs des groupes. 3 "choses" pour publier.

Les 3 sont utilisés ?
 
WRInaute accro
Je note que pour la plupart d'entre vous (seul thickparasite semble avoir pris de la hauteur sur le sujet), vous continuez a raisonner liens (folow/nofollow), pagerank, et autre cuisine SEOesque plus ou moins obsolète ... alors que les moteurs semblent clairement s'engager sur sur une approche complètement nouvelle ...

L'ambition des moteurs n'est plus de se contenter de renvoyer une liste de pages prétendument les plus pertinentes (par rapport à des critères aujourd'hui complètement dévoyés) pour une requête donnée ... Les moteurs classent en plus ces pages en fonction de critères bien plus subjectifs voire personnels ...

Voila des années que Google collecte des infos comportementales (instrumentation des moteurs, émergence de nombreux outils "gratuits", etc ...), géographiques (Google Map/Earth, Google adresse, géolocalisation, ...) et commerciales, même les avis donnés utilisateurs sont pris en compte ... maintenant que les réseaux sociaux leur permettent de collecter des infos sociales quasiment sans effort (les utilisateurs font eux mêmes le boulot), il ne vont pas se gêner pour les exploiter ...

Il me semble assez clair que les moteurs de recherche ont changé de braquet, ils se constituent des bases de connaissances sur chaque sites internet grâce à tous leurs outils largement répandus (il suffit de voir la masse d'informations dont ils disposent sur chaque site (GWT n'étant que la partie visible de l'iceberg) et sur chaque utilisateur (réseaux sociaux, géolocalisation, historisation, tools bars, and co) ... le "moteur" se comportant comme un moteur d'inférence dans un contexte de plus en plus orienté IA ... il ne manque qu'une interface vocale en langage naturel pour que la réalité rejoigne la SF ... :wink:
 
WRInaute passionné
Le truc évident est que certains vont s'activer à fond sur FB et Twitter dans l'espoir d'améliorer leur ranking.
Ce n'est pas exactement comme ça qu'il faut le voir.
Un signal d'algo ne se limite pas forcément à un raisonnement binaire comme l'explique Cendrillon.
Là où Google a été très malin, c'est qu'il a vite vu que la popularité liée au PageRank était un cul-de-sac. Il a laissé webmasters et référenceurs s'engouffrer dans la course aux backlinks, tandis qu'une popularité parallèle se dégageait grâce au profiling du visiteur.
Encore une fois, rien de nouveau car je suis sur le truc depuis 2004 ou 2005. Google n'a pas attendu FB & Twitter pour bosser là dessus. L'annonce de Matt Cutts est très maline car elle donne un os à ronger, alors que la problématique est beaucoup plus complexe que cela.
 
WRInaute accro
hello Laurent,

Comme tu le sais, cela fait déjà quelques temps que j'observe Google pousser ses pions dans le domaine de la collecte d'information ... Jusqu'à présent Google utilisait ces retours d'information pour recaler ses algorithmes et sa modélisation du web. Mais comment modéliser un système dont TOUS les paramètres sont dévoyés par une horde de SEO (et nous sommes bien placé pour le savoir) ?

Je suis maintenant convaincue que toutes ces informations collectées ne sont plus destinées à recaler ses algos mais a établir une immense base de connaissance sur les sites et sur les utilisateurs ... Couplé à un puissant moteur d'inférence, le moteur de recherche s'apparenterait alors à un système expert spécialisé dans la recherche d'information ...

Jusqu'à présent les moteurs ne se basaient que sur le microcosme internet lui même pour mesurer la pertinence de ses résultats, avec pour résultat que des sites de parfaits ignares sur un sujet (mais disposant d'un bon SEO) arrivaient fréquemment loin devant ceux de plus grands spécialistes du domaine ... La nouvelle approche devrait permettre d'atténuer (à défaut de corriger) ces travers ... mais jusqu'à quand ? le "veux tu être mon ami ?" ou "veux tu échanger un tweet" remplaceront ils bientôt le "veux tu échanger un lien ?" ...

Qu'en penses tu ?
 
WRInaute passionné
Plop Cendrillon,

C'est exactement ça!

Le gros enjeu (et ça dépasse la cadre de Google) concerne le critère de réputation/notoriété/autorité qui est difficile à évaluer.
Il n'y a qu'à regarder les outils comme Klout qui donne un pseudo indice sur la réputation d'un compte Twitter.
Le brevet décortiqué par Bill Slawski dans son billet que j'ai traduit (lien dans mon post plus haut) est très intéressant sur ce point. Il s'agit justement d'évaluer le degré d'autorité de personnes qui annotent les pages Web. C'est très spécifique, mais très révélateur en même temps de la voie vers laquelle se dirige Google (et bien d'autres).

Lorsque j'avais appris en 2005 cette notion d'odeur de l'internaute travaillée par Google, il s'agissait plutôt d'une corrélation directe avec le concept du PageRank. En 2010, leurs ingénieurs superstars n'ont pas chômé et ce que j'appelle le PersonRank aurait la bonne intention de nous faciliter la recherche d'information.
Pour l'instant, Google est encore idiot puisqu'il ne comprend pas ce qu'il lit. A partir de ce constat (on dirait que le moteur sémantique restera longtemps dans les cartons à cette échelle), le profiling/PersonRank permet de mieux servir de l'info en fonction de mes particularités et mes intentions.
Si je tape "Lincoln" alors que je suis étudiant en histoire, peut-être qu'il me servira plutôt le président américain assasiné. Si je suis concessionnaire automobile, ça sera la marque de voiture. Si je prépare un voyage aux USA, ça sera la ville de Pennsylvanie.
Pour l'instant, c'est pas encore ça.

Tiens, un autre truc intéressant sur lequel bosse Google nous permettrait de trouver l'information sans la chercher. Tu as inscrit dans ta ToDo qu'il faut acheter une boîte de chocolats à ta maman pour aller la voir dans 10 jours (date inscrite dans ton calendrier). Tu es en train de conduire pour te rendre à un rendez-vous 2 jours avant le déjeuner avec maman. Ton smarphone Androïd est évidemment allumé et Google va t'annoncer spontanément qu'il y a un excellent chocolatier à 3 rues d'ici qui te permettrait d'aller acheter le cadeau tout en étant à l'heure pour ton RDV.

Puis faut pas se leurrer, le gros spam Black Hat SEO marche toujours à merveille. On peut la jouer fine en travaillant sur les critères de notoriété et autorité, alors que bourriner strictement la popularité (backlinks) se révèle encore gagnant.
 
WRInaute accro
thickparasite a dit:
Tiens, un autre truc intéressant sur lequel bosse Google nous permettrait de trouver l'information sans la chercher. Tu as inscrit dans ta ToDo qu'il faut acheter une boîte de chocolats à ta maman pour aller la voir dans 10 jours (date inscrite dans ton calendrier). Tu es en train de conduire pour te rendre à un rendez-vous 2 jours avant le déjeuner avec maman. Ton smarphone Androïd est évidemment allumé et Google va t'annoncer spontanément qu'il y a un excellent chocolatier à 3 rues d'ici qui te permettrait d'aller acheter le cadeau tout en étant à l'heure pour ton RDV.
Absolument ... et il est bien là le nerf de la guerre : aujourd'hui le système de publicité contextuel (source de la quasi totalité des revenus de google) se base sur le contenu de la page que tu parcours pour choisir la pub qu'il va te servir, se basant sur le fait que la page parcourue est "très probablement pertinente" par rapport a ce que recherche ou parcours ... mais imagine la puissance du système si en plus il pouvait tenir compte de ton(tes) profil(s) :

- elle fait un régime -> pas de pub de sucrerie mais plutôt des pub de produits amaigrissants ...
- elle est enceinte -> des pubs pour nouveaux nés ...
- elle est fan de tel chanteur/acteur -> des annonces de spectacles ou des pub de billetterie en relation ...
- il n'aime pas tel société/marque/produit/autre (rayez la mention inutile) et il l'a dit et répété sur "facetweeandco" -> éviter telle ou telle pub ...
- et ainsi de suite ...
 
WRInaute accro
thickparasite a dit:
Le truc évident est que certains vont s'activer à fond sur FB et Twitter dans l'espoir d'améliorer leur ranking.
c'est clair ... le simple fait de lire ceux qui se plaignent du fait que les liens provenant de réseaux sociaux soient en nofollow suffit à s'en convaincre ... :D
 
WRInaute accro
Cendrillon a dit:
se base sur le contenu de la page que tu parcours pour choisir la pub qu'il va te servir, se basant sur le fait que la page parcourue est "très probablement pertinente" par rapport a ce que recherche ou parcours ... mais imagine la puissance du système si en plus il pouvait tenir compte de ton(tes) profil(s) :
il le fait déjà plus ou moins, car il tient compte de ton historique de navigation pour adapter les pubs proposées
 
WRInaute accro
Leonick a dit:
il le fait déjà plus ou moins, car il tient compte de ton historique de navigation pour adapter les pubs proposées
Certes Leonick, les données comportementales sont effectivement les premières à avoir été collectées par Google, informations qu'il commence à utiliser ... mais imagine ce qu'il pourrait faire :

- s'il savait combien tu as d'enfants et leurs âges respectifs pour la rentrée scolaire ...
- s'il connaissait les dates d'anniversaires de tes proches ...
- s'il connaissait ta date d'anniversaire de mariage et le genre de cadeaux que préfère ta femme/mari ...
- s'il connaissait tes destinations de voyages favorites ...
- et ainsi de suite ..

(informations qu'il a peu de chance de trouver dans ton historique de navigation) ... :wink:
 
Nouveau WRInaute
Cette discussion est passionnante,et je suis surpris de savoir que vos recherches
depuis 4/5 ans laissaient à penser ce que vous 'ressentez' ajd.
Par contre je ne comprends pas bien l'assurance de vos propos.
Je croyais que les robots GG travaillaient dans l'absolu secret et à vous
lire on peut penser que vous avez déja découvert (vérifié) certaines
pistes nvelles du travail de ces robots?
Diriez vous avoir une bonne assurance dans vos propos ou restez vous dans l'attente de
confirmations de vos théses?

Pour moi, je 'bourrine' dans les annuaires et ne me plains pas de mon réf.
je viens d'attaquer FB avec une page fan et vais suivre ç ade prés sur GG analytics..
je débute et vous prie de m'excuser pour mes questions 'infantiles'.
 
WRInaute accro
portier a dit:
Pour moi, je 'bourrine' dans les annuaires et ne me plains pas de mon réf.
ah ah ah et comment crois tu que les "techniques de ref" que tu considères aujourd'hui comme acquises sont nées ? Combien d' "hypothèses" d'abord considérées comme spéculations débiles sont aujourd'hui considérées comme les "seules vérités" du ref ?

portier a dit:
Diriez vous avoir une bonne assurance dans vos propos ou restez vous dans l'attente de
confirmations de vos théses?
Si tu attends une confirmation de Google (ou de qui que ce soit d'autre), tu risques d'attendre longtemps ... L'intérêt des ingénieurs de Google est bien entendu que leurs travaux restent secret (non parce qu'ils pensent être meilleurs que les autres mais pour conserver un peu d'avance) ... mais contrairement à ce que certains semblent penser, les ingénieurs de Google ont des cerveaux "très proches" de ceux de n'importe quels autres ingénieurs ... l'état de l'art dans les domaines de l'électronique (capacités de calcul), de l'informatique (Os, algorithmie, langages, ...), des mathématiques, etc et leurs limitation sont les mêmes pour tout le monde (si si même pour Google) ...

Alors comment fait on pour décoder le travail "secret" de Google ? En ce qui me concerne, je pense qu'il y a pour cela quatre étapes fondamentales :

1) Bien connaitre Google, ses méthodes de travail sa façon de déplacer ses pions ... certains d'entre nous le suivent depuis près de 10 ans),
2) Avoir une vision suffisamment globale (mais détaillée) de l'état de l'art dans un certain nombre de domaines clés (mathématiques, Informatique fondamentale, linguistique, langages, OS, réseaux, technologies informatiques, etc ...). Bien sûr personne ne peut se revendiquer spécialiste dans tous les domaines, et c'est là que le travail communautaire prend toute son importance ... la puissance de l’intelligence collective est capable de miracles ...
3) S'informer et savoir écouter, lier, recouper ce qui est dit par les uns et les autres : communication de Google et des autres, fuites, vision des uns et des autres (des sites comme ceux de thickparasite y contribuent largement), ..., en faire une synthèse mais au final se faire SA PROPRE idée sur le sujet (contrairement aux revendications des uns et des autres, il n'y a pas d'autorité sur le sujet et personne ne peut raisonnablement s'en revendiquer. Au final et face aux résultats tu seras seul !
4) expérimenter (tu trouveras une rubrique test très complète de tests sur ces "techniques de ref" que tu estimes comme "confirmées", les nouvelles arriverons je l'espère), tester encore et encore ... et des sites comme WRI ou WMH en France contribuent largement à ce travail de mutualisation de l'effort et à leur diffusion) ...

Comme tu le vois c'est un travail long, fastidieux et difficile, alors si tu attends une liste de "techniques" validées et prêtes à l'emploi ... tu risques d'attendre longtemps ... Par contre si tu veux participer et partager tes idées et travaux personnels : bienvenue au club !
 
WRInaute passionné
@portier :

En plus de ce que dit @Cendrillon, on arrive quand même à choper directement ou indirectement des infos émanant de Google.
Avec le temps, on se forge un réseau qui atterrit inévitablement vers une ligne directe avec Dieux... heu pardon Google.
Pour être plus précis, de mon côté, c'est en Irlande que ça se passe.

Par contre, je ne prends jamais pour argent comptant des données divulguées par les commerciaux Adwords qui sont pourtant bombardés de questions techniques.

Que ça soit pour Google ou n'importe quelle autre société, à partir d'un certain moment, il faut aussi sortir de derrière son PC pour bosser le vrai réseautage "terrestre". Les "amis" ou "contacts" Facebook & Twitter n'ont pas toujours une portée maximale.

Une dernière remarque à ce sujet. Lorsque tu fais du référencement de manière intense depuis assez longtemps, tu vas arriver à t'imprégner de l'algorithme. N'oublie pas que c'est qu'une formule mathématique. Ton cerveau est capable de bien plus. Ensuite, c'est facile de "comprendre" ce que l'algo veut.
Reste une zone floue qu'on nomme souvent "effet de bord" et c'est inhérent à tout programme informatique; ça s'appelle un bug. Cela se transmet quand un truc bizarre arrive à un site qu'on ne puisse expliquer.
Google possède un algo par couches. C'est-à-dire que des centaines de formules mathématiques sont plaquées les unes sur les autres (il serait impossible d'avoir une seule formule qui soit modifiée en permanence). Ce sont les fameux filtres dont on parle souvent. Là où l'analyse est compliquée réside dans le fait que ces filtres ne sont pas appliqués uniformément sur l'index. Par contre, tu penses bien que l'interconnexion entre toutes ces formules présentent souvent des effets de bord ou plus simplement des bugs.
En plus, Google est toujours en train d'innover. Il n'y a pas une seule requête où plusieurs tests ne soient pas en place (dixit Google dans cet article de Wired - passionnant d'ailleurs - A lire absolument).
Pour ça que les grandes tirades prétendant établir des vérités à partir de petits tests me font rire. Le reverse engineering du dimanche est dangereux. Même SEOmoz qui fait des corrélations entre sont index Linkscape et Google prennent toujours des précautions pour annoncer les résultats.

Quand à ta remarque sur le référencement via annuaires, j'ai aussi bien indiqué que le spam marchait toujours très bien. Prends un Xrumer, LFE ou AutoSplog et tu arriveras aussi bien à tes fins.
Cela n'empêche qu'il existe tout de même une réelle évolution de la recherche d'information. Nous en sommes seulement à la Préhistoire.
 
WRInaute impliqué
merci pour avoir donné votre vision des choses cendrillon et thickparasite.
je pense comme vous (enfin mon sentiment n'était pas aussi élaboré que le votre, je débute) mais çà me semble tout a fait logique que google tienne compte des liens nofollow.
par exemple, un gars à fait une vidéo sur youtube qui est deuxième dans ma thématique et en description il a mit le lien de mon site. et bien je suis presque sur que çà contribue aux yeux de google à rendre mes autres liens doffolow plus naturels donc plus efficaces.
par contre une question:
vous dites que les liens d'annuaires sont toujours efficaces pour le positionnement. mais vu que l'annuaire n'est pas dans ma thématique, à quoi est du l'efficacité? au peu de page rank grapillé?
 
WRInaute accro
alex84 a dit:
merci pour avoir donné votre vision des choses cendrillon et thickparasite !
Attention, ce ne sont que nos visions respectives des choses, sert en mais ne les prend pas pour argent comptant ... :roll:

alex84 a dit:
je pense comme vous [...] çà me semble tout a fait logique que google tienne compte des liens nofollow ...
Je crois que l'on ne s'est pas bien compris ... je pense que la mesure de popularité par les "liens" et l'indicateur correspondant qu'est le pagerank ont du plomb dans l'aile. En effet quand Google a mis en place cet indicateur révolutionnaire qu'est le pagerank, les liens alors encore naturels étaient des indicateurs réellement représentatifs de la popularité d'une page (et par extension d'un site) ... Cet indicateur est aujourd'hui tellement dévoyé que Google n'en tient quasiment plus compte : reconnaissons que n'importe quel webmaster un peu dégourdi est capable d'obtenir des centaines voire des milliers de liens (tous aussi factices les uns que les autres) en quelques heures ...

Cet indicateur présente un autre défaut rédhibitoire, il est basé sur le vote quasi exclusif du microcosme des webmasters qui s'entendent comme larrons en foire pour dévoyer le système (les liens nofollow ne faisant qu'amplifier cette situation) ... pire cet indicateur est devenu l'objet d'un commerce (auquel Google ne peut même pas prétendre) ...

Dans ces conditions, Il parait non seulement vraisemblable voire logique que Google se détourne des webmasters (un peu trop partiaux) au profit des internautes pour évaluer la popularité réelle des sites (une première expérience avait été faite avec le concept appelé "pull SEO" ou "pooling Google") ... un peu à la manière d'un libraire qui commence par mettre en valeur les livres les mieux cotés par l’intelligentsia et finit par réorganiser ses rayons en fonction des ventes réelles ...

Pour conclure, j'ai le sentiment profond que les moteurs commence à atténuer l'impact des paramètres intrinsèques aux sites trop facilement manipulables par les webmasters et s'appuyer un peu plus sur l'avis des internautes eux mêmes. Et pour cela faire émerger un nouveau paramètre (encore un) que thick appelle PersonalRank et que j’appellerais plus modestement la Notoriété ! Bref Google tiens compte de l'avis des internautes mais l'avis de certains plus "appréciés" que d'autres aurais plus de poids ...
 
WRInaute impliqué
bonjour à tous,
dans l'optique d'un éventuel apport de facebook au niveau du référencement, vaut-il mieux avoir un grand nombre de fans sur sa page facebook avec un lien vers son site, ou vaut-il mieux avoir un grand nombre de j'aime pour son site?
car j'ai mis une like box sur mon site, et mon nombre de fans augmente bien, mais je me posais la question de la remplacer par un bouton j'aime pour l'url de ma home page.
dans l'article de WRI il est mentionné que google prend en compte de nombre de fans pour le poids à attribuer aux liens présents sur la fan page, mais je me demande si un grand nombre de j'aime pour un site ne serait pas encore plus efficace qu'un grand nombre de fans? car si j'ai bien saisis, quand quelqu'un clique sur j'aime, l'url du site apparait sur son mur?
qu'en pensez-vous?
 
WRInaute passionné
Bien sûr que le Like est un signal intéressant.

Sinon, je relisais ce thread et c'est marrant comme l'actualité nous a donné raison, notamment Cendrillon et moi.
 
WRInaute accro
Les moteurs lisent-ils le like ?
Pas si évident. D'ailleurs Facebook envoie-t-il le nombre de like s'il est demandé par un moteur ?
En plus on peut mettre le like de la page, le like de la page fan, le like du site, voire d'une autre page ou d'un autre site. Le javascript ou l'iframe. Qu'est-ce qui est pris en compte ?
On navigue encore dans la brume à ce sujet.
 
WRInaute impliqué
thickparasite a dit:
Bien sûr que le Like est un signal intéressant.

Sinon, je relisais ce thread et c'est marrant comme l'actualité nous a donné raison, notamment Cendrillon et moi.
quand tu dis like, tu veux dire bouton j'aime/url du site ou bouton j'aime/url de la page facebook (donc nombre de fans)?
car j'hésite entre les deux.
 
WRInaute impliqué
Tous les feedback sont à mon sens pris en compte par GG : il faut avoir un maximum d'interactivités avec les internautes (j'aime, commentaires, publications sur le mur...). Et comme d'hab il faut surement que ce soit diversifié. Je pense que GG n'apprécierait pas une page à 30 000 fans où jamais personne ne réagit sur le mur par exemple.
 
WRInaute passionné
J'apporte ma modeste contribution à ce sujet, en une seule question ?
C'est quoi cette couillonnade ?

Non sans déconner, je viens de recevoir ce mél :
« Bonjour david96,

Vous avez inscrit les sites ci-dessous dans l'annuaire WebRankInfo et nous vous en remercions. Par contre, notre équipe a remarqué que vous n'avez pas indiqué vos profils de réseaux sociaux (Facebook, Twitter, Google+ ou même LinkedIn, Viadeo, YouTube, Google Profils). Nous vous conseillons de mettre à jour votre fiche pour renseigner ces informations, ce qui augmenterait la visibilité de vos profils de réseaux sociaux […] »

je remercie webrankinfo pour ce qu'il m'a apporté, mais de la à promotionner ce genre de réseaux sans aucun intérêt pour le référencement, ça me laisse pantois…

Ha bâ tiens deuxième question :
Vous êtes sérieux là ?
 
WRInaute impliqué
david96 a dit:
J'apporte ma modeste contribution à ce sujet, en une seule question ?
C'est quoi cette couillonnade ?

Encore 1 qui dénonce, qui critique mais sans aucune justification à ses propos. A part "tu déconnes" ou "tu pars en couilles", il est claire que ta contribution à ce sujet est plus que modeste...
 
WRInaute accro
Il vaut mieux éviter, c'est un peu le moyen-âge là :/
Le rapport entre réseau sociaux et référencement ne date pas d'hier
 
Olivier Duffez (admin)
Membre du personnel
tu as raison, ignore totalement les réseaux sociaux. Les moteurs de recherche disent officiellement qu'ils en tiennent compte et nombre de référenceurs respectables (SEOmoz par exemple) y accordent de l'importance, mais ça doit en effet être de la foutaise.
 
WRInaute passionné
Ce qui est sûr, c'est que vous leur faites un bon référencement, ça y'a pas débat, c'est du sûr. :lol:

Pour ma part j'me suis toujours tenu à ma ligne de conduite. Faire un site pour mes visiteurs. Je ne vais pas mettre des « j'aime » ou encore « touche moi là» car ça pourrait soi disant booster mon référencement.
Je trouve cela ridicule et j'ai toujours été honnête envers moi même et les internautes qui visitent mes sites… Tant pis si j'ai tort ; question d'éthique.
 
WRInaute impliqué
Alors ne dis pas que c'est une couillonnade. Dis juste que tu ne veux pas rentrer dans ce jeu là. Mais penser que d'utiliser les réseaux sociaux n'est pas internaute friendly c'est oublier un peu vite le nombre de tes internautes qui aiment Facebook et Twitter (pour GG+ on est tous plus ou moins d'accord sur la mascarade actuelle).
 
WRInaute passionné
Je te l'accorde, j'ai manqué de respect et m'en excuse ; c'était pas bien malin de ma part. Mea culpa.
 
Discussions similaires
Haut