Oui ou non : Googe ne tient compte que du premier lien identique ?

Nouveau WRInaute
Amis référenceurs bonjour,

Je sais que lorsque Google détecte dans une page deux liens identiques (URL strictement similaire), Google ne considère que le premier lien. Pourtant, sur beaucoup de forums, sites et ouvrages, peu de personnes n'en tiennent compte.

Quelle est le niveau de "pertinence" de cette information ?

Alex.
 
WRInaute accro
Retourne le problème et pose toi la question de savoir où se trouve l'intérêt (pour le visiteur comme pour un bot) de disposer deux (ou plus) liens identiques dans une même page (si on enlève le cas particulier des liens de navigation de base comme l'accueil, la rubrique / section, les anchors de navigation internes à la page, ...)
Quelle est le niveau de "pertinence" de cette information ?
Sans des tests relativement poussés il n'est pas possible (je pense) d'affirmer quoi que ce soit. Un test poussé ne sera pas forcement divulgué si il donne un avantage a son concepteur. De plus il perd de son intérêt (comme une faille) dès qu'il deviens public.

Ensuite si tu prend en compte ma première remarque et le fait que GG fait évoluer ses règles a très grande vitesse (du moins par rapport à nos facultés d'adaptation "faciles" quand on gère pas que 3/4 pages) il me semble logique de penser que miser sur plusieurs liens est inutile sachant que miser sur un lien est de toute façon une valeur sure (ou si les liens n'ont plus de valeur, le web existe plus)

Alors une question à mon tour : pense tu que cela ai une grosse importance ?
 
WRInaute accro
là question est : est-ce utilie pour l'internaute ? si oui, ne t'occupes pas de ce que gg est sensé en penser. Si non, tu joues, tu gagnes ou tu perds...
 
Nouveau WRInaute
Merci de ta réponse.

zeb a dit:
Alors une question à mon tour : pense tu que cela ai une grosse importance ?
Oui. Surtout lorsque l'on gère des milliers de page, je pense que le travail de maillage interne peut être moins efficace si l'on sait cela. Exactement comme lorsqu'on sait qu'un lien "nofollow" est du PR jeté en l'air. Par contre, nous sommes bien d'accord que c'est de la chirurgie, du travail de précision.

Alors oui je sais, j'entends déjà les partisans du "pensez comme si votre site était réellement réservé uniquement à l'internaute, et vous verrez que votre site sera bien référencé sur Google", ou encore "Le PR ne sert plus à rien, pensez à votre contenu et tout ira bien". Cette manière de fonctionner à du bon, mais aussi du mauvais, surtout dans les domaines à très grosse concurrence. Mais ce n'est que mon avis bien sûr. Il y aura toujours des débats infinis sur ce sujet...
 
Nouveau WRInaute
Leonick a dit:
là question est : est-ce utilie pour l'internaute ? si oui, ne t'occupes pas de ce que gg est sensé en penser. Si non, tu joues, tu gagnes ou tu perds...
Dans les domaines à forte concurrence, justement, beaucoup de référenceurs jouent et gagnent. À nous de pouvoir mieux jouer. Je ne dis pas de sombrer dans le black hat, qui est très risqué. Mais je pense que l'attitude sage et sincère des référenceurs que prône Google est d'une hypocrisie totale. Si les référenceurs étaient tous sincères, perdriez-vous du temps à inscrire votre site dans des annuaires de qualité et à communiquer à travers des CP ? Si le système de BL n'existait pas, personne ne s'en soucierait... et l'échange de liens n'existerait pas (même si le BL fait partie d'un réflexe naturel de webmaster). Je pense donc que tout référenceur doit plus ou moins influencer ses méthodes de référencement en fonction du système du moteur lui-même. Personnellement, rien ne doit être laissé au hasard. Mais toujours en gardant l'ergonomie et la qualité du site Web bien sûr, il est hors de question d'appauvrir ou d'amochir un site Web pour des questions de référencement. Je garde simplement à l'esprit toutes les données sur le fonctionnement du moteur...
 
WRInaute accro
_alexG_ a dit:
Si les référenceurs étaient tous sincères, perdriez-vous du temps à inscrire votre site dans des annuaires de qualité et à communiquer à travers des CP ?
ça sert à quoi tout ça ? :mrgreen:
_alexG_ a dit:
Si le système de BL n'existait pas, personne ne s'en soucierait... et l'échange de liens n'existerait pas
ah bon, dans ce cas, pourquoi effectuait-on des échanges de liens avant l'avènement de gg ? et si les BL (y compris en échange) permettait d'échanger des visiteurs, hein ?
 
WRInaute accro
_alexG_ a dit:
Mais je pense que l'attitude sage et sincère des référenceurs que prône Google est d'une hypocrisie totale.
Au moins la dessus il y a pas besoins de test :D
Si ça peut t'aider (j'en doute), perso je ne multiplie pas les liens vers des cibles unique dans une même page car je pense que :
* ça "perd" le visiteur.
* ça n'apporte pas de plus d'avoir 3 anchors différents pour une même cible.
* le nombre de liens d'une page est un critère aussi important que le reste donc je préfère en avoir 4 différents que 3+1
* tu peut (pour le maillage interne) avoir une stratégie d'anchors variés pour une même page cible sans que les supports soit le même (a y penser idem pour le liage externe).

Ensuite j'ai vue passer des test public qui démontrait l'utilité d'avoir des liens multiples (avec ancre) vers une unique page, pour la faire "sortir" sur plusieurs expressions.
Et j'ai ensuite entendu dire (fortement martelé plusieurs fois) que ça ne marchait plu (info ou intox ?) pas de test de démonstration.
Bref avec la stratégie une cible un lien j'en avais rien a f***** du coup.

En revanche si un jour GG doit se pencher sur ce cas (si il l'a pas déjà fait) ça va faire mal ...
Pour finir pense tu que cet avantage sur un secteur concurrentiel ne soit pas largement noyé par une stratégie de net-linking plus intense ?
 
WRInaute accro
en plus, ne pas oublier que ce qui peut passer pour des sites déjà bien établis et anciens, peut faire couler un autre site plus récent, même s'il a moins forcé que l'autre...
 
Nouveau WRInaute
Leonick a dit:
ça sert à quoi tout ça ? :mrgreen:

J'ai même pas envie de te répondre.

Leonick a dit:
ah bon, dans ce cas, pourquoi effectuait-on des échanges de liens avant l'avènement de gg ? et si les BL (y compris en échange) permettait d'échanger des visiteurs, hein ?

Si tu as bien lu ce que j'ai écrit, je n'ai pas dit le contraire. Je ne peux pas te répondre autre chose que de ré-essayer de comprendre ce que j'ai dit. :mrgreen:
 
Nouveau WRInaute
@zeb
Très intéressant.

zeb a dit:
_alexG_ a dit:
En revanche si un jour GG doit se pencher sur ce cas (si il l'a pas déjà fait) ça va faire mal ...
Pour finir pense tu que cet avantage sur un secteur concurrentiel ne soit pas largement noyé par une stratégie de net-linking plus intense ?

Certainement. Mais j'ai constaté que dans des secteurs concurrentiels, les stratégies des premiers concurrents sont les mêmes. Je te pose donc une question : comment faire pencher la balance dans ce cas, si ce n'est pas ce genre de détails ?

@Leonick
Je n'ai pas bien compris ce que tu veux dire par là. Tu peux développer un peu ? :)

EDIT
J'ai oublié une petite explication essentielle. Votre logique est de dire qu'un site bien pensé est un site sans double lien. C'est vrai que dans la majorité des cas, ça n'a pas lieu d'être.
Mais dans d'autres...
Si l'on prend par exemple un simple blog qui a un résumé des différents nouveaux articles sur sa page d'accueil. Certains vont mettre un lien vers l'article depuis le résumé (contenant plusieurs éléments) sur :
- le titre
- l'image qui accompagne l'article
- et parfois même sur le chapô (on sera tous d'accord pour dire que c'est une idée pour le moins inefficace d'un point de vue référencement, mais pas forcément d'un point de vue ergonomique)
Ce genre de blogs devraient donc revoir ce type de liens multiples en sachant cela.
 
WRInaute accro
_alexG_ a dit:
Certains vont mettre un lien vers l'article depuis le résumé (contenant plusieurs éléments) sur :
- le titre
- l'image qui accompagne l'article
- et parfois même sur le chapô.
Attention, opter pour une stratégie lien multiples sur l'ensemble d'un site ou sur une page c'est pas la même histoire.
Le cas que tu donne est le cas particulier de l'accueil ou de pages type catégorie, ce n'est pas tout le site et c'est orienté "confort d'utilisation".
Ensuite tu mentionne "des blogs en général" où la concurence structurel est pauvre (il y a pas 36 systèmes de blogs utilisé) donc il est compréhensible que ces cas soit redondant et compris par GG comme une forme d'optimisation utilisateur et pas comme une forme d'optimisation SEO (GG sait très bien distinguer les différents système utilisée en analysant le code html, les urls etc ...).
Ensuite un lien sur image est parfaitement identifiable comme un plus de navigation et ne peut être considéré comme une "ruse SEO".
Il est pas certain que ces mêmes liens multiples soit pris en compte de la même façon sur un contenu brut par exemple.

Perso je me penche que sur peu de points pour l'optimisation du site en interne.
* Mes pages sont elles toutes accessible naturellement (moins de 2 clics, max 3 de l'accueil)
* Mes pages "techniques" sont elle bien liées en interne genre la page sur les babanes est elle bien liée sur des articles traitant de fruits sur l'anchor banane et synonymes ?
* ma page quand je la regarde sans CSS est elle lisible ? (titre, sous titre, paragraphes etc (la sémantique))
* la page est elle légère et le code HTML bien dissocié du code applicatif (JS) et descriptif (CSS)

Ensuite c'est surtout du liage externe, le temps, la qualité des sites référents qui fait la position.
 
WRInaute accro
_alexG_ a dit:
@Leonick
Je n'ai pas bien compris ce que tu veux dire par là. Tu peux développer un peu ? :)
disons que certains sites, avec de l'ancienneté, se permettent de bourriner comme des fous, mais si toi, avec un site moins trusté, tu tentes de faire, ne serait-ce qu'un quart de ce que l'autre site a fait, tu te retrouves pénalisé. les footer avec des centaines de liens dans d'autres thématiques, peuvent ne pas pénaliser certains sites, alors qu'en faisant ça sur un nouveau site, c'est direct les fonds des serp
zeb a dit:
Ensuite c'est surtout du liage externe, le temps, la qualité des sites référents qui fait la position.
je préfère travailler sur le contenu et le liage interne plutôt que de devoir disséminer mon contenu sur d'autres sites :wink:
 
Nouveau WRInaute
@ zeb
Tu n'as pas parlé de l'aspect sémantique du contenu, j'imagine que c'est intrinsèque ?

Je suis assez étonné que tu te concentres essentiellement sur ces points-clé uniquement. N'ayant pas beaucoup d'expérience dans le domaine (contrairement à toi), je vais tester cette manière de fonctionner.

Je passe du coq à l'âne, mais j'ai un doute depuis pas mal de temps avec le point que tu as évoqué :
* Mes pages sont elles toutes accessible naturellement (moins de 2 clics, max 3 de l'accueil)
J'avais effectivement vu que gg prenait en compte ce détail. Mais si le maillage est bien fait au sein d'un site, à quoi servent les sitemaps dans gg webmaster, que tout le monde évoque comme un outil indispensable à tout bon référenceur ? Perso, je fais confiance au crawl de gg, qui est plus qu'efficace.

EDIT
@ Leonick
C'est vrai que l'importance de l'ancienneté est très très importante (critère de confiance d'après ce que j'ai compris). D'ailleurs, tu parles des multiples (centaines de) liens dans le footer. Sommes-nous d'accord pour dire que cette technique d'échange de liens footer - footer n'est pas efficace (même en croisé), et fait pâtir le maillage du site lui-même, surtout depuis que l'emplacement des liens compte ?
Je comprends ce que tu veux dire au niveau de l'importance d'accorder du temps sur les bons critères pour ne pas perdre de temps, et donc, du positionnement.
 
WRInaute accro
zeb a dit:
Retourne le problème et pose toi la question de savoir où se trouve l'intérêt (pour le visiteur comme pour un bot) de disposer deux (ou plus) liens identiques dans une même page (si on enlève le cas particulier des liens de navigation de base comme l'accueil, la rubrique / section, les anchors de navigation internes à la page, ...)

Il y a de nombreux autres cas où cela peut être utile, à commencer par les longs textes, les dictionnaires, les définitions, etc...

_alexG_ a dit:
Oui. Surtout lorsque l'on gère des milliers de page, je pense que le travail de maillage interne peut être moins efficace si l'on sait cela. Exactement comme lorsqu'on sait qu'un lien "nofollow" est du PR jeté en l'air. Par contre, nous sommes bien d'accord que c'est de la chirurgie, du travail de précision.
Le problème c'est que tu as deux inconnues :
1- Google les prend-t-il en compte dans le cas très particulier d'un lien avec anchor à la fin (pour le reste, on est sur qu'il ne les prend pas)
2- Comment les prend-t-il en compte ? Disons que tu as 2 liens vers la même page, et 1 lien vers une troisième page. Au cas hypothétique où Google prend les deux premiers liens en compte, donne t il un poids de 1/3 à chaque lien, ou 1/4 à chacun des deux liens pointant sur la meme page, et 1/2 au deuxième lien ? Et là, tu es dans le noir absolu.
 
WRInaute accro
_alexG_ a dit:
Je passe du coq à l'âne, mais j'ai un doute depuis pas mal de temps avec le point que tu as évoqué :
* Mes pages sont elles toutes accessible naturellement (moins de 2 clics, max 3 de l'accueil)

Je n'en suis pas certaine, loin de là. Le coup de "trois clics" n'a jamais été une règle de référencement, mais une règle d'ergonomie, qui commence d'ailleurs à être battue en brêche.
 
WRInaute accro
_alexG_ a dit:
à quoi servent les sitemaps dans gg webmaster, que tout le monde évoque comme un outil indispensable à tout bon référenceur ?
juste pour connaitre le pourcentage de pages indexées dans gg. pas pour l'indexation en soit. Si tes pages sont mal liées, même en étant présent dans le sitemap, ta page restera, au mieux, dans les tréfonds des serp, mais, plus généralement, pas du tout dans les serp
 
WRInaute passionné
Pour cette règle des 3 clics, disons que ça se tient au niveau seo quand on se rapporte à un référencement "classique", à savoir tous les backlinks sur la home, à chaque descente d'un niveau on perd du jus mais bon ça a évolué, le ref se fait plus uniquement sur l'accueil, on peut facilement balancer du lien interne pour pallier une architecture trop profonde.
 
WRInaute accro
Effectivement, et puis les sites dynamiques font que le nombre de clics va évoluer quand une page passe peu à peu dans les profondeurs... sans qu'elle soit pénalisée pour autant
 
WRInaute accro
_alexG_ a dit:
Tu n'as pas parlé de l'aspect sémantique du contenu, j'imagine que c'est intrinsèque ?
zeb a dit:
* ma page quand je la regarde sans CSS est elle lisible ? (titre, sous titre, paragraphes etc (la sémantique))
Si si au contraire. Et pour voir ce que donne une page débarrassée de ses grigri "design" je desactive le CSS du site pour regarder sa forme dépouillée.
fran6 a dit:
Pour cette règle des 3 clics, disons que ça se tient au niveau seo quand on se rapporte à un référencement "classique", à savoir tous les backlinks sur la home, ...
Je n'évoque cette notion de "porté" des pages à 2/3 clics uniquement dans l'esprit d'une navigation pratique et fonctionnelle, ce n'est pas le bénéfice SEO qui me préoccupe la dedans. Je cherche surtout qu'un internaute puisse facilement "traverser" le site pour aller d'un contenu à un autre quand il a compris la structure du site.
 
Discussions similaires
Haut