Messages: 11

Enregistré le: 15 Nov 2007

Message le Mar Jan 08, 2008 2:32

On dit qu'il vaut mieux éviter les id de sessions dans les url que l'on souhaite indexer, au risque de faire perdre la boule aux robots qui trouveraient à chaque passage sur une page des url différentes pour un même contenu.

Je me suis donc penché sur ce que faisaient 2 gros sites d'ecommerce pour lesquels je me souvenais avoir pendant la navigation des url à rallonge, alors même que je n'avais pas créé de compte : test donc sur Amazon, le tout puissant et Fnac pour dire de regarder un français...

Pour commencer, une petite commande site: dans google et je découvre ce à quoi je m'attendais : les url des fiches produits indexées sont bien propres...

Ensuite, historique/cookies bien effacés

1/ je démarre par amazon, en tapant directement l'url de leur home, www.amazon.fr

- 1er clic sur le lien vers le dvd Pirates des Caraibes mis en avant, et voilà l'url de la page sur laquelle j'arrive:
http://www.amazon.fr/gp/product/B000XCX ... d_i=405320
(je vous avais parlé de rallonges, là c'est même imbuvable!)

- Je recommence cette fois en activant l'User Agent Googlebot (http://www.webrankinfo.com/forums/viewtopic_33943.htm )
et là j'arrive sur la même fiche mais avec une url bien allégée, celle qui est finalement indexée : http://www.amazon.fr/Pirates-Caraibes-J ... B000XCXGLK

2/ Je refais la même manip sur le site de la fnac
- avec user agentswitcher désctivé :
http://www4.fnac.com/shelf/article.aspx ... 9c3&UID=...

- avec user agent switcher réglé sur googlebot:
http://www4.fnac.com/shelf/article.aspx ... 5&PID=6484

Indéniablement, ces 2 sites réagissent différemment que je sois "googlebot" ou moi-même...
Autant avec Fnac, l'url est simplement tronquée, avec Amazon, elle est carrément réécrite, avec le titre "Pirates-Caraibes-Jusquau-bout-monde" dans l'url. (or des mots clés dans l'url c'est toujours un petit plus pour se positionner...)

Celà ne s'arrête pas là pour Amazon :
- avec user agent désactivé, je clique sur la fiche produit "ocean 13", je reviens sur la fiches pirates des caraibes et là un nouvel élément apparait "Articles que vous avez consultés récemment" : Ocean 13"

- même chemin avec user agent sur googlebot, et là pas d'historique affiché, pas de "Articles que vous avez consultés récemment"

:arrow: Au delà de réécrire les url en y ajoutant des mots clés, amazon présente aussi un contenu différent à googlebot (un contenu allégé de l'historique du surf)
:arrow: quant à fnac, le contenu des pages est identique, seule l'url est tronquée des id de sessions pour googlebot...


Je ne leur jette pas la pierre, cette façon de faire n'est pas là pour tromper le visiteur (quoique amazon réécrit ses url quand même pour les optimiser) mais est-ce à proprement parler du cloaking?

Et si non, si parmi vous il y a des pros de cette méthode, vous pouvez la faire partager?
Haut
13 Réponses
Messages: 2181

Enregistré le: 6 Jan 2005

Message le Mar Jan 08, 2008 2:39

Il ne faut pas confondre le cloaking passif qui ne fait qu'épurer une page/url afin de facilité une indexation et cloaking hard, qui consiste à dupper les robots en leur affichant vraiment différent du contenu normal ou truffé de suroptimisation.

en clair, d'un coté tu as la force, et de l'autre, le coté obscur :wink:
Haut
Messages: 18372

Enregistré le: 5 Juin 2006

Message le Mar Jan 08, 2008 3:02

Par ailleurs, on peut considérer qu'éventuellement le dit cloaking d'Amazon le désavantagerait en lui faisant perdre des liens internes sur l'historique du surf.

Quoi qu'il n'y a là aucun "modification" puisque cela veut dire simplement que le googlebot n'a pas d'historique de navigation
Haut
Messages: 1925

Enregistré le: 29 Mar 2007

Message le Mar Jan 08, 2008 3:08

ouais, enfin ça lui permet de caser une super op de mot cle...
-http://www.amazon.fr/Pirates-Caraibes-Jusquau-bout-monde/dp/B000XCXGLK
Haut
Messages: 2823

Enregistré le: 10 Juil 2006

Message le Mar Jan 08, 2008 10:28

si je me souviens bien pour la fnac je pense que c'est notre ami Olivier :wink:
et c'est du cloaking intelligent ... pas dupant ...
Haut
Messages: 2261

Enregistré le: 10 Avr 2005

Message le Mar Jan 08, 2008 10:52

Une reco quand même.
Haut
Messages: 529

Enregistré le: 1 Mar 2004

Message le Mar Jan 08, 2008 13:01

effectivement ce sujet est fort intéressant ! A priori ce type de procédé n'est pas dans les guidelines de google (au sens strict du terme) même si pas nocif pour son index.
Haut
Messages: 23108

Enregistré le: 19 Avr 2002

Message le Mar Jan 08, 2008 13:28

raljx a écrit:si je me souviens bien pour la fnac je pense que c'est notre ami Olivier :wink:
et c'est du cloaking intelligent ... pas dupant ...
Ah en voilà un qui a bien écouté pendant ma formation ! Oui en effet c'est moi qui me suis occupé de leur problème de référencement. Indexer la bagatelle d'un million de livres avec des identifiants de session, c'était pas simple surtout quand les fichiers sitemaps n'existaient pas. La solution utilisée a le mérite d'être ultra simple à mettre en place.

J'estime que le cloaking est acceptable si le contenu ne change pas (ou très peu : par exemple sur ce forum Googlebot ne voit pas le bouton "répondre"). Amazon fait déjà plus de changements... Jusqu'où peut-on aller ? Seul Google doit pouvoir répondre.
Haut
Messages: 3106

Enregistré le: 5 Sep 2003

Message le Mar Jan 08, 2008 15:13

Je crois d'ailleurs que Google a d'autres crawlers sous un nom de user-agent plus commun (firefox ou IE) pour détecter le cloacking. Google a surement une liste des sites qui détecte le user-agent et qui adapte le contenu en fonction de celui-ci. En tout cas, pour eux, c'est très facile à faire.

Si le cloaking est utilisé de manière à faciliter l'accessibilité au contenu par les crawlers, je pense que GG n'y verra aucun problème. Il n'y a pas d'intension de "tromperie".

Par contre, si il est utilisé de manière à présenter à Google une version "trop" optimisée de la page ou carrément avec un contenu différent (par exemple, optimiser pour des requêtes standards pour en faire ressortir des pages X), là évidemment, il y a intentions flagrantes de vouloir manipuler les moteurs de recherches, donc là, forcément il y a sanction.

Maintenant, en ce qui concerne les variables de session, oui, c'est toujours un problème dès qu'on veut sauvegarder une session de panier ou que l'on veut tracker le comportement des visiteurs. Par contre, je m'étonne toujours que ces grandes sociétés n'aient pas trouver des parades simples :
- les sessions de panier n'ont besoin d'être créées qu'au premier ajout au panier, pas à la premère connexion sur le site
- les sessions de tracking peuvent être conservées dans des cookies (au pire si l'utilisateur n'a pas activé ses cookies, elles passent dans l'URL, mais cela ne concernerait qu'une minorité de clients)
Alors peut-être qu'il y a des rasions que je ne connais pas mais pour le coup, je n'en vois aucune.

Car ces sessions ont la facheuse manie de pourrir les URLs et de rendre compliquer le copier/coller d'URL sur des forums ou blogs qui leur amènerait pas mal de bons backlinks.
Haut
Messages: 116

Enregistré le: 10 Fév 2007

Message le Mar Mai 27, 2008 17:50

Un autre cas à vous soumettre

Je travail pour une société qui souhaite faire ce genre de redirection en identifiant en amont les ip des visiteurs et en les triant si ces derniers sont des abonnées ou non.

Le contenu sera présenté en fonction de l'internaute (un contenu pour prospect ou un contenu pour abonné).

Qu'en pensez-vous?
Haut
Messages: 4218

Enregistré le: 27 Déc 2004

Message le Mar Mai 27, 2008 17:58

et lorsque l'ip change ?
Haut
Messages: 116

Enregistré le: 10 Fév 2007

Message le Mar Mai 27, 2008 18:31

C'est à dire, l'ip utilisé proviens de la box. Mon client est un fournisseur d'accès internet et je n'en dirais pas plus votre honneur ;p
Haut
Messages: 4218

Enregistré le: 27 Déc 2004

Message le Mar Mai 27, 2008 18:35

Ha ok le client est un fournisseur d'accès et peut donc te donner des ranges d'ip clientes, dans ce cas d'accord, sinon c'est bancal comme solution.
Haut
Messages: 23

Enregistré le: 25 Juil 2007

Message le Jeu Juin 26, 2008 19:41

raljx a écrit:si je me souviens bien pour la fnac je pense que c'est notre ami Olivier :wink:
et c'est du cloaking intelligent ... pas dupant ...


hello
je ne comprends pas. Ce n'est pas du cloaking. On a des URL différentes pour des contenus proches et légèrement différents. C'est du duplicate content plutôt, non ? Dans le cas de la fnac, on présente à Google une URL tronquée et les URL réelles ont des sessions Id avec des contenus identiquesà la personnalisation près (votre dernier choix de DVD était etc.)

cloaking : une URL et des contenus différents en fonction de qui on est : un bot Google ou un humain.

ai je raté une étape ??

Merci
Haut