comportement des robots d'indexation sur page dynamique

Nouveau WRInaute
Bonjour,
Je débute sur un projet et j'essai de prévoir comment faire pour optimiser le réferencement , mais la j'ai plusieur problématique qui apparaisse, et je ne trouve pas de réponse :(

En fait lorsque un visiteur se rendra sur le site, celui-ci sera "geolocalisé" et les informations le concernant (par rapport au ieu) seront donc affiché (exemple: les horaires de la mairie...), donc lorsque l'internaute arrive sur la page d'accueil, il est "geolocalisé", cette "geolocalisation" est ensuite utilisé pour rechercher dans la bdd le contenu a affiché sur la page, mais comment fonctionneront les robot de référencement???

Je ne voit pas du tout comment fonctionnera le robot des moteurs de recherche, et donc je ne voit pas trop comment faire actuellement pour prévoir un réferencement correcte.

Si quelqu'un a des idées, ou a déja était confronté a ce genre de probléme, je vous écoute trés attentivement :)

Merci de votre aide :)
 
WRInaute discret
Bonjour,

Si l'internaute est géolocalisé, cela sera je suppose par son adresse IP ? donc lorsqu'un robot visitera le site, ce sera de même et il ne verra que les contenus relatifs à la localisation de son IP.

A noter que je ne vois pas comment la géolocalisation pourrait permettre de déterminer jusqu'à la commune de l'internaute...

Bonne journée
Laurent
 
Nouveau WRInaute
Merci de cette réponse :)

Pour la géolocalisation, je travail encore dessus, mais d'aprés mais premiére recherche il est possible de localiser une commune.

Par contre pour le probléme des robots d'indexation la sa m'embette pas mal :s car effectivement, tu as confirmé mon idée, soit qu'il sera lui meme géolocalisé, mais d'ou vienne les robots?

Si quelqu'un a d'autre idée/info :)
 
Nouveau WRInaute
Je suis très intéressée par ce sujet, travaillant moi même sur la nouvelle mouture d'un site devant utiliser la géolocalisation.
Je ne m'occupe que de la partie référencement, et l'aspect technique assez complexe qu'impose le recours à la géolocalisation m'échappe un peu je l'avoue...si quelqu'un avait des informations concrètes sur la façon dont marche l'indexation et le référencement des pages géolocalisées avec affichage de données dynamiques, ce serait fantastique.
 
WRInaute discret
Si tu cherches le contenu "géolocalisé" dans ta base de données, j'imagine que les localisations possibles sont énumérées dans ta base, et non infinies. Dans ce cas, il faudrait peut-être faire une page (ou du moins une url) par localisation :

- http://www.example.com/paris
- http://www.example.com/lyon
- Etc.

En incluant chacune de ces pages dans ton site map, et en redirigeant la requête du visiteur vers la bonne page après localisation, tu permets au robot d'indexer toutes les possibilités.

D'un point de vue technique, bien sûr, tu ne gardes qu'une seule page en jouant avec le urlrewriting pour récupérer le paramètre identifiant la localisation dans tes localisations possibles.

Après ça, si les localisations possibles sont "infinies", c'est une autre paire de manche. Mais d'un point de vue logique, à quoi bon référencer l'infini ? (exemple : une localisation par longitude/latitude).
 
Nouveau WRInaute
Je me permets d'intervenir à nouveau sur ce post avec un exemple perso :
Je travaille actuellement sur la refonte du site de lndc.fr (mettre un i après le l et le d). Il existe 92 versions "locales" du site pour 92 villes différentes de france, donc. Chaque version locale reprend exactement le contenu de l'autre, à l'exception d'une partie "annuaire" spécifique à chaque ville.
Je souhaiterais limiter le nombre de pages "dupliquées" et n'utiliser qu'une seule version du contenu générique, et générer le contenu locale par géolocalisation en utilisant des cookies. En gros, tous les dossiers thématiques, par exemple, seraient techniquement disponibles sur lndc.fr, et le contenu local sur montpellier.lndc.fr. Sauf que je ne souhaite pas, pour des raisons évidentes, rediriger l'utilisateur vers la version "générique" du site à chaque fois qu'il consulte un contenu générique, mais le laisser naviguer (ou lui donner l'impression de toujours naviguer) sur le site de montpellier.lndc.fr.

Est-ce que c'est techniquement réalisable, et est-ce que c'est gérable du point de vu du référencement ??

Merci aux âmes charitables qui pourront me répondre, je m'arrache les cheveux sur cette question !
 
Nouveau WRInaute
Merci a vous :)

Effectivement le contenu géolocalisé sera tiré d'une base de donnée.

Le fonctionnement devrait etre comme suis:

- Un internaute se connecte sur la page www.exemple.com
- Il est géolocaliser (ex:paris), et donc directement dirigé vers la pages Paris avec une adresse du type: www.exemple.com/paris/ ou encore en sous-repertoire (ma 1ére idée) paris.exemple.com, quel sont les différences entre ces 2 solutions d'un point de vue référencement, et quel sont les avantages/inconvenient ?

Lorsque le robot viendra sur le site, la géolocalisation de celui-ci ne donnera pas de correspondance et donc il ne sera pas dirigé vers les différentes pages des villes, donc ces la que le site map rentre en jeux, c'est bien sa? En fait plus j'écrit, plus je me dit qu'il faudrait sans doute faire une page d'accueil général (www.exemple.com) en cas de probléme dans la géolocalisation, mais j'ai peur de faire du DC en décrivant le service, effectivement étant donné que les visiteurs seront directement dirigé vers leurs pages "local" je leur décrit également le service... sa va devenir de plus en plus compliqué.... :(


Autre chose, si je prend 2 pages de ville (paris.exemple.com et bordeaux.exemple.com, dans cette syntaxe, ou dans l'autre comme indiqué plus haut), les rubriques seront les meme, les contenus seront les meme mais n'auront pas les meme valeurs (exemple: la rubrique horaire mairie aura comme nom : horaire de la maire de paris, horaire de la mairie de bordeaux, et evidement on indique les horaires), ma question est donc, y a t'il un risque de DC entre les pages des villes ? ou y a t'il une facon de faire pour que chaque ville soit référencer sur les memes rubrique?

Sa fait beaucoup de question :s mais je suis sur que vous pourrez m'aidez a avancer :)
Je vous remercie d'avance :)
 
WRInaute discret
- Entre paris.example.com et www.example.com/paris, j'opterais pour le second choix, mais je ne sais pas si cela nuirait au référencement. Par contre, pour suivre les *.example.com dans Google Analytics, c'est peut-être pas idéal.

- Pour le sitemap, c'est exactement cela.

- Pour la page d'accueil, puisque personne ne restera dessus bien longtemps, c'est peut-être l'occasion d'avoir une description de services plus étoffée (pas sur-optimisée non plus). Personne ne tombera dessus, mais ce n'est pas un piège "illégal" pour autant. Des personnes mieux qualifiées que moi sauront probablement te dire si cela relève du black hat.

- Quoiqu'il en soit, ton problème de duplicate content se posera indépendamment de cette page d'accueil, puisque le texte apparaît dans toutes les pages localisées. Il faut donc étoffer ton contenu localisé pour que la partie dupliquée soit minoritaire.
 
Nouveau WRInaute
Pour le DC, peut être que la solution serait de mettre tous les contenus génériques en noindex, sauf une, pour qu'elle soit référencée. Ou alors préciser quelle est l'URL canonique de référence pour ce type de contenu à chaque fois.
Dans mon cas, je pense passer par du PHP pour aller chercher le contenu générique dans une base de données, à chaque fois que l'utilisateur voudra y accéder. Ca n'empêche pas le Duplicate il me semble, mais c'est sans doute plus simple de gérer ce type de contenu de cette manière, plutôt que de placer le contenu générique sur chaque version du site et le mettre en noindex à chaque fois.
Qu'en pensez-vous ?
 
WRInaute accro
n'oubliez pas ceux qui se connectent depuis un proxy d'entreprise et dont on n'aura pas de vraie géolocalisation car tout l'intranet n'aura qu'une seule ip publique
 
WRInaute accro
Question con: pourquoi dois-tu rediriger le visiteur vers une nouvelle adresse ?

Sa localisation, tu peux la conserver dans la session, et dans un cookie pour la suite... ça t'évite bien des problèmes (duplicate content, cloaking, & co...).
 
Discussions similaires
Haut