Règles du forum

Attention ce forum est destiné avant tout à ceux qui découvrent le référencement. Les membres qui auront l'amabilité de répondre à leurs questions sont priés de rester courtois, polis, indulgents, patients et pédagogues... Merci d'avance !

Par ailleurs, inutile d'utiliser ce forum uniquement pour obtenir des liens vers vos sites, les liens sont désactivés pour le référencement (nofollow).

Messages: 3

Enregistré le: 7 Avr 2017

Message le Ven Avr 07, 2017 0:23

Bonjour amis référenceurs! :)

Je suis actuellement en cours de création d'un site web en react, en utilisant un routeur coté client : 'react-router'

Mon site Web se compose d'une seule page qui contient plusieurs sections statiques ainsi qu'une section dynamique.

La section dynamique est sous forme de 'tabs' qui affichent un contenu spécifique pour chaque tab

Chaque contenu se compose de (très) nombreuses informations optimisées SEO et pourrait avoir sa propre page, avec son propre titre, description, H1, H2, Facebook / Twitter Card etc.

Je précise qu'au clic d'un tab, l'url de la page s'actualise pour refleter le titre de la tab, ainsi que la balise title, description, et les cartes réseaux sociaux.

À la recherche de la meilleure expérience utilisateur que je pourrais offrir à mes visiteurs, je souhaite vraiment render le contenu d'onglet à l'intérieur de ma section

Mais comment puis-je dire au robot "Hey! Ignore la page d'acceuil quand elle n'est qu'un wrapper pour mon contenu d'onglet!"


Je suis vraiment confus quant à la façon de rendre ça User friendly tout en permettant l'utilisation de la hierarchie SEO avec les meilleures performances SEO
  (Comme s'il s'agissait d'un site Web à plusieurs pages)
Haut
4 Réponses
Messages: 3

Enregistré le: 7 Avr 2017

Message le Mer Avr 12, 2017 8:53

Bonjour!

Près de 500 vues sur mon thread mais personne pour m'eclairer :(

Pouvez vous m'indiquer où poster mon problème afin d'augmenter mes chances d'obtenir une réponse? :)

Merci !
Haut
Messages: 518

Enregistré le: 26 Fév 2008

Message le Lun Mai 08, 2017 17:17

bonjour,

de passage donc ca fera remonter le sujet.
Je ne sais pas si j'ai compris, mais ce serait un site one page, plutot une application, avec un bon gros javascript qui charge les contenus.
Et bien c'est simple, comme indiqué, tout se passe au niveau client si c'est du javascript (on ne va pas rentre dans les détails avec node et autre trucs serverur javascript)
Et donc tout comme les bots n'analysent pas le comportement de paintbrush, ils n' analysent pas les applications web et tout le charabia des frameworks facebook ou autre.
Après s'il y a des contenus qui présentent un intérêt : on peut toujours faire un sitemap avec des urls qui affichent des résultats de l'application web : http://trucurl/?p=1&p2=3&p3=56.... blabla .
Pour résumer : si le bot ne peut pas trouver l'url pour cause de javascript alambiqué, il faut lui fournir un sitemap ou tout bricolage qui emmènera le bot ou on veut.
Le seo, c'est avant tout apprivoiser les bots pour qu'il aillent au bon endroit et reviennent gentiment le plus souvent possible.
(Le webmarketing c'est avant tout apprivoiser les visiteurs pour qu'il aillent au bon endroit, reviennent gentiment quand ils ont décidé d'acheter et cliquent sur le bouton commander.
La sécurité des sites webs, c'est apprivoiser les malmenant et les guider pour qu'ils aillent au bon endroit (un piège ou la sotrie)et ne reviennent pas même même plus méchamment. )
Et pour reconclure : comment le routing dynamique impacte pas le référencement : c'est simple, s'il n'y pas de stratégie à coté , on pourrait répondre : il le plombe -mais il n'y a rien à plomber le référencement dynamique coté client n'existe pas.
Haut
Messages: 3

Enregistré le: 7 Avr 2017

Message le Ven Juil 07, 2017 10:47

Merci pour cette réponse!
De ce coté, j'ai mis à jour mon projet afin de permettre le server side rendering, relativement à l'url demandée. Les robots ne changent donc de page qu'en requetes GET? ils ne simulent pas de click?
Haut
Messages: 12203

Enregistré le: 23 Nov 2005

Message le Ven Juil 07, 2017 10:54

Les bots sont dans une certaine mesure capable de crawler les sites full JS. Google a annoncé plusieurs fois qu'il n'était plus nécessaire de faire du prerender (qui s'apparente à du cloaking) pour faciliter le crawl : https://webmasters.googleblog.com/2015/10/deprecating-our-ajax-crawlin ... cheme.html

Mais dans les faits tout n'est pas aussi rose : https://goralewicz.com/blog/javascript-seo-experiment/
Haut