Règles du forum

Attention ce forum est destiné avant tout à ceux qui découvrent le référencement. Les membres qui auront l'amabilité de répondre à leurs questions sont priés de rester courtois, polis, indulgents, patients et pédagogues... Merci d'avance !

Par ailleurs, inutile d'utiliser ce forum uniquement pour obtenir des liens vers vos sites, les liens sont désactivés pour le référencement (nofollow).

Messages: 148

Enregistré le: 19 Oct 2016

Message le Mar Avr 18, 2017 13:52

Bonjour,

J'ai une page html dont le code source ressemble à ça :
Code: Tout sélectionner
<div class="container">
      <div class="row">
          <div class="content block3-1"></div>
          <div class="content block3-2"></div>
          <div class="content block3-3"></div>
          <div class="content block3-4"></div>
      </div>
...

Et ensuite il y a du js qui appelle des fichiers .txt contenant du texte pour remplir les "content block".
Ce qui fait que le texte est présent sur la page quand on y accède mais n'est pas présent dans le code source de cette même page.

Les robots de Google ne lisent que le code source de la page, n'est ce pas ?
Et donc d'un point de vue SEO, cette technique est à oublier ?
Si vous avez des articles qui en parle, j'aimerai bien vos sources.

Merci pour vos réponses.
Cordialement.
Haut
4 Réponses
Messages: 8554

Enregistré le: 14 Mai 2003

Message le Mar Avr 18, 2017 15:31

Ils lisent aussi le contenu généré en JS.
Haut
Messages: 148

Enregistré le: 19 Oct 2016

Message le Mar Avr 18, 2017 16:17

Bonjour Spout,

Merci pour ta réponse, il n'y a donc aucun inconvénient pour le référencement d'utiliser cette technique ?

Cordialement.
Haut
Messages: 3286

Enregistré le: 3 Mai 2004

Message le Mar Avr 18, 2017 19:34

Bonjour,

Google est capable de lire et d'interpréter le JavaScript, mais lui compliquer la vie en le forçant à décoder du JavaScript, ce n'est pas optimiser son référencement.
Haut
Messages: 530

Enregistré le: 26 Fév 2008

Message le Ven Avr 21, 2017 10:47

difficile à savoir si vraiment ils arrivent à lire et interpréter le javascript, ce serait vraiment pharaonique et très couteux en temps d'analyse des pages. x milliards de pages * un langage qui a 500 façons différentes d'obtenir la même chose.

Pour revenir à l'exemple, dans les applications web par exemple, l'un des objectifs est d'obtenir des liens (c'est du cas par cas : exemple simplement par un sitemap) vers des url qui correspondent au contenu qu'on va charger (c'est une sorte de site statique bis).
Toute la navigation, le chargement des widgets et autres machins n'a de toutes façons aucun intérêt du point de vue SEO.

Pour résumer : on sait qu'aujourd'hui les sites web ont du javascript à outrance associé à du CSS à outrance.
Mais rien n'a changé, c'est toujours du web. Donc un site, c'est d'abord de l'hypertext bourrin qu'on transforme en sapin de noel voir meme en site 360 angular zope plone mvc .net core truc.. voir même en site single page. Et la vision bourrin du site est pour le robot !!! ce n'est pas du cloacking, il faut que si on désactive le javascript dans le browser on obtienne bien le site bourrin

Une appli web, ce n'est pas un site web. Donc par essence elle ne peut vraiment pas être compatible SEO. Du coup on fabrique autour des blogs, des news, des sites satellites ou tous les artifices webmarketing pour créer du web bourrin
Haut