Code source et robots Google

WRInaute discret
Bonjour,

J'ai une page html dont le code source ressemble à ça :
Code:
<div class="container">
      <div class="row">
          <div class="content block3-1"></div>
          <div class="content block3-2"></div>
          <div class="content block3-3"></div>
          <div class="content block3-4"></div>
      </div>
...
Et ensuite il y a du js qui appelle des fichiers .txt contenant du texte pour remplir les "content block".
Ce qui fait que le texte est présent sur la page quand on y accède mais n'est pas présent dans le code source de cette même page.

Les robots de Google ne lisent que le code source de la page, n'est ce pas ?
Et donc d'un point de vue SEO, cette technique est à oublier ?
Si vous avez des articles qui en parle, j'aimerai bien vos sources.

Merci pour vos réponses.
Cordialement.
 
WRInaute discret
Bonjour Spout,

Merci pour ta réponse, il n'y a donc aucun inconvénient pour le référencement d'utiliser cette technique ?

Cordialement.
 
WRInaute accro
Bonjour,

Google est capable de lire et d'interpréter le JavaScript, mais lui compliquer la vie en le forçant à décoder du JavaScript, ce n'est pas optimiser son référencement.
 
WRInaute impliqué
difficile à savoir si vraiment ils arrivent à lire et interpréter le javascript, ce serait vraiment pharaonique et très couteux en temps d'analyse des pages. x milliards de pages * un langage qui a 500 façons différentes d'obtenir la même chose.

Pour revenir à l'exemple, dans les applications web par exemple, l'un des objectifs est d'obtenir des liens (c'est du cas par cas : exemple simplement par un sitemap) vers des url qui correspondent au contenu qu'on va charger (c'est une sorte de site statique bis).
Toute la navigation, le chargement des widgets et autres machins n'a de toutes façons aucun intérêt du point de vue SEO.

Pour résumer : on sait qu'aujourd'hui les sites web ont du javascript à outrance associé à du CSS à outrance.
Mais rien n'a changé, c'est toujours du web. Donc un site, c'est d'abord de l'hypertext bourrin qu'on transforme en sapin de noel voir meme en site 360 angular zope plone mvc .net core truc.. voir même en site single page. Et la vision bourrin du site est pour le robot !!! ce n'est pas du cloacking, il faut que si on désactive le javascript dans le browser on obtienne bien le site bourrin

Une appli web, ce n'est pas un site web. Donc par essence elle ne peut vraiment pas être compatible SEO. Du coup on fabrique autour des blogs, des news, des sites satellites ou tous les artifices webmarketing pour créer du web bourrin
 
Discussions similaires
Haut