This Page Is Valid XHTML 1.0 Strict! - et le référencement ?

Mes pages sont valides et...

  • ça change rien

    Votes: 0 0.0%
  • si ça change quelquechose, je l'ai pas remarqué

    Votes: 0 0.0%
  • j'ai l'impression que ça aide, mais je ne sais pas pourquoi

    Votes: 0 0.0%
  • c'est important, et ça marche assez bien

    Votes: 0 0.0%
  • si je te dis que je suis premier sur "The requête", ça te suffit comme explication ?

    Votes: 0 0.0%

  • Total voters
    0
WRInaute discret
en effet, certains navigateurs ne supportent pas à 100% les standards ( un site valide s'y afficherait mal ), cependant un site valide s'affiche correctement sur un navigateur qui supportent à 100% les standards ( opera, safari, konqueror )

mais le fond de ce que je veux dire, c'est qu'il y a un besoin d'uniformiser les langages web, que tout le monde se mettent aux mêmes normes, c'est beaucoup plus facile niveau support de ces langages ( OS, navigateurs ) et pour l'évolution de ces technologies
je sais bien qu'un site pas valide peut bien s'afficher sur tous les navigateurs ( yen a plein sur la toile ), et qu'un site valide peut mal s'afficher ( sur un navigateur qui implémente mal les standards comme IE )

la validation w3c, c'est purement sémantique et non pratique ( affichage correct etc ... ), ca je le sais bien, si tu relis mon post précédent, l'intérêt que je trouve a la validation c'est cette "normalisation" des langages web ( t'as mal compris ce que je voulais dire je crois )

bref l'interet que je trouve a la validation, c'est pas dans le domaine technique comme tu l'as justement souligné, mais elle aiderait vraiment à faire progresser le domaine des langages web pour les raisons ci-dessus
 
WRInaute accro
RomsIW a dit:
un SEO Score de 90%
Ca correspond à quoi ce score ?
chucky a dit:
en effet, certains navigateurs ne supportent pas à 100% les standards ( un site valide s'y afficherait mal ), cependant un site valide s'affiche correctement sur un navigateur qui supportent à 100% les standards ( opera, safari, konqueror )
c'est un peu plus complexe que cela. un site valide xhtml/css peut très bien mal passer sur un bon navigateur, parce qu'il aura été prévu pour une définition donnée et une taille définie. Et si l'internaute utilise d'autres réglages, alors là ça ne va plus :cry:
 
WRInaute discret
c'est une "note" donné a ton site point de vue référencement ( ca doit a peu pres être basé sur les mêmes critères qui font le PR : backlinks, mots-clés ..... )
 
WRInaute discret
Je relance un peu le sujet :p

Je voulais, dans un même ordre d'idées, si entre le strict et transitionnal il pourrait y avoir une différence ?

J'ai tout codé de facon valide mais certaine page qui me paraisse importante ne sont qu'en transitionnal car j'ai eu beaucoup trop de mal à mettre ces pages en strict.

Je voudrais savoir si sa vaut la peine que je tente de tout passer en strict ou pas ?

Merci.
 
WRInaute passionné
la peine ça dépend. ça peut grave flatter ton ego ;)

le principe est que le strict conditionne tout : tout doit être très formatté, très "logique", très renseigné (description des tableaux, des formulaires, etc.)

Grosso modo, c'est bien pour l'accessibilité (machines qui interprètent les sites internet, soit pour le braille, soit pour la lecture).

Pour le référencement, ça change pas grand chose. Si tu es en transitionnal, c'est déjà très très bien.
 
WRInaute discret
De part mon expérience et mon site en www, je suis maintenant convaincu qu'un site bien structuré jouit d'un positionnement amélioré.
Je suis en tout cas très satisfait de mon référencement, ce site étant mon mètre étalon dans le domaine.
 
WRInaute passionné
si l'on voulait vraiment tester le cas, on pourrait maintenant faire le même site sur deux domaines dont les différences serait un dash (-) et un underscore (_) dans le même nom de domaine, et une structure différente.

Pour ma part, je ne suis pas encore sûr de cela, je pense qu'une bonne structure ne permet en somme que de créer une bonne linéarité entre les éléments et de rendre la page moins lourde à charger pour les moteurs, surtout lorsque l'on sait que ça peut être un facteur bloquant
 
WRInaute impliqué
J'ai que 85% :cry: sur le domaine tools...

En ce qui concerne le strict, j'essai de m'y soumettre mais les codes java posent pas mal de problème.

Et en php, sur ma refonte ce n'est pas aisé non plus avec les includes...

Est-ce réellement un gain ou simplement pour préciser que nous avons fait un effort de rédaction du code ?
 
WRInaute passionné
pcamliti a dit:
J'ai que 85% :cry: sur le domaine tools...

En ce qui concerne le strict, j'essai de m'y soumettre mais les codes java posent pas mal de problème.

Et en php, sur ma refonte ce n'est pas aisé non plus avec les includes...

Est-ce réellement un gain ou simplement pour préciser que nous avons fait un effort de rédaction du code ?
non, il faut que le code soit un minimum propre pour une meilleure interprétation par des robots, mais on n'est pas à l'attribut près comme le demande le "strict" quand même..
 
WRInaute discret
J'ai lu que la validité W3C n'est pas 100% obligatoire. On peut toucher le haut à savoir une dizaine d'erreurs. Qu'en pensez vous?


Frédéric
 
Nouveau WRInaute
tutela a dit:
J'ai lu que la validité W3C n'est pas 100% obligatoire. On peut toucher le haut à savoir une dizaine d'erreurs. Qu'en pensez vous?


Frédéric

La validité W3C n'est pas obligatoire du tout, ni à 100% ni à 10%. Tout est question de besoins et de moyens.
 
Nouveau WRInaute
Bonjour,

Mon avis sur la question : Programmer propre et valide w3c n'est une obligation pour personne.

Programmer propre est plus une philosophie, une fierté personnelle, et surtout un gage de pérennité pour les pages. Effectivement qui nous dit que demain, les moteurs ne vont pas durcir leurs algorithmes et déclasser les pages programmées à l'aide de cms peu scrupuleux ou par des programmeurs qui se balancent des recommandations comme de l'an 40 ?

Cependant, ces propos existentiels étant mis à part, il y a quand même à mon avis quelques points positifs et importants à prendre en compte.

- Si vous souhaitez utiliser javascript dans vos pages (j'entends au sens de faire véritablement une interface dynamique pas quelques aller-retour avec votre db), si vous avez un code à faire rendre l'âme au w3c, il y a de fortes chances que vous n'arriviez pas à contrôler le dom de votre page.
- On peut penser que les robots des moteurs arriveront à indexer plus simplement une page si celle-ci respecte les standards. Effectivement, si une balise <hx> n'est pas fermée, ou si une balise <strong> est incluse dans une autre balise <strong>, etc... une balise bloc dans une en ligne, etc... le robot risque de galérer pour différencier le contenu important du reste...
- Et puis, de toute façon, si vraiment on veut aller plus loin dans la réflexion : il n'est pas plus dur aujourd'hui de coder propre et en respectant les recommandations que de faire un code deg***. Le souci est que le web a grandi trop vite et que chacun, sous différents prétextes, à fait n'importe quoi et qu'aucune norme ne règle ça, il existe juste des recommandations. Si un programmeur java s'éloigne un tant soit peu des normes du langage, le compilateur refuse le code. Imaginez un instant que les recommandations du web deviennent des normes comme en java, que va t'il se passer ? Et puis, il arrive aussi très souvent qu'il faille reprendre un code que l'on a écrit il y a plusieurs mois. Est-ce que vous vous êtes déjà replongé dans un code écrit de votre collègue avec les pieds les yeux fermés ? Et bien je peux vous dire que ça donne envie de programmer propre !!!
 
WRInaute accro
seb92400 a dit:
Si un programmeur java s'éloigne un tant soit peu des normes du langage, le compilateur refuse le code. Imaginez un instant que les recommandations du web deviennent des normes comme en java, que va t'il se passer ? Et puis, il arrive aussi très souvent qu'il faille reprendre un code que l'on a écrit il y a plusieurs mois. Est-ce que vous vous êtes déjà replongé dans un code écrit de votre collègue avec les pieds les yeux fermés ? Et bien je peux vous dire que ça donne envie de programmer propre !!!
ce n'est pas parce qu'un programme passe la validation du compilateur qu'il sera bien codé. Ce n'est pas parce qu'un programme est codé en objet qu'il sera obligatoirement bien codé.
Ce sont 2 choses bien différentes.

Et puis, faire du XHTML strict mais l'envoyer en text/html, c'est une hérésie.
Du XHTML strict doit être renvoyé en application/xhtml+xml
Tiens, voilà une page valide strict xhtml et pourtant, le code c'est du grand n'importe quoi et dont la maintenance (si c'était appliqué sur un site complet) serait quasi impossible et, avec le passage à la ligne à l'intérieur de balises, risque de poser problème à de nombreux moteurs
 
Nouveau WRInaute
Leonick a dit:
ce n'est pas parce qu'un programme passe la validation du compilateur qu'il sera bien codé. Ce n'est pas parce qu'un programme est codé en objet qu'il sera obligatoirement bien codé.
Ce sont 2 choses bien différentes.

Et puis, faire du XHTML strict mais l'envoyer en text/html, c'est une hérésie.
Du XHTML strict doit être renvoyé en application/xhtml+xml
Tiens, voilà une page valide strict xhtml et pourtant, le code c'est du grand n'importe quoi et dont la maintenance (si c'était appliqué sur un site complet) serait quasi impossible et, avec le passage à la ligne à l'intérieur de balises, risque de poser problème à de nombreux moteurs

Je suis bien d'accord, et c'est bien pour ça que j'ai employé le terme "programmer propre". Je connais de bons programmeurs procéduraux qui programment nettement mieux que des programmeurs objet.
Pour le code que tu as transmis, oui, c'est clair, il y a nettement mieux, déjà en séparant les différents contenus de la forme... c'est un minimum.

Ceci étant dit, programmer propre ET être valide au w3c pour du xhtml est un plus (voir mon message précédent) et n'est pas plus compliqué que de ne pas le faire. Et personnellement, si deux programmeurs me présentent un travail identique, l'un bien programmé et l'autre n'importe comment, je prendrais celui qui programme propre, quitte même à ce qu'il soit un peu moins performant. Il faut reconnaitre la qualité d'un travail bien fait. Les normes ne sont pas la pour ennuyer le monde mais pour apporter une qualité de travail. As-tu déjà entendu parler du web sémantique ?

Sinon, autant utiliser des balises <div> et <span> partout et appliquer des styles à tout va pour mettre en page... A méditer !
 
WRInaute accro
seb92400 a dit:
Pour le code que tu as transmis, oui, c'est clair, il y a nettement mieux, déjà en séparant les différents contenus de la forme... c'est un minimum.
oui, mais le but de cette page est, justement, de montrer que l'on peut avoir un code "crade", non facilement maintenable et pourtant valide xhtml 1.1 sctrit et, surtout, envoyé en application/xml.
Et je ne sais pas si tu l'as déjà remarqué, mais on peut avoir du code valide xhtml qui s'affiche bien en text/html, mais qui refuse de s'afficher envoyé en application/xml et il suffit de peu de chose pour ça
 
Nouveau WRInaute
Pour en revenir au référencement,
je ne puis dire si la norme peut avoir de l'influence, je pense qu'en se qui concerne le leader mondial
la question ne se pose pas en revanche peut être qu'il en est autrement avec les moteurs comme yahoo! ou bing.
Fin bref toujours est il que google lui même ne respecte pas la norme HTML5 qui semble utiliser d'après le validateur W3C.
 
Nouveau WRInaute
Merci Madrileño, les présentations sont faites : https://www.webrankinfo.com/forum/t/les-membres-qui-le-souhaitent-se-presentent.17387/page-12

Une question m'est revenue en tête. Comment les moteurs procèdes pour se dépatouiller entre toutes les normes
S'agit il d'un tableau de version pour chaque critères du genre :

??
Code:
Analyse d'image:
       HTML 4.0 =>         <img src=... >
       HTML 5.0 =>         <img src=... >
       XHTML 1.0 Strict => <img src=... alt="$"   />

Analyse de saut de ligne:
       HTML 4.0 =>         <br>
       HTML 5.0 =>         <br>
       XHTML 1.0 Strict => <br />
 
WRInaute passionné
MTroy a dit:
Merci Madrileño, les présentations sont faites : https://www.webrankinfo.com/forum/t/les-membres-qui-le-souhaitent-se-presentent.17387/page-12

Une question m'est revenue en tête. Comment les moteurs procèdes pour se dépatouiller entre toutes les normes
S'agit il d'un tableau de version pour chaque critères du genre :

??
Code:
Analyse d'image:
       HTML 4.0 =>         <img src=... >
       HTML 5.0 =>         <img src=... >
       XHTML 1.0 Strict => <img src=... alt="$"   />

Analyse de saut de ligne:
       HTML 4.0 =>         <br>
       HTML 5.0 =>         <br>
       XHTML 1.0 Strict => <br />
rien à voir et beaucoup plus abstrait que ça ;) il regarde le tout, décomposent la page en linéaire, puis en blocs sémantiques, gardent le contenu d'un côté et l'environnement de l'autre, décomposent le contenu pour en sortir la substance... ils ne regardent pas balise par balise mais les remplaçent par un équivalent sémantique.

Pour l'exemple du IMG, s'ils le voient, ils analysent la référence et, si disponible, récupèrent le ALT, mais aussi le texte à côté de l'image (je sais pas comment..)
 
Nouveau WRInaute
Merci RomsIW, c'est ce que je voulais savoir.
Si ta description du procédé est exacte, alors la norme importe peu
et n'affecte aucunement l'optimisation du référencement.
Du moins s'il ne s'agit que de parsing.
 
WRInaute passionné
MTroy a dit:
Merci RomsIW, c'est ce que je voulais savoir.
Si ta description du procédé est exacte, alors la norme importe peu
et n'affecte aucunement l'optimisation du référencement.
Du moins s'il ne s'agit que de parsing.
disons que la subtilité est dans la capacité à parser. Plus les sites rentrent dans un cadre strict de programmation, plus ils sont faciles à parser et moins il y a de limites dues à des libertés prises par les intégrateurs.. logique !
 
Discussions similaires
Haut