Respect des standards du web pour un meilleur référencement

WRInaute accro
M'attachant beaucoup au wc3 pour mon dernier site je m'en suis posé la question suivante...

Et si google surclassait les pages qui respectent le wc3 ?

http://s.billard.free.fr/referencement/ ... erencement
http://openweb.eu.org/articles/pourquoi_standards/


Pour un référencement plus efficace dans les moteurs de recherche

Au niveau de l'indexation des documents Web, le fait de les avoir codés de manière à les rendre conformes aux standards du W3C leur garantit de meilleurs résultats de classement et de reconnaissance, d'où une visibilité accrue dans les moteurs de recherche. Les documents conformes aux standards sont non seulement indexés plus précisément dans les registres grâce à leur structure informationnelle plus logique, mais sont également plus susceptibles de répondre aux attentes des moteurs de recherche, ce qui en favorise l'accessibilité et l'évaluation au moment des prises en charge de classification. En effet, il est beaucoup plus facile pour un algorithme d'indexation de reconnaître un document répondant aux normes qu'un autre qui ne respecte aucune logique de structure.


Que pensez vous de tout ça ?
 
WRInaute accro
Dans ce sens je ne suis pas sur, mais dans le cas contraire c'est vrai !
Un site avec un code si pourri qu'il ferait planter le Validator et ferait pleurer les ayatollahs du XHTML aurait beaucoup de difficultés à bien être référencé...


Donc c'est sur qu'un code clair et respectant un minimum le W3C a de bonnes chances d'être bien "compris" par les moteurs, mais de là à dire qu'un 0 faute au test du Validator est synonyme de 1ere place dans Google, on en est loin ;)
 
WRInaute accro
pareil que TOMHTML.... un site valide ça peut pas faire de mal... mais l'impact par rapport à un site pas valide mais lisible par les robots est nul, aucun doute la dessus. :wink:

tout ce qui compte c'est ce que voit le robot.
 
WRInaute accro
Google ne vérifie donc pas si le code est merdique ou non ?

Il préfère hisser en première position aussi bien les sites qui vont risquer de mal s'afficher sur plusieurs navigateurs que les sites bien codés qui vont s'afficher correctemment et rapidemment pour tout le monde ?
 
WRInaute occasionnel
Nous venons de passer il y a peu un de nos sites au format XHTML ... et nous pouvons dire qu'en moyenne, nos pages sur les requetes sont remontees ... :)

Marc.
 
WRInaute passionné
Dans le sens ou un site valide au norme W3C est mieux codé qu'un site qui ne l'est pas, oui, google surclasse alors le site valide (j'ai du mal avec le francais ce soir)

Bref, un code html propre sans trop d'infractions aux xhtml 1.1 sera forcément plus claire, donc plus apprécié par google!

C'est valable pour le xhtml, pour le CSS, sa n'a aucune incidence!
 
WRInaute passionné
Ohax a dit:
Google ne vérifie donc pas si le code est merdique ou non ?

Il préfère hisser en première position aussi bien les sites qui vont risquer de mal s'afficher sur plusieurs navigateurs que les sites bien codés qui vont s'afficher correctemment et rapidemment pour tout le monde ?

Le fait qu'un site respecte les standards ne signifie pas qu'il s'affichera de la même manière sur tous les navigateurs, bien au contraire ! il faut souvent utiliser des astuces pour avoir un affichage identique.
Un site utilisant des tableaux pour structurer sont contenus aura de bien meilleures chances de le voir de manière identique sur tous les navigateurs.
Seulement respecter les standards c'est avant tout une logique de programmation à laquelle les moteurs sont sensibles.
 
WRInaute passionné
Au-delà d'un problème de standardisation qui n'est à mon avis pas celui des moteurs de recherche, le fait d'utiliser intelligement la semantique (par ex. les fameuses balises <hn> pour les titres et sous-titres) peut sans doute jouer.

Par contre, si j'utilise une balise <h1> pour mettre en avant des expressions clés de ma page sans qu'il s'agisse pour autant de réels titres, sans doute google n'y verra que du feu.

D'un point de vue W3C cela sera pourtant une erreur...
 
WRInaute accro
Donc si je comprend bien on est plus proche des suppositions que du concrets ?

Personne n'est capable de dire à 100% que google vérifie si un site respecte les standars pour le surclasser ou non ?

Pour ma pomme ça me semblerai logique mais concretemment qu'en est-il ?
 
WRInaute impliqué
La validité du code permet juste à une meilleure compréhension des robots! Et la CSS permet de placer les éléments visuellement comme bon te semlbe donc accorder plus d'importance au contenu en mettant le code vers le début!

Sinon je ne pense pas que Google va mieux classer les pages surtout que le site Google est loin d'être valide!
 
WRInaute passionné
Madrileño a dit:
Les standarts aident à un code plus propre donc un contenu plus pertinent de base :|

c'est la raison pour laquel, et je me tue a le dire, le référencement des pages aux normes W3C sont mieux classés! Rien de plus!

Imaginez les ressources serveur qu'il faudrais pour vérifier la validité de chaque page crawlé!
 
WRInaute discret
Ohax a dit:
Donc si je comprend bien on est plus proche des suppositions que du concrets ?

Personne n'est capable de dire à 100% que google vérifie si un site respecte les standars pour le surclasser ou non ?

Pour ma pomme ça me semblerai logique mais concretemment qu'en est-il ?

Un site valide par exemple xhtml, ou c'est structuré avec des divs, des balise sémantiquement correct (h1 pour chaque page, puis h2, h3...) aura forcément un avantage pour le référencement par rapport à un site ou l'on voit des centaines de tableaux, des balises non fermés et une pauvre balise h1.
 
WRInaute accro
Je rappelle la question du topic
Et si google surclassait les pages qui respectent le wc3 ?

Vous avez beau dire, vous avez beau feindre : une page pas codée très proprement mais ayant un PR9 sera mieux placée dans Google qu'une page crée par le W3C lui même et ayant un PR1, par exemple...

Je me répète donc, une page bien codée ça aide (niveau référencement) par rapport à une page mal-codée, mais une page respectant à la lettre le W3C ne sera pas mieux placée qu'une page ne respectant pas tout à fait le W3C.
ça me semble logique, sinon il suffirait de faire tout un site avec 0 fautes au validator pour se retrouver premier sur google quelque soit la requête, tant que les autres sites retournés en résultat seraient non conformes au W3C ...

Le mieux c'est de voir avec Lynx : si c'est compréhensible avec ça, le robot comprendra aussi.
 
WRInaute discret
TOMHTML a dit:
Je rappelle la question du topic
Et si google surclassait les pages qui respectent le wc3 ?

Vous avez beau dire, vous avez beau feindre : une page pas codée très proprement mais ayant un PR9 sera mieux placée dans Google qu'une page crée par le W3C lui même et ayant un PR1, par exemple...

Je me répète donc, une page bien codée ça aide (niveau référencement) par rapport à une page mal-codée, mais une page respectant à la lettre le W3C ne sera pas mieux placée qu'une page ne respectant pas tout à fait le W3C.
ça me semble logique, sinon il suffirait de faire tout un site avec 0 fautes au validator pour se retrouver premier sur google quelque soit la requête, tant que les autres sites retournés en résultat seraient non conformes au W3C ...

Le mieux c'est de voir avec Lynx : si c'est compréhensible avec ça, le robot comprendra aussi.

C'est toi qui ne comprends pas il est bien évident que si une page à PR9 est mal coddée et une autre PR1 est super bien coddé et que il sorte sur la même requète le PR9 passera avant.

On te parle dans le cas ou deux pages sont à peu près équivalentes si google va avoir tendance à choisir la page valide ou non.
On se doute bien que faire une page valide ne propulsera pas dans le top des requètes ultraconcurentielles :p
 
WRInaute accro
ok, alors le mieux serait de faire un test, avec deux fois la même page :
1 avec 0 faute au Validator
l'autre avec des balises pas fermées, etc, mais que sous Lynx ça donne la même chose. Et après on verra ;)
 
Discussions similaires
Haut