Messages: 6991

Enregistré le: 9 Jan 2004

Message le Mar Oct 02, 2007 10:10

Hey !

Je commence à m'intéresser sérieusement au XSLT, découvre toute la magie de l'outil, et me pose quelques questions.
Certains ont-il déjà fait des tests de référencement de sites développés avec des templates XSLT interprétés côté client ?
Haut
54 Réponses
Messages: 2289

Enregistré le: 11 Déc 2006

Message le Mar Oct 02, 2007 14:04

kazhar a écrit:Hey !

Je commence à m'intéresser sérieusement au XSLT, découvre toute la magie de l'outil, et me pose quelques questions.
Certains ont-il déjà fait des tests de référencement de sites développés avec des templates XSLT interprétés côté client ?


Je ne peux pas répondre à ta question, mais j'en ai une à te poser :wink:
Je suis en train de lire Développer en Ajax de Michel Plasse, et il introduit ça, donc ce que tu utilises pour apprendre le XSLT m'intéresse, je n'ai pas trouver de truc simple pour le moment.
Haut
Messages: 6991

Enregistré le: 9 Jan 2004

Message le Mar Oct 02, 2007 14:06

Ce que j'utilise, c'est un prof ;)
Je suis actuellement en licence pro "webdéveloppeur", et la semaine est dédiée à tout ce qui tourne autour de XML.
XSLT aujourd'hui; et là, on commence SVG.
Haut
Messages: 2870

Enregistré le: 24 Mai 2004

Message le Mar Oct 02, 2007 14:25

Le site OVH est en XML/XSLT, non ?
Haut
Messages: 6991

Enregistré le: 9 Jan 2004

Message le Mar Oct 02, 2007 14:29

Absolument. Mais avec interprétation côté serveur.
Le XSLT peut être interprété par le client également. C'est le cas des flux RSS feedburner par exemple.
Haut
Messages: 528

Enregistré le: 1 Mar 2004

Message le Mar Oct 02, 2007 20:40

Mon site atiki.com utilise cette techno, regarde un des flux proposés il est mis en forme par xsl (mais il faut regarder avec internet explorer, depuis les dernières versions de firefox le navigateur outrepasse ma feuille de style)

Côté référencement... pas top d'après moi!
Haut
Messages: 6991

Enregistré le: 9 Jan 2004

Message le Mar Oct 02, 2007 20:52

En fait, j'avais dans la vision de ne pas mettre que les flux rss en forme avec XSL, mais de concevoir le site entièrement comme cela.

La question pourrait donc se rapporter à : qu'en est-il de l'indexation de documents xml en tant que pages de contenu ?
Haut
Messages: 183

Enregistré le: 16 Mai 2007

Message le Mer Oct 03, 2007 9:15

Ben je crois que la première question c'est: est-ce que les moteurs vont faire la transformation ou indexer directement (et peut-être ignorer?) la source XML?

J'avoue que je n'en sais rien. Mais il me semble probable qu'ils ne réaliseront pas la transformation (sinon, bonjour le cout de traitement pour les robots... mais c'est peut-être une erreur de ma part?).

Une discussion qui date de 2004 et qui vaut le détour (voir notamment les interventions de Laurent Denis):
http://forum.alsacreations.com/topic-6- ... ement.html

On notera juste, par rapport à cette discussion, qu'Opera 9 supporte XSLT (mais pas XSL-FO), ce qui n'était pas le cas de la version 7.6. À voir cependant du côté d'autres navigateurs, notamment Safari:
http://developer.apple.com/internet/saf ... l#anchor21

À voir aussi pour les versions mobiles des navigateurs (Opera, Safari, autres navigateurs pour smartphones et PDA): la limitation des ressources a peut-être conduit à écarter le support de XSLT?
Haut
Messages: 6991

Enregistré le: 9 Jan 2004

Message le Mer Oct 03, 2007 9:28

Il est sur que les robots ne réaliseront pas la transformation. Je ne veux justement pas qu'ils le fassent. Le but est d'avoir le minimum de balises, et donc de focaliser les robots sur le contenu.
Haut
Messages: 183

Enregistré le: 16 Mai 2007

Message le Mer Oct 03, 2007 10:43

Il faut voir alors comment les moteurs indexent les contenus XML en général:
- tous ignorés?
- tous indexés?
- au cas par cas?

Pour mon site perso, je fil RSS n'est pas indexé par Google semble-t-il, tandis que la version Atom est indexée. Pourtant, les pages pointent depuis belle lurette vers le RSS uniquement. Serait-ce un filtre sur le format RSS, qui ne s'appliquerait pas à l'Atom?

De plus, la version indexée par Google date un peu (aout 2007).

Est-ce qu'on a des résultats RSS dans les recherches classiques sur les moteurs? Ça ne m'a en tout cas pas sauté aux yeux.
Haut
Messages: 15681

Enregistré le: 23 Déc 2003

Message le Mer Oct 03, 2007 13:40

ah tiens, j'ai justement fait une page xml / xlt. niveau referencemnt, je ne sais pas, on peut cacher tellement de choses avec ça que je me demande comment google peut faire le tri de ce qui est affiché et ce qui ne l'est pas ...
Haut
Messages: 22671

Enregistré le: 8 Aoû 2004

Message le Jeu Oct 04, 2007 12:24

l'affichage dans les pages de résultats n'est pas top, car la feuille de style xslt n'est pas appliquée par les moteurs, de même que dans les lecteurs de flux RSS (TB, IE7, ...).
En plus, si on sauvegarde un fichier modifié en xslt, la sauvegarde sera faite avec le contenu fourni et non celui transformé.
A part si on veut effectuer de petites traitements sur une page, genre changer l'ordre de tri, autrement il n'y a aucun intérêt à pomper des ressources au navigateur distant, d'autant plus qu'il faut être sur que cette couche d'abstraction supplémentaire ne va pas introduire d'autres problèmes de compatibilité. :cry:
Haut
Messages: 6991

Enregistré le: 9 Jan 2004

Message le Jeu Oct 04, 2007 12:35

En fait si, il y a un intéret à faire cela.
Réduire les balises au strict minimum, et focaliser uniquement sur le contenu.
Haut
Messages: 22671

Enregistré le: 8 Aoû 2004

Message le Jeu Oct 04, 2007 13:52

voir http://www.google.fr/search?hl=fr&q=inurl%3Arss.xml mais les versions en cache :cry:
Haut
Messages: 2059

Enregistré le: 7 Mai 2003

Message le Jeu Oct 04, 2007 15:31

Je n'ai pas d'experience sur ce sujet mais la question est interesante : en XML tu définis toi même tes balises c'est bien ça ? genre <produit>, <description> etc...

Dans ce cas tu perd le benefice d'une structuration avec les balises HTML standard et il est douteux que les moteurs cherchent à interpreter le sens de balises propriétaires. Je pense donc que ton XML sera référencé à la manière d'un fichier texte, càd uniquement le contenu. Il s'agit là d'une reflexion abstraite, je n'ai pas de données concrètes pour appuyer mes dires.
Haut
Messages: 2870

Enregistré le: 24 Mai 2004

Message le Jeu Oct 04, 2007 16:44

kazhar a écrit:En fait si, il y a un intéret à faire cela.
Réduire les balises au strict minimum, et focaliser uniquement sur le contenu.


Je doute fortement. Il n'a jamais été montré qu'une page épurée rankait mieux.
En revanche, une page bien structurée sémantiquement, oui. Et là, comme Sébastien, je dis que tu perds tout le contexte sémantique de ton contenu en abandonnant les balises HTML.


EDIT : manquait un verbe.
Modifié en dernier par u8086 le Ven Oct 05, 2007 7:41, modifié 1 fois.
Haut
Messages: 2059

Enregistré le: 7 Mai 2003

Message le Jeu Oct 04, 2007 16:50

En effet si uniquement le contenu comptait alors les référenceurs feraient des sites en .txt ;)
Haut
Messages: 1

Enregistré le: 8 Mar 2007

Message le Sam Déc 01, 2007 9:02

kazhar a écrit:Absolument. Mais avec interprétation côté serveur.
Le XSLT peut être interprété par le client également. C'est le cas des flux RSS feedburner par exemple.


Le parsing de XML est super gourmand. Faut faire très attention avec ca. Il vaut sans doute mieux faire la transformation XSLT coté serveur.

Je te conseille de regarder :

http://eu.wowarmory.com/

Ce que du XML/XSLT et ca fait crasher les navigateurs une fois sur deux.

M'enfin au vue du contenu je vois pas comment faire d'autres et simplement.
Bases de données de personnages, d'objets, liste assez importantes etc....
Chaque liste est mise a jour quotidiennement.
Haut
Messages: 114

Enregistré le: 20 Mai 2005

Message le Ven Jan 30, 2009 18:07

Je pense aussi qu'avec des balises custom, le contenu ne peut qu'être mal / pas indexé par les moteurs.

J'ai déjà réalisé des pages, et un site, construits en XML / XSLT, avec transformation côté serveur et j'ai trouvé le concept très intéressant pour intervenir rapidement sur l'affichage des données d'une part, et permettre la rédaction de pages sur un même modèle par des personnes qui n'avaient aucune compétence dans les langages du web ( je pense au HTML / CSS ). Une simple explication sur la signification des balises, un exemple, et c'était tout.

Côté perf, pour autant que je m'en souvienne la transformation était rapide.
Haut
Messages: 52

Enregistré le: 25 Jan 2009

Message le Mar Fév 03, 2009 11:07

ça c'est du déterrage de topic ! c'est en fait un sujet intéressant, mais en ce qui concerne des utilisateurs ne connaissant pas les langages du web, j'en suis venu à la conclusion (pas trop fait chauffer les méninges sur ce coup !) qu'il était plus facile d'utiliser un cms, surtout ceux avec une bonne structure pour le ref, avec un panneau d'administration simple et robuste
Haut
Messages: 1323

Enregistré le: 1 Nov 2006

Message le Mar Fév 10, 2009 20:20

Bonsoir,

Sujet de « haute voltige »...

Je comprend que le XSLT soit une solution techniquement exitante, mais la question du référencement, doit laisser seuls les moteurs de recherche peser dans la balance.

Concernant l'idée de réduire le nombre de balises pour privilégier le contenu : les balises, qui architecturent le contenu, s'opposeraient donc au contenu ? Peut-être tout le contraire, justement... alors pourquoi en avoir peur ? La source d'un document en XML, peut même contenir encore plus balisages que son pendant publiable en HTML (parce que les balises ajoute du sens)

Concernant la question de savoir si les moteurs indexeront le fichier : oui, il l'indexeront, mais en XML, qu'ils indexeront comme du texte. J'ai déjà rencontré le cas. De même que lorsqu'il découvre un code source, un fichier texte, ou même du texte qu'ils auront trouvé dans un fichier executable en téléchargement !

Concernant la question de savoir s'ils indexeront la version transformé : probablement pas. Internet Explorer et Opera, pour ne citer qu'eux, n'ont pas la même idée du XSLT. Alors comment un robot pourrait savoir qu'elle idée du XSLT il devra mettre en oeuvre ? D'ailleurs est-ce que les moteurs de recherche font les substitution d'entités non-standard quand ils en rencontre dans des documents SGML au sens large ? Probablement pas.

Que fait un robot d'indexation : il fait le plus souvent de l'extraction... et non pas de la transformation. Il extraira donc, comme du texte, avec peut-être le risque de voir apparaitre les balises dans la page de résultat de recherche du moteur, ou peut-être encore qu'il y reconnaitra du XML, et préférera extraire le texte en en-retirant les balises au préalable.

Alors je serait tenté de répondre que oui, les moteurs indéxeront, mais pas la version transformée.

Si la version transformée ajoute du texte calculé automatiquement, ou issu d'une inclusion automatique, ces fragments de texte là, seront probablement perdus au yeux du robot d'indexation. Mais si ces fragment ne font pas partie du document lui-même, est-ce bien grave ? De la même manière qu'il est préférable d'utiliser du texte en toute lettre plutôt que de compter sur des substitution d'entité, il faudra seulement prendre soin de s'assurer que tout ce qui fait partie du document, est effectivement inclus dans le fichier source du document, sous une forme explicite.

Dans tous les cas, quel différence devrait-on attendre d'un indexation en HTML produit plutôt qu'en XML ? Dans une page de SERP, on ne voit rien du format effectif du document. Ce n'est qu'un simple fragment de texte. Alors aprés tout, et en dehors du cas du problème substitution ou inclusion automatique de contenu, qu'un document soit indéxé en XML, HTML ou produit d'une transformation XML, quelle différence ?

La question principale que j'y vois n'est pas celle de l'indexation, mais plutôt de l'allure des extraits dans les SERP (si du balisage vient la polluer, ça ne va pas être trés avenant, mais si les balises sont filtrées, alors ça peut être présentable).

p.s. partout je dis « probablement », parce que je ne peux pas l'affirmer formellement. Mais c'est que je crois devinder à la vue de ce que je connais des moteurs de recherche en général. Ils extraient... ce qu'ils peuvent extraire.
Haut
Messages: 22762

Enregistré le: 19 Avr 2002

Message le Mer Fév 11, 2009 0:39

Merci hibou pour ce message très intéressant
Haut
Messages: 1798

Enregistré le: 3 Nov 2004

Message le Sam Mar 14, 2009 23:06

Si vous voulez référencer vos sites web en xslt , la meilleur solution reste de compiler la feuille de style au niveau serveur (comme cité plus haut), de façon à en produire une version html à servir à google bot et autres bots de moteur de recherche.

Vous aurez alors un gros "if" dans votre code

Code: Tout sélectionner
SI (estGoogleBot())
ALORS
  RENVOYER convertirPageDeXMLaHTML(xsll,xml)
SINON
 RENVOYER xml
FinSI



Pour compléter, Voir article sur leurs groupes de discussions. Le support de cette techno n'a pas l'air d'être dans leurs priorités.
JohnMu Employé Google

Hi Hamed
While XSLT is a great technology, it's most likely not something that
search engines will support in the near future.
There is a lot of
processing involved in using XSLT to generate HTML that can be
analyzed properly, so this is not something that is easily scalable. I
too would recommend that you do this processing on the server side, as
it can not only help search engines, but it can also help other,
simpler clients and possibly speed up the rendering in general.

Hope it helps!
John

http://groups.google.fr/group/Google_Webmaster_Help-Indexing/browse_th ... 2b5ae26b0a

Notes: Le "SI estGoogleBot" cité plus haut devrait plutot être un "SI supporteXSL" . Pour infos, IE supporte xsl (du moin la version 7.0).
Modifié en dernier par Mumuri le Sam Mar 14, 2009 23:26, modifié 9 fois.
Haut
Messages: 1798

Enregistré le: 3 Nov 2004

Message le Sam Mar 14, 2009 23:06

Double post
Haut
Messages: 0

Enregistré le: 20 Jan 2011

Message le Jeu Jan 20, 2011 15:06

Re-déterrage de topic qui m'intéresse également !

Nous voilà en 2011 (bonne année), XSLT est de nos jours supporté par tout les navigateurs :
- Internet Explorer depuis sa version 6 (2001)
- Mozilla Firefox depuis la 1er version (2004)
- Opera depuis la version 9 (2006)
- Google Chrome depuis le début
- Apple Safari depuis la version 2 (2005) et même sa version mobile pour iPhone l'interprète parfaitement !
Je pense que les autres navigateurs pour SmartPhone comme Firefox Mobile (Fennec) ou autres sont également compatibles ? A voir...

Je rappelle également que XSLT 1.0 est une Recommandation du W3C depuis 1999 tout comme HTML 4.01 !

D'après hibou57 "Yahoo reconnait les feuilles XSLT" (http://forum.webrankinfo.com/yahoo-reconnait-les-feuilles-xslt-t130530.html) mais je pense que de toute façon cela n'a pas d'importance pour un moteur de recherche de connaitre la structure HTML après transformation du XML car tout le contenu intéressant devrait se trouver dans ce dernier, les balises reste inutile en XML comme en HTML pour les robots de référencement (excepté pour certaines entre <HEAD> comme <TITLE> par exemple).

L'intérêt du XSLT pour un site c'est que l'on peut générer des templates coté client (votre serveur vous remerciera) !!
Au pire si ont veut absolument avoir du HTML on peut générer à l'avance des pages statiques avec un processeur XSLT à partir de XML/XSL pour ensuite les envoyer sur le site.

Alors pourquoi s'en priver ?
Haut
Messages: 22671

Enregistré le: 8 Aoû 2004

Message le Jeu Jan 20, 2011 15:31

Vincentb85 a écrit:Alors pourquoi s'en priver ?
non, la question devrait être inverse : pourquoi le faire, quel en serait l'intérêt ? en dehors, évidemment, de se la jouer genre "ouai, MOI je maitrise XML/XSLT"
avantages ?? baisse de charge du serveur ? en quoi si on utilise un cache de serveur ?
moins d'accès serveur ? mais ça voudrait dire qu'il faudrait envoyer la totalité d'une bdd au cas où l'internaute ait envie de changer de filtrage
inconvénients : augmentation substantielle de la charge au niveau du navigateur de l'internaute, surtout pour ceux qui naviguent avec leur smartphone
les navigateurs les reconnaissent, soit, mais le font-ils bien ? quand on voit comment les css sont reconnues différemment selon les navigateurs, mais aussi selon les versions

franchement, pour diminuer les aller/retour d'infos sans intérêt avec le serveur, rien ne vaut une bonne appli ajax
Haut
Messages: 1323

Enregistré le: 1 Nov 2006

Message le Jeu Jan 20, 2011 16:37

Vincentb85 a écrit:[…] "Yahoo reconnait les feuilles XSLT" (Yahoo reconnait les feuilles XSLT !) mais je pense que de toute façon cela n'a pas d'importance pour un moteur de recherche de connaitre la structure HTML après transformation du XML car tout le contenu intéressant devrait se trouver dans ce dernier, les balises reste inutile en XML comme en HTML pour les robots de référencement (excepté pour certaines entre <HEAD> comme <TITLE> par exemple).

Pas dans tous les cas. Comme je l’expliquais dans le fil en question, XSLT, c’est XSL Transform, et les transformations XSLT peuvent être employées pour interpréter des données XML brutes et les mettre sous forme lisible. Par exemple les sources XML que j’utilise ne donne pas directement les relations entre les pages, mais contiennent une référence à un fichier, qui lui contient les relations que plusieurs partage entre elles (chaque page contient une référence à un groupe auquel elle appartient). C’est XSLT qui ensuite répercute ces relations dans la version HTML, en créant plusieurs liens HTML standards.

Une source XML, est bien une source, mais n’est pas toujours une source qui convient à une consultation publique, car elle ne fait sens que dans un système donné. Il en va de même avec un robot, il se trouve dans le cas d’une consultation publique : à moins d’utiliser un modèle de document que le robot connait et sait interpréter, il ne pourra pas interpréter la source XML correctement.

C’était justement la raison qui m’a fait « sauter de joie » en découvrant que Yahoo! le magnifique reconnait les références à XSLT, parce que c’est le signe pour moi qu’il se donne le moyen d’interpréter correctement. Mais ce n’est pas si simple, parce qu’une transformation s’effectue dans un contexte, et c’est un processus qui est assez comparable à celui de la compilation d’une application : un environnement, un système, sont mis en place à cette fin, mais je ne vais pas dériver sur cette question qui irait trop loin dans les détails.

Vincentb85 a écrit:L'intérêt du XSLT pour un site c'est que l'on peut générer des templates coté client (votre serveur vous remerciera) !!
Au pire si ont veut absolument avoir du HTML on peut générer à l'avance des pages statiques avec un processeur XSLT à partir de XML/XSL pour ensuite les envoyer sur le site.

Alors pourquoi s'en priver ?

Là je suis de l’avis de Léonick [*] : pour l’instant je trouve ça trop risqué. Un renvoie en statique de la forme HTML des documents qui ne changent pas, avec une compression gzip, des attributs de cache raisonnable dans l’entête de la réponse, et le tout est suffisamment léger autant pour le serveur que pour le navigateur.

XSLT de nos jours, c’est comme CSS à la fin des années 1990s : encore trop marginal.

… peut-être que dans 10 ou 15 ans il en sera autrement (et ce n’est même pas sûr).


[*] Excepté sur le point que les gens qui l’utilisent, c’est pour « pour se la jouer ».
Haut
Messages: 0

Enregistré le: 20 Jan 2011

Message le Ven Jan 21, 2011 18:13

@ Leonick :
L'intérêt comme expliqué dans mon post précédent c'est d'utiliser des templates coté client.
C'est à dire que sur un site qui possède des parties générique (se répétant sur plusieurs pages) comme :
- un menu
- un pied de page
- une entête
- de la publicité
- etc...

Quand le template est généré coté serveur on écrit une fois le code des parties générique puis le serveur rassemble le tout pour l'envoyer au navigateur sous forme d'une seul et unique page HTML.
Chaque page sera mise en cache sur le serveur et dans le navigateur.

Quand le template est généré coté client on écrit une fois le code des parties générique dans un .xsl et le reste dans le .xml puis le serveur envoie 2 fichier (XML+XSL) statique que le navigateur va interprété lui même.
Le serveur n'a besoin d'aucun système de cache (ni même de PHP ou autres)
Le fichier XSL sera mis en cache par le navigateur qui n'aura plus qu'a télécharger uniquement les XML des pages suivantes.

Etant donné que le XML ne contient que les partie unique (non générique), sa taille est ridicule comparé aux pages HTML qui contiendront à chaque fois l'ensemble !

Avantages :
- pas besoin de cache serveur
- pas besoin de serveur dynamique non plus
- utilisation de la bande passante réduite au minimum (uniquement le contenue qui change, comme AJAX)
- possibilité de combiné avec une (pré)compression GZIP

Inconvénient, le référencement peut être ?

Quelques petit rappel que tu semble avoir oublié :
- AJAX nécessite que JavaScript soit actif sur le navigateur.
- JavaScript n'est pas interprété de la même façon selon les navigateurs.
- JavaScript peut être désactivé, contrairement à XSLT.
- AJAX et XSLT n'ont pas le même but et peuvent donc s'utiliser simultanément.
- CSS 2.1 est toujours à l'état de brouillons (W3C working draft) alors que XSLT est une recommandation depuis 99 et reconnus par tout les navigateur depuis 2001


Donc je repose la question dans le bon sens: pourquoi s'en priver ?
Haut
Messages: 0

Enregistré le: 20 Jan 2011

Message le Ven Jan 21, 2011 18:58

@ hibou57 :
De toutes façon aucun bot ne comprend les balises qui sont dans ton XML contrairement au <a href> du HTML.
Donc dans tout les cas il faudra aider le bot car il ne trouvera que du texte brut dans le XML (sauf pour Yahoo apparament).

Alors pourquoi ne pas utiliser un sitemap.xml ?
Et pourquoi ne pas le généré à partir des XML + XSL !


Par contre je n'est pas compris ce que tu trouvais trop risqué dans ma citation ?


XSLT de nos jours, c’est comme CSS à la fin des années 1990s : encore trop marginal.

Alors là par contre c'est moi qui ne suit pas d'accord avec toi !
XSLT est reconnu par tout les navigateur depuis maintenant 10 ans et interprété de la même façon partout, c'est juste que personne ne l'utilise et je ne comprend pas pourquoi ? (peut être à cause du référencement et encore que...)
CSS fut partiellement implémenté par Internet Explorer 3 dès 1996 alors qu'il était encore en cour de formulation et il à été adopté et même réclamé par tous les webmasters !
Haut
Messages: 22671

Enregistré le: 8 Aoû 2004

Message le Ven Jan 21, 2011 19:38

Vincentb85 a écrit:Etant donné que le XML ne contient que les partie unique (non générique), sa taille est ridicule comparé aux pages HTML qui contiendront à chaque fois l'ensemble !
ça c'est peut être vrai quand on ne sait pas faire du "bon" code html, en externalisant la mise en page dans les css externes
Vincentb85 a écrit:XSLT est reconnu par tout les navigateur depuis maintenant 10 ans et interprété de la même façon partout,
l'as-tu vérifié personnellement ? combien de navigateurs différents as-tu installés sur ton oi pour pouvoir le vérifier. Quand on voit comment les css sont reconnues de façons très différentes, il y a de forts risques que pour le xslt/css ça soit pareil.
Car si on utilise du xslt pour refaire une mise en page sous forme de <table>, l'intérêt devient bien léger
Haut