Footer en haut de page : une bonne pratique ?

Nouveau WRInaute
Bonjour,

j'aimerais connaitre votre avis sur un conseil qu'une agence en référencement nous a prodigué (que je ne citerais pas, ce n'est pas le sujet). Je n'ai pas vraiment confiance mais pour des raisons "politiques" venant du boss, je n'ai pas le choix. C'est pourquoi, je préfére avoir d'autres avis, notamment de professionels ou d'expérimentés.

On nous a conseillé de mettre un footer d'une ligne au texte optimisé (avec les keywords surlesquels on veut apparaitre en premier dans les résultats des moteurs de recherche et avec des liens internes) proche de la balise <body>. On fait descendre tout en bas de la page la div grace au css.

Je pense comprendre ce que cela signifie: les robots indexent généralement les débuts des pages web sans prendre en compte les css et lisent bien sur en premier lieu le texte (sur)optimisé et après le corps de page. Pour l'utilisateur, il ne le voit car il apparait en bas de page en caractere plus petit que le texte principal.

N'est ce pas là une forme de spamdexing? Pour l'instant, ce n'est pas vraiment reconnue en tant que telle, mais je pense que c'est borderline car les robots et les utilisateurs ne voient pas la meme chose et qu'on cache aux utilisateurs une phrase optimisé (un peu comme une phrase invisible mais qui apparait en début de page). Qu'en pensez vous? Est ce répandue? Pratiquez vous ce genre de chose ?

Merci d'avance pour votre avis sur la question,
 
WRInaute passionné
Salut et bienvenue,

Si ça reste visible pour l'utilisateur pas de problème.
Tu mets en forme tes blocs comme tu veux dans ton source.

En revanche, si c'est caché, oui là il y a danger.
 
WRInaute passionné
A la lecture du site, google interpréte le CSS ? ou il lit le site avec le CSS désactivé tout en vérifiant le positionnement caché de certaine DIV ?

donc si ta div est en bas et qu'elle est remontée en CSS, Google la verra en bas si il n'indexe pas en prenant en compte ton CSS qui la remonte
 
WRInaute discret
Moi je vote spamdexing, autant que ceux qui mettent un milliard de liens en bas de page ... certes, les spiders ne le détecteront probablement pas, mais les vérificateurs (humains) oui.
 
WRInaute passionné
biddybulle a dit:
donc si ta div est en bas et qu'elle est remontée en CSS, Google la verra en bas si il n'indexe pas en prenant en compte ton CSS qui la remonte

Effectivement, mais je pense que c'est ce qu'il voulait dire.
Sinon, pour répondre à la question initiale, c'est une pratique courante et à partir du moment où le texte est visible je ne vois pas le soucis.
 
Nouveau WRInaute
Suite à la lecture de la réponse de biddybulle, je viens juste de relire mon extrait et j'ai écrit une petite gourde que je viens de rectifier. On descend la div avec le css. En desactivant le css, la div "footer" apparait tout en haut de la page.

Pour répondre à biddybulle, je dirais que Google lit le code source et interprete le résultat sans visualisation graphique (donc sans css). Ceci est une supposition. Quelqu'un qui consulte le cache texte de google de mon site, voit tout de suite que le footer se retrouve en haut de page (ce qui est moche en passant par là, car c'est vraiment abusif comme phrase optimisée).

Ceci dit pour répondre à dorian53, les moyens de détection peuvent changer comme les algo de google changent fréquement, d'ou ma question de savoir si cette pratique est risquée ou non, cohérente pour un référencement au long terme ?
 
WRInaute discret
Hum hum,
Les robots verront effectivement ta div optimisée, alors que les autres utilisateurs la verront peut-être de temps en temps en attendant que le css soit lu et interprété par leur navigateur.
Maintenant je ne dirai pas que c'est borderline, mais illégal, du moins du point de vu purement robotesque, puisqu'effectivement les robots n'iterpreteront pas la même chose que tes visiteurs. Par contre c'est borderline du point de vu technique vu qu'au jour d'aujourd'hui il ne semble pas le détecter.
Donc finalement (je vais pas me faire des amis) tant qu'à être dans l'illégalité, fait du cloaking c'est plus radical et efficace !
Ou bien comme dirait les maîtres de ces lieux fait un bon contenu travaille tes liens entrants et le bon dieu GG te remerciera en te propulsant vers les hauteur de so classement sur les mots-clés qui t'intéressent.
 
Nouveau WRInaute
Sinon, pour répondre à la question initiale, c'est une pratique courante et à partir du moment où le texte est visible je ne vois pas le soucis.

C'est mon point d'interrogation, est ce vraiment visible pour l'internaute car il est placé en bas de page alors que sémantiquement, il est en haut (c'est pas top d'ailleurs pour ceux qui ne peuvent pas surfer avec les css, ie les personnes handicapées,...).

Le footer est en police plus petite que le corps du texte général, en fin de page, l'utilisateur lambda le verra t il? C'est jute pour faire remarquer qu'on met une div au texte (sur)optimisé dans une zone d'ombre de la page du site. Est ce la un moyen alternatif au texte invisible? N'est ce pas borderline par rapport aux guidelines de notre pote Google?
 
WRInaute passionné
-he_yddy a dit:
C'est mon point d'interrogation, est ce vraiment visible pour l'internaute car il est placé en bas de page alors que sémantiquement, il est en haut (c'est pas top d'ailleurs pour ceux qui ne peuvent pas surfer avec les css, ie les personnes handicapées,...).

L'idéal serait effectivement de le laisser en haut de page mais d'adapter la taille de ta police et le reste du design pour pas que ça saute trop aux yeux, surtout qu'en plus en général le tout est dans une balise h1 :wink:

Discret mais visible, cela peut être une indication utile quant au contenu de ta page, même pour l'utilisateur.
 
WRInaute accro
La question également est : est ce que ce sera efficace ?
n'est il pas logique de penser que le moteur voit la page d'une façon "clignotante" sur les mots clés (mc en haut, mc en contenu, mc en bas)
les liens en footer fonctionnent (mais d'autant moins qu'ils sont nombreux). Les liens en header fonctionnent depuis toujours (c'est bien là qu'on met les menus, les arborescences de sites)

footer en header, et bientôt l'inverse : une bannière de présentation dans le footer ;)
 
WRInaute discret
Moi je pense que google ne prend pas en compte directement la source HTML de nos pages, ce source doit passer dans un moteur un peu comme le moteur de rendu d'IE ou de Firefox et être traité ensuite. Simple supposition.

Vous pensez pas ?

Donc que le code soit en haut vers la balise body ou en bas, ça doit rien changer, je pense que Google est assez malin pour ne même pas avoir à s'en soucier
 
WRInaute discret
reglysse a dit:
Moi je pense que google ne prend pas en compte directement la source HTML de nos pages, ce source doit passer dans un moteur un peu comme le moteur de rendu d'IE ou de Firefox et être traité ensuite. Simple supposition.
Moi j'crois qu'il a autre chose à foutre qu'à faire du rendu et à décrypter chaque section ... rien que la partie "reconnaissance de texte, décryptage, analyse" serait trop lourde, à rajouter à la partie "mâchage de l'information, mots-clés et cie" :)
 
WRInaute passionné
et moi je pense que les pages passent dans une moulinette et que tout est interprété de facon à détecter les éventuels magouilles mais dans le fait de positionner un footer en haut de page et de le descendre tout en bas en CSS, n'est pas encore considéré comme un abus de GG. mais bon c'est sur qu'avec mon PDA, je serai de voir le footer en haut de page, c'est pas très clean.
 
WRInaute accro
ptit_mousse a dit:
Hum hum,
Les robots verront effectivement ta div optimisée, alors que les autres utilisateurs la verront peut-être de temps en temps en attendant que le css soit lu et interprété par leur navigateur.
Maintenant je ne dirai pas que c'est borderline, mais illégal, du moins du point de vu purement robotesque, puisqu'effectivement les robots n'iterpreteront pas la même chose que tes visiteurs.
Dans ce cas, tout site utilisant le css pour placer le contenu haut dans le code et les menus plus loin, pour un affichage inverse, seraient dans l'illégalité ? Hum hum ...
 
Nouveau WRInaute
Dans ce cas, tout site utilisant le css pour placer le contenu haut dans le code et les menus plus loin, pour un affichage inverse, seraient dans l'illégalité ? Hum hum ...

c'est sur qu'il n'y a pas de convention de code pour disposer dans le source les div que tu veux et les réarranger comme tu veux mais tu es libre de mettre une div et de la cacher définitivement avec none, pourtant c'est interdit car c'est considéré comme du spamdexing.

lorsque Leonick pose la question :
et si je veux mettre mon menu à gauche, il faudrait qu'il se trouve comment dans le code ?

je dis ok, tu fais ce que tu veux mais un footer qui se retrouve en haut, c'est pas un peu absurde ? Surtout que ce n'est pas un titre mais plutot une phrase optimisée, donc les mêmes genre de phrase qu'on peut trouver sur les annuaires bidons ou le texte est sans queue ni tête, loin de la pertinence de certains contenus.

Alors quand Fab le Fou préconise :
L'idéal serait effectivement de le laisser en haut de page mais d'adapter la taille de ta police et le reste du design pour pas que ça saute trop aux yeux, surtout qu'en plus en général le tout est dans une balise h1

je suis d'accord avec lui, car une balise h1, sémantiquement, ca sert à titrer plusieurs paragraphes, soit structurer son document. Et si en plus, il s'agit de mettre en place un titre qui apporte une réelle information plutot qu'une phrase, je dit que c'est encore mieux, c'est sémantiquement et structurellement correct, ca va dans le sens : j'optimise mon site pour aider pas seulement le référencement mais aussi l'utilisateur. Alors que mettre un footer plus ou moins lisible et compréhensible en haut du code et le rejeter en bas lors de la visualisation, je pense que c'est vraiment utiliser à l'excès les principes de SEO à l'extreme sans se soucier de la qualité du contenu et au final de l'utilisateur (meme si il le pas verra pas ce fameux footer, et dans ce cas la,...). Ma question que je vous pose est simple, c'est le titre de la conversation.
 
WRInaute accro
-he_yddy a dit:
...
On nous a conseillé de mettre un footer d'une ligne au texte optimisé (avec les keywords surlesquels on veut apparaitre en premier dans les résultats des moteurs de recherche et avec des liens internes) proche de la balise <body>. On fait descendre tout en bas de la page la div grace au css.
...
Plutôt que de te poser cette question dans l’espoir d’obtenir une réponse que personne ne pourra justifier, tu pourrais placer tes mots clés avec liens internes dans un menu qui se positionnerait avant même le header (voir mon "www").

Le but recherché sera atteint tout en restant dans le cadre "du politiquement correct" et sans craindre un éventuel déclassement ou black listage.
 
WRInaute passionné
Bh@Mp0 a dit:
Moi je vote spamdexing, autant que ceux qui mettent un milliard de liens en bas de page ... certes, les spiders ne le détecteront probablement pas, mais les vérificateurs (humains) oui.

ptit_mousse a dit:
Maintenant je ne dirai pas que c'est borderline, mais illégal, du moins du point de vu purement robotesque, puisqu'effectivement les robots n'iterpreteront pas la même chose que tes visiteurs.

Allez, hop, les deux au lit et demain, vous apprenez vos leçon avant de débiter des âneries.

Le CSS est justement là pour déplacer son contenu et lui donner l'apparence que l'on souhaite.

Même si le texte est petit et en bas alors que dans le code html il est en haut, il n'y a aucun problème ni pour le visiteur, ni pour les bots.
 
WRInaute discret
Koxin-L> écoute, t'as contacté les différents moteurs de recherche pour ça ? Tu sais tout sur tout ? Non ! Alors, chacun peut avoir son avis sur le fait de "dissimuler" (j'appelle ça ainsi) un bloc en bas de page en mini alors qu'il est tout en haut, juste pour passer des mots-clés (même pas des phrases !).
 
WRInaute discret
Koxin-L a dit:
ptit_mousse a dit:
Maintenant je ne dirai pas que c'est borderline, mais illégal, du moins du point de vu purement robotesque, puisqu'effectivement les robots n'iterpreteront pas la même chose que tes visiteurs.

Allez, hop, les deux au lit et demain, vous apprenez vos leçon avant de débiter des âneries.

Le CSS est justement là pour déplacer son contenu et lui donner l'apparence que l'on souhaite.
Autant pour moi j'avais cru comprendre qu'il remontait la div principale pour cacher entièrement la div footer, ce qui n'est pas la même chose que de déplacer la div optimisé en bas de page.
 
WRInaute passionné
Bh@Mp0 a dit:
Koxin-L> écoute, t'as contacté les différents moteurs de recherche pour ça ? Tu sais tout sur tout ? Non ! Alors, chacun peut avoir son avis sur le fait de "dissimuler" (j'appelle ça ainsi) un bloc en bas de page en mini alors qu'il est tout en haut, juste pour passer des mots-clés (même pas des phrases !).
Mon coco, c'est de la pure logique.

Chacun peut mettre son code comme il le veux et l'afficher comme il l'entend.
Mettre un texte en petit tout en bas peut aussi bien être un lien de contact ou autre.
De plus, si je le met en haut aujourd'hui, mon prochain design l'aura en bas demain et avec le css, je le fait en 5 secondes.

Mais tu fais comme tu l'entend, reste sur tes préjugés. :roll:
 
Nouveau WRInaute
Alors, chacun peut avoir son avis sur le fait de "dissimuler" (j'appelle ça ainsi) un bloc en bas de page en mini alors qu'il est tout en haut, juste pour passer des mots-clés (même pas des phrases !)

Bon, je reprécise il s'agit bien d'une petite phrase très courte mais suroptimisé ou on place le maximum de mots clés. Transposé au référencement ca donne ce genre-ci : "se référencer sur le web, c'est un bon référencement pour que le site soit bien référencer sur Google, Yahoo et MSN", j'exagère un peu mais grosso modo ca repproche pas mal de ce qu'on a mis mais avec les mots clés qu'on nous a demandé de sélectionner. Ce procédé est appliqué sur toutes les pages et à chaque fois la phrase change et est optimisée suivant le contenu de la page.

Autant pour moi j'avais cru comprendre qu'il remontait la div principale pour cacher entièrement la div footer, ce qui n'est pas la même chose que de déplacer la div optimisé en bas de page.

D'un coté, c'est un peu ça le principe, conseillé par notre agence en référencement. On s'assure que la phrase (sur)optimisé placée près de la balise <body> soit bien lu par les robots indexeurs et qu'il analyse les mots clés de celle-ci. Il conseille également de la rejeter en bas de page (au moyen des css) pour ne pas venir polluer la lecture de l'internaute( ce qui est vrai car je trouve déjà ces phrases assez indigestes à lire).

Mais en réfléchissant de plus près et avant de catégoriser ce procédé comme du spamdexing, apporte t il quelque chose à l'utilisateur au final?

Beaucoup soulèvent le fait que tu fais ce que tu veux mais le css c'est fait pour mettre en place la mise en page, l'esthétisme du site, chose que je suis d'accord car ca aide à mieux organiser le document pour l'utiliser, le rendre plus beau, etc... mais dans ce cas, le footer placé en haut que je rejete en bas, est ce c'est toujours pour aider l'utilisateur? est ce que ca apporte de la pertinence à mon contenu? Ou juste un moyen pour placer mes mots clés sans que l'utilisateur les voies réellement car je les place bien bas et en petit caractère?
 
WRInaute discret
Interpreter la hauteur d'une balise CSS pour connaitre son positionnement n'est pas compliqué.

Cependant, il est impossible pour un robot d'analyser le code html/css et d'en tirer des informations fiables.( j'en conclus qu'ils n'en tiennent pas compte.)

Le meilleur moyen de s'en convaincre est de penser au problemes couleur de police / couleur de fond.

Il existe une infinité de méthode pour faire cela : deux balises différentes qui se chevauchent graphiquement, du texte qui déborde d'une balise, pire encore, des positions de balises aléatoires, des images de fond qui ne sont que des fonds colorés etc...
En clair, seul l'analyse graphique une fois le contenu affiché ET la comparaison avec le code (où est chaque chose ? quoi manque ?) permetttrait de détecter cet abus.

Par extension, on peut considérer que d'essayer d'interpréter le code CSS pour deviner l'aspect d'une page, puis d'en tirer une hierarchisation de contenu n'est pas possible....

je pense donc que ce ne sera pas détecté. (à tester tout de meme ??)

Ytz
 
WRInaute discret
Koxin-L a dit:
Bh@Mp0 a dit:
Koxin-L> écoute, t'as contacté les différents moteurs de recherche pour ça ? Tu sais tout sur tout ? Non ! Alors, chacun peut avoir son avis sur le fait de "dissimuler" (j'appelle ça ainsi) un bloc en bas de page en mini alors qu'il est tout en haut, juste pour passer des mots-clés (même pas des phrases !).
Mon coco, c'est de la pure logique.

Chacun peut mettre son code comme il le veux et l'afficher comme il l'entend.
Mettre un texte en petit tout en bas peut aussi bien être un lien de contact ou autre.
De plus, si je le met en haut aujourd'hui, mon prochain design l'aura en bas demain et avec le css, je le fait en 5 secondes.

Mais tu fais comme tu l'entend, reste sur tes préjugés. :roll:
Mais tu parles de n'imp ! J'ai pas dit qu'il était interdit de faire ce qu'on voulait avec son site, mais que le fait de mettre une phrase super concentrée de mots-clés le plus haut possible dans le code en le dissimulant ensuite sur la position de la page, ça me paraît pas très "fair-play" : je rappelle tout de même qu'on doit normalement faire des sites à contenu pour l'utilisateur, et que comme le site correspond à ce que cherchent les gens, alors il est bien classé par les moteurs. Normalement, on ne fait donc pas un site pour qu'il soit bien classé par les moteurs afin que les utilisateurs viennent et se rendent compte du contenu. Pour moi, c'est de la triche pure et simple.
 
Nouveau WRInaute
je pense donc que ce ne sera pas détecté.
alors la, c'est quand même s'avancer un peu trop vite sur cette réponse, je détaille par la suite :

Il existe une infinité de méthode pour faire cela : deux balises différentes qui se chevauchent graphiquement, du texte qui déborde d'une balise, pire encore, des positions de balises aléatoires, des images de fond qui ne sont que des fonds colorés etc...
En clair, seul l'analyse graphique une fois le contenu affiché ET la comparaison avec le code (où est chaque chose ? quoi manque ?) permetttrait de détecter cet abus.

Par extension, on peut considérer que d'essayer d'interpréter le code CSS pour deviner l'aspect d'une page, puis d'en tirer une hierarchisation de contenu n'est pas possible....
je dirais plutot "n'est pas possible aujourd'hui de manière automatique par une machine" mais deux choses

1/lorsque je voie le nombre de projet développé dans les labos et les différents brevets déposés sur les reconnaissances de forme, visuel, sur l'interaction code/rendu graphique, l'argument ne sera peut être plus valable car on ne peut pas prévoir ce qu'on pourra faire demain.

2/Pas possible automatiquement mais humainement si (ce post le prouve d'ailleurs qu'on comprend bien de quoi on parle). Un bon spamreport bien explicite qui arrive sur l'ordinateur d'un ingénieur (ou technicien) de notre pote Google, et il peut aller faire un tour sur votre site et constater l'"infraction" (si il y a car la tout est le débat en fait). Je crois d'ailleurs que c'est de cette manière que les ingenieurs de Google Belgique ont déclassé le site de BMW, ils ont constaté qu'il faisait du cloaking.

Donc affirmer qu'il n'y a en fait pas de risque dans cette pratique, c'est quand même oser et oublier quelques détails techniques et humains.

Pour aller dans le sens de Bh@Mp0,
je rappelle tout de même qu'on doit normalement faire des sites à contenu pour l'utilisateur, et que comme le site correspond à ce que cherchent les gens, alors il est bien classé par les moteurs.
est ce vraiment une bonne pratique de SEO, c'est à dire une white hat techniques ? Apporte t elle vraiment quelques choses aux utilisateurs ?

Le seul hic, cela concerne un site d'e-commerce qui vient d'être lancer et donc pour survivre dans cette dur compétition qu'est le référencement sur Google (et les autres mais bon...), on peut être amener à faire des choses un peu border line, si ce n'est illégalles aux yeux de Google.

Le problème que je soulève est quand même assez plus profond que ça, car notre agence en référencement qui nous a conseillé de faire ça, ne nous indique en quelques sortes que c'est normal mais que surtout si on lit sa charte, elle ne pratique rien d'illégale (en somme comme netbooster avant que Google tape du point sur la table (et sur BMW) sur le cloaking), donc rien de dangereux. Sauf que Google vient de déposer et mettre en place le trustrank, il y a à peu près un an, et la, je crois que certains site (et webmaster) doivent bien pleurer leur mother avec ça, car j'ai bien l'impression que c'est assez efficace pour pénaliser au long terme un site. Ils le savent ou font en sorte d'onorer leur contrat et apres c'est "prend l'oseille et tire toi" ? (bien sur, je parle uniquement de celle qui on bosse mais j'ai bien l'impression que toutes usent d'un discours bien lisse sur leur site internet) ? Ca peut quand même être considérer comme le belle fraude non?
 
WRInaute discret
Bh@Mp0 a dit:
Moi j'crois qu'il a autre chose à foutre qu'à faire du rendu et à décrypter chaque section ... rien que la partie "reconnaissance de texte, décryptage, analyse" serait trop lourde, à rajouter à la partie "mâchage de l'information, mots-clés et cie" :)

Ytz a dit:
Cependant, il est impossible pour un robot d'analyser le code html/css et d'en tirer des informations fiables.( j'en conclus qu'ils n'en tiennent pas compte.)

Le meilleur moyen de s'en convaincre est de penser au problemes couleur de police / couleur de fond.

Il existe une infinité de méthode pour faire cela : deux balises différentes qui se chevauchent graphiquement, du texte qui déborde d'une balise, pire encore, des positions de balises aléatoires, des images de fond qui ne sont que des fonds colorés etc...
En clair, seul l'analyse graphique une fois le contenu affiché ET la comparaison avec le code (où est chaque chose ? quoi manque ?) permetttrait de détecter cet abus.

Par extension, on peut considérer que d'essayer d'interpréter le code CSS pour deviner l'aspect d'une page, puis d'en tirer une hierarchisation de contenu n'est pas possible....

Je ne comprends pas pourquoi vous pensez que ce n'est pas possible pour un moteur de recherche. Si c'est possible pour l'affichage dans un navigateur, ça doit certainement être possible pour un moteur de recherche.
 
WRInaute discret
reglysse a dit:
Bh@Mp0 a dit:
Moi j'crois qu'il a autre chose à foutre qu'à faire du rendu et à décrypter chaque section ... rien que la partie "reconnaissance de texte, décryptage, analyse" serait trop lourde, à rajouter à la partie "mâchage de l'information, mots-clés et cie" :)

Ytz a dit:
Cependant, il est impossible pour un robot d'analyser le code html/css et d'en tirer des informations fiables.( j'en conclus qu'ils n'en tiennent pas compte.)

Le meilleur moyen de s'en convaincre est de penser au problemes couleur de police / couleur de fond.

Il existe une infinité de méthode pour faire cela : deux balises différentes qui se chevauchent graphiquement, du texte qui déborde d'une balise, pire encore, des positions de balises aléatoires, des images de fond qui ne sont que des fonds colorés etc...
En clair, seul l'analyse graphique une fois le contenu affiché ET la comparaison avec le code (où est chaque chose ? quoi manque ?) permetttrait de détecter cet abus.

Par extension, on peut considérer que d'essayer d'interpréter le code CSS pour deviner l'aspect d'une page, puis d'en tirer une hierarchisation de contenu n'est pas possible....

Je ne comprends pas pourquoi vous pensez que ce n'est pas possible pour un moteur de recherche. Si c'est possible pour l'affichage dans un navigateur, ça doit certainement être possible pour un moteur de recherche.

Je n'ai pas dit que ce n'était pas possible ... c'est techniquement possible, mais cela nécessiterait beaucoup de ressources pour pas grand chose.
Il y a une différence entre faire l'affichage à partir du code (ce que font les navigateurs), et détecter la position de chaque élément, qui demanderait une analyse du rendu graphique.
 
WRInaute accro
C'est à mon sens un conseil un peu suranné de placer ce contenu le plus faut possible dans le code, à moins que le code de la page fasse 3 KM. Les robots ont beaucoup évolué dans leur capacité à ingurgiter du code, donc que cette phrase soit en haut, en bas, je suis pas sur que celà joue énormément.

Et de toute façon le contenu présenté est le même pour le robot et l'internaute, le texte est lisible, visible, donc je ne pense pas que Google irait chercher des poux à un site juste pour celà.
 
WRInaute passionné
Bh@Mp0 a dit:
...le fait de mettre une phrase super concentrée de mots-clés le plus haut possible dans le code en le dissimulant ensuite sur la position de la page, ça me paraît pas très "fair-play"
C'est pas dissimulé, mais repositionné.

Bh@Mp0 a dit:
Pour moi, c'est de la triche pure et simple.
Pour tricher encore faut-il qu'il y ait une règle.

La notion de par orthodoxe, diront nous est le fait de gruger le moteur ou le visiteur.
Dans ce cas présent, c'est ni l'un ni l'autre.
1 - Le visiteur voit la phrase optimisé.
2 - Le moteur en fait ce qu'il veut, rien ne l'empêche de ne pas en tenir compte.
 
WRInaute discret
Koxin-L a dit:
Bh@Mp0 a dit:
Pour moi, c'est de la triche pure et simple.
Pour tricher encore faut-il qu'il y ait une règle.

La notion de par orthodoxe, diront nous est le fait de gruger le moteur ou le visiteur.
Dans ce cas présent, c'est ni l'un ni l'autre.
1 - Le visiteur voit la phrase optimisé.
2 - Le moteur en fait ce qu'il veut, rien ne l'empêche de ne pas en tenir compte.
Il n'y a pas de règles, c'est pourquoi tu ne peux pas me dire que j'ai tort !
En outre, cela correspond à de la triche pour moi, car le but est de se positionner sur ces mots-clés, même si le reste de la page n'est pas pertinent pour ce texte. Donc oui, c'est tromper l'éventuel visiteur venant des moteurs, qui peut se retrouver avec une page moins pertinente que ce qu'il espérait. Donc au final, moins de pertinence pour le moteur de recherche => triche (ou moteur mal fait).
 
WRInaute passionné
Et oui, Renault vend des twingo rouges pour faire croire à des voitures de sport.

Tout le monde triche...
 
Nouveau WRInaute
Tout le monde triche...
et c'est une raison pour tricher?

A l'heure actuel, je voie deux options pour un référenceur (ou un traffic manager) :
soit il respecte les guidelines de Google et les autres, et essaye de créer du contenu original et qui apporte un fil supplémentaire à la toile, et qui attirera le public pas seulement grâce aux moteurs de recherche mais par sa popularité sur le web (un incontournable en somme).

soit il cherche à hacker les algos des moteurs de recherche pour arriver à se positionner en attendant que google change son algo, les procédés ne marchent plus et donc il doit aller retrouver la petite formule pour se repositionner.

C'est quoi le ROI le plus avantageux? le plus durable ?

En disant "Tout le monde triche", c'est une vision court-termiste de son référencement car Google continuera à changer toujours ses algos, continuera à dicter sa politique car tout le monde n'utilise que lui (en France, il représente 80% de part de marché).

Et puis au final, vous vous positionnez, si votre site est bidon ou mensongé (car vous dissimulez en bas de page votre texte optimisé qui vous a fait monté à la première place), le client/surfeur ne reviendra pas ou s'en ira illico...

Honnetement, passer votre temps à structurer votre contenu et le rendre accessible au plus grand nombre que d'utiliser des astuces qui ne marcheront peut etre plus dans quelques mois.
 
Nouveau WRInaute
Personne ne triche tant qu'une règle ne le dit pas.

lol, relis les guidelines de Google :
https://www.google.fr/support/webmasters/bin/answer.py?answer=35769#quality
"
Conseils concernant la qualité

Nous abordons ici les pratiques trompeuses ou déloyales les plus courantes. Google est cependant pręt ŕ réagir ŕ toute autre pratique malhonnęte (tromper les utilisateurs en enregistrant une version volontairement erronée du nom de sites Web populaires, par exemple), non répertoriée dans le présent document. Ne déduisez pas que les pratiques trompeuses non mentionnées sur cette page sont autorisées par Google. Les webmasters qui s'efforcent de respecter ces principes de base offriront ŕ leurs utilisateurs une navigation plus agréable et obtiendront pour leur site un meilleur classement que ceux qui recherchent en permanence les failles de notre systčme.
[...]
Évitez les "astuces" destinées ŕ améliorer le classement de votre site par les moteurs de recherche. Vous devriez en principe pouvoir expliquer en toute sérénité ŕ un site Web concurrent les solutions que vous avez adoptées. Vous pouvez également vous poser les questions suivantes : ces solutions apportent-elles une aide aux utilisateurs ? Aurions-nous fait appel ŕ ces techniques si les moteurs de recherche n'existaient pas ?
"

Dans le présent cas, je crois que répéter les mots clés que l'utilisateur a tapé dans google et grosso modo le titre (car le titre est bien sur optimisé), ca n'aide pas plus l'utilisateur que ça.

Bien sur, ce sont les règles établis par Google mais google, lui indexe qui il veut et on ne peut lui faire un procès pour ça, si vous suivez les actualités. tant que joe le surfeur utilisera par défaut Google pour faire sa petite recherche, vous ne pourrez suivre que leur règles.
 
WRInaute accro
On s'détend un petit peu, les gars.

Puisqu'on parle d'accessibilité: que pensez-vous d'un site dont le header serait en bas de code, mais remonté en haut de design, de sorte que ce header (qu'on imaginerait en Flash, ou avec des boutons graphiques, ou un menu déroulant énorme en .JS) ne gène pas les visiteurs "visually impaired" ?

Triche?
Optimisation?
Accessibilité du contenu?

Il y'a une énorme différence entre masquer un contenu par un visibility:hidden, et placer du contenu d'un point de vue graphique.
 
WRInaute discret
HawkEye a dit:
Puisqu'on parle d'accessibilité: que pensez-vous d'un site dont le header serait en bas de code, mais remonté en haut de design, de sorte que ce header (qu'on imaginerait en Flash, ou avec des boutons graphiques, ou un menu déroulant énorme en .JS) ne gène pas les visiteurs "visually impaired" ?

Triche?
Optimisation?
Accessibilité du contenu?

Il y'a une énorme différence entre masquer un contenu par un visibility:hidden, et placer du contenu d'un point de vue graphique.
Là, y'a une grosse différence.
La solution proposée au départ de ce fil ne sera, de toute façon, pas détecté par un robot, mais uniquement par un humain.
Le fait est que, ensuite, les raisons du placement de chaque bloc doivent être évidentes : dans le cas que tu évoques, un menu peut très bien être placé à la fin du code, étant donné que ce n'est pas du contenu (donc ce n'est pas du contenu pertinent).
Ce que je reproche à la solution initiale est de tromper l'utilisateur final, en fournissant un contenu sur-adapté afin de bien se positionner ; selon moi, cela ne peut pas être considéré comme du contenu pertinent, ce qui explique que j'ai utilisé le terme "triche".
Evidemment après, tout cela est subjectif :) Mais si je tombe sur un site comme ça et que je me rends compte de la supercherie (ce mot conviendra ptet mieux à certains), je ne lui accorderai qu'un crédit limité.
 
WRInaute accro
Bh@Mp0 a dit:
HawkEye a dit:
Puisqu'on parle d'accessibilité: que pensez-vous d'un site dont le header serait en bas de code, mais remonté en haut de design, de sorte que ce header (qu'on imaginerait en Flash, ou avec des boutons graphiques, ou un menu déroulant énorme en .JS) ne gène pas les visiteurs "visually impaired" ?

Triche?
Optimisation?
Accessibilité du contenu?

Il y'a une énorme différence entre masquer un contenu par un visibility:hidden, et placer du contenu d'un point de vue graphique.
Là, y'a une grosse différence.
La solution proposée au départ de ce fil ne sera, de toute façon, pas détecté par un robot, mais uniquement par un humain.
Le fait est que, ensuite, les raisons du placement de chaque bloc doivent être évidentes : dans le cas que tu évoques, un menu peut très bien être placé à la fin du code, étant donné que ce n'est pas du contenu (donc ce n'est pas du contenu pertinent).
Ce que je reproche à la solution initiale est de tromper l'utilisateur final, en fournissant un contenu sur-adapté afin de bien se positionner ; selon moi, cela ne peut pas être considéré comme du contenu pertinent, ce qui explique que j'ai utilisé le terme "triche".
Evidemment après, tout cela est subjectif :) Mais si je tombe sur un site comme ça et que je me rends compte de la supercherie (ce mot conviendra ptet mieux à certains), je ne lui accorderai qu'un crédit limité.
Ce n'est sans doute pas du contenu pertinent par contre des mots clés de poids, certainement.
 
Nouveau WRInaute
Mais si je tombe sur un site comme ça et que je me rends compte de la supercherie (ce mot conviendra ptet mieux à certains), je ne lui accorderai qu'un crédit limité.
... et si c'est un site concurrent au tiens, tu peux essayer de le dénoncer auprès de google (via https://www.google.com/intl/fr/webmaster ... eport.html, tiens la page est maintenant en Français) pour prendre sa place (qu'il a acquis de façon déloyale en fin de compte).
 
WRInaute discret
Bh@Mp0 a dit:
En outre, cela correspond à de la triche pour moi, car le but est de se positionner sur ces mots-clés, même si le reste de la page n'est pas pertinent pour ce texte.
euh... c'est à dire que je ne vois pas du tout l'intérêt de faire sortir la page en question sur la phrase clé optimisée si le reste de la page ne traite pas du sujet...
et de plus, ce n'est certainement pas avec uniquement une phrase optimisée que la page sortira : si le reste de la page ne traite pas du sujet, alors la page ne sera pas classée :lol:
Maintenant, si au contraire la page traite du sujet et qu'à cela vient s'ajouter une phrase optimisée, alors je ne pense pas qu'on puisse dire qu'on tente de berner l'utilisateur...

nickargall a dit:
C'est à mon sens un conseil un peu suranné de placer ce contenu le plus faut possible dans le code, à moins que le code de la page fasse 3 KM. Les robots ont beaucoup évolué dans leur capacité à ingurgiter du code, donc que cette phrase soit en haut, en bas, je suis pas sur que celà joue énormément.
cela n'empêche qu'un moteur accorde plus d'importance à ce qu'il lit en premier dans une page par rapport à ce qu'il va lire en dernier...
 
Nouveau WRInaute
ben, non

Koxin-L a dit:
Bh@Mp0 a dit:
Koxin-L> écoute, t'as contacté les différents moteurs de recherche pour ça ? Tu sais tout sur tout ? Non ! Alors, chacun peut avoir son avis sur le fait de "dissimuler" (j'appelle ça ainsi) un bloc en bas de page en mini alors qu'il est tout en haut, juste pour passer des mots-clés (même pas des phrases !).
Mon coco, c'est de la pure logique.

Chacun peut mettre son code comme il le veux et l'afficher comme il l'entend.
Mettre un texte en petit tout en bas peut aussi bien être un lien de contact ou autre.
De plus, si je le met en haut aujourd'hui, mon prochain design l'aura en bas demain et avec le css, je le fait en 5 secondes.

Mais tu fais comme tu l'entend, reste sur tes préjugés. :roll:

Pour répondre a la question du début, j'aurais une démarche très simple : qu'en est-il d'un point de vue éthique ?
Il est question de déplacer dans du code du contenu sans valeur pour le visiteur, et de le mettre en début de source pour augmenter sa pertinence (deja nulle pour le visiteur) au yeux d'un robot.
Conclusion : c'est mal.
Partant de là, chacun fait ce qu'il veut, en fonction de sa sensibilité, de ses contraintes, des risques que l'on est pret à prendre.
 
Discussions similaires
Haut