Messages: 81

Enregistré le: 3 Oct 2003

Message le Mer Fév 23, 2005 16:03

ocsima a écrit:Juste un ptit test en passant :
rituel a écrit:+ Saisie du contenu alternatif si l'image a son importance au sein de la page

Voir la reqête : http://www.google.fr/search?hl=fr&c2cof ... cher&meta=
ocsima 3ème, définition, OK, mais carte de visite = just un ptit alt

Bonjour.

+1 pour l'importance du "alt" bien rempli.. En soignant ce contenu sur certaines pages, j'ai multiplié par 10 le nombre de mes visiteurs en provenance de Google Images..!

Par contre, une question : y'a-t'il une limite en nombre de mots ou de caractères à ne pas dépasser pour cet attribut..?
Haut
Messages: 420

Enregistré le: 15 Juin 2004

Message le Jeu Fév 24, 2005 0:40

rituel a écrit:+ Utilisation des "-" pour la séparation des mots-clefs dans le nom de la page


J'utilise aussi les "," pour séparer les mots dans le nom de ma page, et je pense que ce caractère a le même effet que "-".

En tout cas merci pour cette bible très pratique! :)
Haut
Messages: 372

Enregistré le: 25 Déc 2004

Message le Jeu Fév 24, 2005 4:24

Jai vu l'url rewritting en exemple :
"Ca consiste à transformer une page sous la forme
page.php?arg1=super&arg2=bible&arg3=rituel
en super-bible-rituel.htm
"
C'est un boulot de titan? récupérateur des url ?
Il ya des scripts php utilisant des méthodes du genre substring() replace()?
Comment ça marche ?
Haut
Messages: 372

Enregistré le: 25 Déc 2004

Message le Jeu Fév 24, 2005 4:25

Est-ce vraiment utile également ?
Est-ce durable dans le temps au niveau du référencement?
Haut
Messages: 2415

Enregistré le: 11 Fév 2005

Message le Jeu Fév 24, 2005 4:33

afrodiziak a écrit:Jai vu l'url rewritting en exemple :
"Ca consiste à transformer une page sous la forme
page.php?arg1=super&arg2=bible&arg3=rituel
en super-bible-rituel.htm
"
C'est un boulot de titan? récupérateur des url ?
Il ya des scripts php utilisant des méthodes du genre substring() replace()?
Comment ça marche ?
cherche un peu avec la fonction en haut à droite :wink: il y a des pages et des pages d'infos sur l'UR, qui se fait avec des fichiers .htaccess, et non avec du PHP :wink:
Haut
Messages: 468

Enregistré le: 23 Oct 2004

Message le Jeu Fév 24, 2005 21:17

rituel a écrit:J'ai rajouté charset et langue, merci à toi :wink:


La remarque de Monique me semble être très spécifique à certains sites. Sur un plan général on peut dire que le charset et la langue n'ont que très peu d'importance. Le fait de l'avoir ajouté dans ton article peut relancer les discussions à 6 sous sur les métas etc... Dans l'absolu, tout un tas de gens va penser que leur site est désindexé parce que ils n'ont pas mis ces balises. On n'a pas fini de rigoler :roll:

Bref je préférais la précédente version :wink:
Haut
Messages: 1175

Enregistré le: 16 Mar 2003

Message le Sam Fév 26, 2005 18:15

@Gab38 : Au moins tu mettras de choses, au plus ca sera précis car les mots clefs visés ne seront moins "dissouds".

@Phix : Rentabilisez.com utilisait ce type d'url rewriting et ca marchait très mal, depuis qu'ils sont passés aux tirets ca va mieux, maintenant il se peut que ce soit le fruit du hasard.

Ensuite pour la séparation des mots dans les URL Olivier avait prouvé que les tirets étaient la meilleure alternative. D'ailleurs j'ai du accepter cette théorie à contre coeur puisque j'avais pas du tout concu mon site sur ce modèle et ayant vérifié de mes propres yeux ses dires, je suis passé aux tirets pour la partie la plus importante de mon site.

@afrodiziak : De manière basique on utilise le mod rewriting d'apache pour PHP, ou ISAPI rewrite pour ASP. Mais pour les transformations plus évoluées il faut recourrir à de l'encodage d'url et d'autres fonctions ... Cliques ici si tu veux en savoir plus.

Toujours est il que OUI c'est utile voire même indispensable ;)

@Megachercheur : Si tu as des contre exemples je suis prenneur et j'enlèverai cette astuce, en tout cas le doctype lui est indispensable, ca j'en suis sûr.
Haut
Messages: 468

Enregistré le: 23 Oct 2004

Message le Dim Fév 27, 2005 10:32

rituel a écrit:@Megachercheur : Si tu as des contre exemples je suis prenneur et j'enlèverai cette astuce, en tout cas le doctype lui est indispensable, ca j'en suis sûr.


Il y a des millions de contre-exemples, à commencer par Google.com lui-même qui n'a pas de doctype :wink: Par contre il a un charset (UTF-8, je viens de vérifier) pour pouvoir être lu correctement par les navigateurs dans les pays de langue non latine etc...

On peut être soucieux d'être lu par les navigateurs russes, grecs, arabes etc... C'est une préoccupation importante mais qui n'a rien à voir avec le référencement. La preuve, j'ai fait des liens vers des sites de webmasters israéliens participant à un concours de référencement. Et bien je sors très bien sur Google en hébreux (alors que ma page est évidemment en français, j'en discute ici).

Deuxièmement, des personnes poursuivent une croisade dite du respect des standarts (W3C) et estiment que le doctype est indispensable. Je ne discute pas de l'intérêt de ça, par contre comme je l'ai dit plus haut Google.com lui-même n'a pas de doctype, à l'image de millions d'autres sites par ailleurs parfaitement bien référencés. Donc à nouveau, ne pas mélanger référencement et le reste. Ce sont deux éléments liés, mais bien distincts.
Haut
Messages: 8

Enregistré le: 25 Fév 2005

Message le Dim Fév 27, 2005 14:49

Merci pour cette bible !
J'ai deux questions :
1)
+ URL rewriting systématique des pages contenant des arguments

Qu'est-ce qu'une pages contenant des arguments ?
URL rewriting, c'est un sous-domaine ?
2)
+ Rester sous la barrière des 10 mots et des 70 caractères
+ Rester sous la barrière des 20 mots et des 120 caractères

Si nos titres ( différents pour chaque rubrique ) contient 15 mots, quels vont être les conséquences vis-à-vis du robot des moteurs de recherche ?
De même pour la description et la barrière de 20 mots.

Merci d'avance et encore merci lol :)
Haut
Messages: 3183

Enregistré le: 11 Fév 2004

Message le Dim Fév 27, 2005 14:59

Il est question de dilution de l'importance des mots clefs principaux :!:
En effet plus un titre est long et comporte une multitude de mots plus on perd de l'importance sur les premiers composants ce texte..
C'est en tout cas ce que j'en ai déduis :!:
:wink:
Fred
Tu auras certainement des avis complémentaires à ce sujet
Ps: Bienvenue
Haut
Messages: 2415

Enregistré le: 11 Fév 2005

Message le Dim Fév 27, 2005 15:03

Randu a écrit:Merci pour cette bible !
J'ai deux questions :
1)
+ URL rewriting systématique des pages contenant des arguments

Qu'est-ce qu'une pages contenant des arguments ?
URL rewriting, c'est un sous-domaine ?

C'est en page 2 de ce même sujet :wink:
Si je peux me permettre de te conseiller de lire les sujets en entier... il fait juste 3 pages :)

+ Rester sous la barrière des 10 mots et des 70 caractères
+ Rester sous la barrière des 20 mots et des 120 caractères

Si nos titres ( différents pour chaque rubrique ) contient 15 mots, quels vont être les conséquences vis-à-vis du robot des moteurs de recherche ?
De même pour la description et la barrière de 20 mots.

Si ton titre est trop long, la fin ne sera pas prise en compte par le moteur de recherche
Idem pour la description, et en plus tu "dilues" l'importance de tes mots-clefs dans une description trop longue.
Voilà ! :)
Haut
Messages: 10

Enregistré le: 27 Fév 2005

Message le Dim Fév 27, 2005 18:05

coucou rituel..comment allé dans partenariat pour faire conaitre mon forum?
Haut
Messages: 468

Enregistré le: 23 Oct 2004

Message le Lun Fév 28, 2005 7:58

olivieri a écrit:Ca consiste à transformer une page sous la forme

page.php?arg1=super&arg2=bible&arg3=rituel

en

super-bible-rituel.htm


Le danger aujourd'hui, c'est que de nombreux sites avec 20 pages de contenu texte génèrent à la volée 700 pages en Php et masquent les arguments page.php?arg1=super&arg2=bible&arg3=rituel (par exemple comme dit Olivieri) pour faire de belles pages Html comme super-bible-rituel.htm

Le problème est que Google ne tombe plus dans le panneau (Yahoo! si, encore un peu) ! D'où les pleurs de webmasters qui ont 10000 pages indexées mais 20 qui ressortent dans les résultats, on parle de désindexation de pages due à leur similarité.

Donc dans cette "bible" qui est proposée, il est délicat d'inciter les webmasters à multipler les pages dynamiques (générées à la volée en Php) et Url-rewritées. Car tous ceux qui s'y mettent maintenant arrivent clairement après la bataille, à un moment où Google n'est plus dupe (et Yahoo! plus pour très longtemps sans doute). Donc s'il est légitime et intéressant de mettre en ligne une telle "bible", chacun doit évidemment être extrémement prudent quand aux techniques utilisées. Les abus nuisent au référencement, mais les nouveaux webmasters savent-ils tous où passe la limite ?
Haut
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Lun Fév 28, 2005 10:50

Megachercheur je comprends que tu veux prévenir les webmasters que l'URL Rewriting peut ne pas suffire à tout résoudre, mais je ne vois pas du tout en quoi conseiller de faire de l'URL Rewriting peut-il être dangereux (en tout cas pour le référencement) ?

par ailleurs j'aimerais STP que tu m'envoies en MP les URL des sites ou pages ayant ce pb de désindexation de pages due à leur similarité (d'ailleurs en te relisant je me demande si c'est un pb de désindexation ou si c'est autre chose)
Haut
Messages: 468

Enregistré le: 23 Oct 2004

Message le Lun Fév 28, 2005 11:04

WebRankInfo a écrit:je ne vois pas du tout en quoi conseiller de faire de l'URL Rewriting peut-il être dangereux (en tout cas pour le référencement) ?


L'Url rewriting est une technique fabuleuse, qui a résolu à l'époque un grand problème : faire avaler par les moteurs des Urls qui leur paraissaient incompréhensibles (à cause des x arguments). La preuve, ça marche très bien sur WRI par exemple.

Là où ça se complique, c'est lorsque l'UR permet de masquer des milliers de pages dynamiques générées en Php pour faire croire que ce sont des pages avec un contenu solide (alors qu'en réalité on change quelques paramètres).

Je dis simplement que les moteurs ne tombent plus dans le panneau (on a donc aujourd'hui des sites avec 12000 pages connus de Google mais 300 qui sortent en résultats).

Donc l'UR n'est pas dangereux en soi bien sûr, par contre il ne permet plus (à mon avis) de faire croire aux moteurs qu'il y a du contenu alors qu'il n'y en a pas (après quelques semaines bien sûr, le temps que Google se rende compte).
Haut
Messages: 12

Enregistré le: 11 Fév 2005

Message le Lun Fév 28, 2005 11:26

fichier robots.txt

++ fichier robots.txt

Si j'ai bien vu, personne n'a parlé du fichier fichier robots.txtcomme étant incontournable pour etre indexé sur GG, car générateur d'erreur 404.

Quelqu'un a-t-il réussi à être indexé récemment sans ce fichier ?
Modifié en dernier par frederic infogestion le Jeu Mar 03, 2005 10:14, modifié 1 fois.
Haut
Messages: 528

Enregistré le: 16 Nov 2004

Message le Lun Fév 28, 2005 12:06

Re: fichier robots.txt

frederic infogestion a écrit:Si j'ai bien vu, personne n'a parlé de ce fichier comme étant incontournable pour etre indexé sur GG, car générateur d'erreur 404.

Quelqu'un a-t-il réussi à être indexé récemment sans ce fichier ?

¿ No comprendo ?
frederic infogestion a écrit:-www.infogestion.net

¿ No comprendo ?
T'as pas posté à coté ?
Haut
Messages: 12

Enregistré le: 11 Fév 2005

Message le Lun Fév 28, 2005 12:18

effectivement, erreur de saisie.. c'est rectifié... il s'agit du fichier robots.txt
Modifié en dernier par frederic infogestion le Jeu Mar 03, 2005 10:13, modifié 1 fois.
Haut
Messages: 1175

Enregistré le: 16 Mar 2003

Message le Lun Fév 28, 2005 13:56

Un URL rewriting bien fait, sans 40 000 mots dans les noms de pages et qui n'a pas de pages duplicatas fonctionne très bien, après c'est sûr qu'il y a toujours des gens qui exagèrent et qui en subissent donc les conséquences au niveau de Google ...
Haut
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Lun Fév 28, 2005 17:13

Megachercheur a écrit:
WebRankInfo a écrit:je ne vois pas du tout en quoi conseiller de faire de l'URL Rewriting peut-il être dangereux (en tout cas pour le référencement) ?


L'Url rewriting est une technique fabuleuse, qui a résolu à l'époque un grand problème : faire avaler par les moteurs des Urls qui leur paraissaient incompréhensibles (à cause des x arguments). La preuve, ça marche très bien sur WRI par exemple.

Là où ça se complique, c'est lorsque l'UR permet de masquer des milliers de pages dynamiques générées en Php pour faire croire que ce sont des pages avec un contenu solide (alors qu'en réalité on change quelques paramètres).

Je dis simplement que les moteurs ne tombent plus dans le panneau (on a donc aujourd'hui des sites avec 12000 pages connus de Google mais 300 qui sortent en résultats).

Donc l'UR n'est pas dangereux en soi bien sûr, par contre il ne permet plus (à mon avis) de faire croire aux moteurs qu'il y a du contenu alors qu'il n'y en a pas (après quelques semaines bien sûr, le temps que Google se rende compte).
en fait les pb dont tu parles n'ont pas de rapport avec l'URL Rewriting - en tout cas il me semble, ou alors pas beaucoup. Le pb concerne les pages trop similaires, souvent effectivement dynamiques.
Pour conclure, je veux simplement dire qu'il est mieux de conseiller de faire de l'URL Rewriting (si on peut) que de conseiller de ne pas le faire.
Haut
Messages: 20

Enregistré le: 1 Fév 2005

Message le Lun Fév 28, 2005 17:33

Il y a un point que j'aimerai que vous eclaircissiez, celui des NDD avec un mot clé.

Vous dites qu'il faut préférer http://keywork.domaine.net à http://www.domaine.net/keyword

Vous en êtes sûrs ? On a parlé recemment de sites premiers sur google qui profitaient du PR d'un gros hebergeur (des sites de la sorte www.gros-hebergeur/site-perso (avec chez.com par exemple).

Perso, je suis partagé :?
Haut
Messages: 9959

Enregistré le: 5 Mar 2003

Message le Lun Fév 28, 2005 17:35

+1.

Je pense que la relation entre url-rewriting et probleme de positionnement sur les moteurs n est pas "directe". C´est une illusion, une coincidence, une erreur d´interprétation (bref, un truc dans ce gout là).

Les pages similaires en url-rewriting connaissent a mon avis le meme sort que les pages similaires sans rewriting.
Haut
Messages: 25

Enregistré le: 26 Fév 2003

Message le Mar Mar 01, 2005 18:36

spidetra a écrit:Salut Rituel,
Merci pour ce document simple et clair qui peut servir de checklist pour l'audit d'un site.

Petite question concernant :

rituel a écrit:IX. Liens internes
+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>


Est-il important, en terme de référencement, de mettre la base de l'url dans le lien ?
Tout mes liens sont du type :
<a href="/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>

Encore merci pour ce document.

Je me permet de relancer la question. :wink:

Je suis aussi dans ce cas
Haut
Messages: 25

Enregistré le: 26 Fév 2003

Message le Mar Mar 01, 2005 18:38

Est-il intéressant de faire un répertoire par page (j'exagère) pour accentuer le poids des mots clef?
Haut
Messages: 468

Enregistré le: 23 Oct 2004

Message le Mar Mar 01, 2005 19:40

herveG a écrit:Je pense que la relation entre url-rewriting et probleme de positionnement sur les moteurs n est pas "directe".


Absolument d'accord. Le problème vient des pages dynamiques générées à la volée (à la pelle si tu préfères :wink: ) sans aucun discernement. Je dis simplement que l'UR a servi à beaucoup de webamsters à masquer ces pages-bidon sous des Url potables (.html) et j'ajoute que les moteurs ne sont plus dupes. Est-il utile de le préciser ? Celui qui utilise l'UR pour autre chose que masquer ses vicissitudes :wink: n'a aucun soucis à se faire.

herveG a écrit:Les pages similaires en url-rewriting connaissent a mon avis le meme sort que les pages similaires sans rewriting.


Re-absolument d'accord. J'ajoute que pendant un temps, les pages similaires maquillées grâce à l'url-rewriting passaient normalement auprès des moteurs. Aujourd'hui, avec ou sans url-rewriting, les pages similaires sont mises à la trappe (connaissent le même sort comme tu dis) de la même façon.
Haut
Messages: 412

Enregistré le: 2 Mar 2005

Message le Mer Mar 02, 2005 16:20

texte non visible

- Tout texte non visible ou non cohérent pour les visiteurs


A propos du texte non visible pour l'utilisateur, d'après l'expérience que j'en ai, GG semble bien prendre en compte le texte dans la balise noscript, même s'il n'est pas visible pout la plupart des utilisateurs.

Pour le texte non cohérent, une liste d'expressions ou de mots séparés par un "-" par exemple est tout à fait pris en compte par GG, toujours d'après ma petite expérience.

+ Utilisation des "-" pour la séparation des mots-clefs dans le nom de la page


un autre séparateur, par exemple "," semble aussi fonctionner

+ Organisation d'un thème en répertoires portants le mot-clef du sous-thème abordé


Celà siginifie t'il que si j'ai par exemple un site sur le thème "cadeau", www.cadeau.com, il faudrai faire un sous-rep "vins", un autre "parfums" etc. et de créer des sous-domaines vins.cadeau.com et parfums.cadeau.com ?
Si c'est celà, mon éditeur de page web (très sommaire) ne convient plus, il ne permet pas de construire des menus avec des pages en sous-rep.
Quel éditeur de pages web avec thèmes graphiques me conseillez-vous ?




Annie02
Haut
Messages: 4940

Enregistré le: 17 Aoû 2004

Message le Mer Mar 02, 2005 17:27

annie02 a écrit:Celà siginifie t'il que si j'ai par exemple un site sur le thème "cadeau", www.cadeau.com, il faudrai faire un sous-rep "vins", un autre "parfums" etc. et de créer des sous-domaines vins.cadeau.com et parfums.cadeau.com ?

attention quand même aux sous-domaines d'1 seule page ... :wink:
Haut
Messages: 27

Enregistré le: 11 Jan 2004

Message le Mer Mar 02, 2005 22:01

Au risque de me faire lincher par tout le monde, je pense que mettre en place l'URL rewriting pour un site en place depuis un moment est très dangereux.

Même si les metas sont travaillés pour éviter le "similar content", on aura tout de même des pages similaires.

Je vous explique ça :

Mettons que certains liens avec paramètres sont indexés par Google. Ensuite je met l'URL Rewriting en place, j'ai donc de nouvelles URLs. Google retient les 2 URL (avec et sans UR) pour une même page => pages similaires. Toutes les pages précédemment indexées auront ce problème et Google met énormément de temps à désindexer les anciennes URL qui ne sont plus valides.
Haut
Messages: 1175

Enregistré le: 16 Mar 2003

Message le Mer Mar 02, 2005 22:13

- Changements de topologie sans redirections


-> Si tu fais de l'URL rewriting, tu met les redirections 301 sur les pages à arguments vers le spages rewritées.
Haut
Messages: 327

Enregistré le: 12 Avr 2004

Message le Mer Mar 02, 2005 23:50

rituel a écrit:
- Changements de topologie sans redirections


-> Si tu fais de l'URL rewriting, tu met les redirections 301 sur les pages à arguments vers le spages rewritées.


Ce n'est pas souvent possible, si je ne me trompe pas, à mettre en oeuvre.

Par exemple; mes règles url-rewriting sont :
RewriteEngine on
RewriteRule ^ajout-site.htm$ /annuaire/submit_site.php
RewriteRule ^ajout-site-([0-9]+)\.htm$ /annuaire/submit_site.php?id_cat=$1
RewriteRule ^(.*)-([0-9]+)-([0-9]+)\.htm$ /annuaire/index.php?cat_id=$2&page=$3
RewriteRule ^(.*)-([0-9]+)\.htm$ /annuaire/index.php?cat_id=$2


Dans ce cas, y a t'il une solution via l'url-rewriting ? Je ne pense pas.
Haut