Messages: 8

Enregistré le: 22 Oct 2011

Message le Dim Oct 30, 2011 11:41

Bonjour à tous,

j'ai beau faire des essais dans tous les sens, j'ai ce problème persistant depuis une dizaine de jours :
Google référence ma page de recherche interne malgré :
- la présence de <meta name="robots" content="noindex" />dans la page
- Disallow:/recherche.php dans le fichier robots.txt
J'ai même fait une demande de suppression de la page dans les outils google pour webmasters (Accès du robot d'exploration) où elle est bien indiquée supprimée...
Pourtant, par exemple, si je recherche "portrait fusain" dans google, j'ai www.onveut.com/recherche.php?search=portrait%20fusain qui ressort !
Au détriment de ma page http://www.onveut.com/Dessin--peinture-et-infographie__Esquisses-et-dessins__Portrait-style-fusain.html qui était d'ailleurs classée troisième dans les résultats avant...

Mystère et boule de gomme ou quelqu'un saurait-il où est la faille ?
Haut
9 Réponses
Messages: 663

Enregistré le: 22 Oct 2011

Message le Dim Oct 30, 2011 13:57

Tu en avait beaucoup de page recherche.php indexées ?
GG ne les supprimer pas toute d'un coup, c'est peut-être cela...
Haut
Messages: 8

Enregistré le: 22 Oct 2011

Message le Lun Oct 31, 2011 12:02

Peut-être mais il y a longtemps 2-3 mois qu'elles sont en noindex...
D'ailleurs, Google est censé ne pas aimer les pages de recherche internes indexées mais je viens de remarquer un truc (nouveau ?) : Google indique le nombre d'éléments trouvés dans la page de recherche :
"30 éléments – Trouver par cette page une Idée cadeau comportant photo ...
• Photo sur gâteau – Votre photo sur votre gâteau... On en mangera – Création ...
• Porte-clés rectangle lumineux avec photo – Au coeur du verre, toujours sur ...
• Photo Montage sur gâteau – Un montage photo en impression alimentaire pour ..."
Haut
Messages: 663

Enregistré le: 22 Oct 2011

Message le Lun Oct 31, 2011 13:46

Si ton sites est peu populaire, 3 mois, ça peut être court pour toutes les supprimer.
Entre il y a 3 mois et aujourd'hui, t'es passé de combien de "mauvaises" pages indexées ?
Haut
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Lun Oct 31, 2011 17:38

maintenant que tu as mis le disallow dans le robots.txt, Googlebot ne peut plus voir que tu as mis un noindex, donc il ne va pas les désindexer...
sauf si tu vas dans GWT mais comme ce n'est pas un répertoire, tu ne peux pas supprimer toutes les pages concernées d'un seul coup.

le + efficace serait donc de virer le disallow et de laisser le noindex. Et d'attendre...
Haut
Messages: 4994

Enregistré le: 3 Fév 2004

Message le Lun Oct 31, 2011 17:40

Ou tu peux également renvoyer un Gone (410) mais comme le dit Olivier, il faut bien entendu virer le blocage du robots.txt car là tu demandes au robot d'aller lire une ligne que tu lui interdis de voir.
Haut
Messages: 663

Enregistré le: 22 Oct 2011

Message le Lun Oct 31, 2011 18:51

... pas con le coup du disallow...
Haut
Messages: 188

Enregistré le: 16 Juin 2011

Message le Lun Oct 31, 2011 20:00

Bonsoir,

Tout à fait, le robots.txt bloque le crawl et le meta robots bloque l'indexation, ce sont deux choses bien différentes.
Il ne faut jamais utiliser les deux en même temps !

Johann
Haut
Messages: 8

Enregistré le: 22 Oct 2011

Message le Mar Nov 01, 2011 11:50

Merci beaucoup, ça marche ! :)
Et merci aussi Olivier pour votre formidable formation : je suis en train de mettre en pratique, je viendrai apporter mon témoignage ensuite car ça vaut le coup !
Haut
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Mar Nov 01, 2011 13:18

Content que ça marche et que la formation ait autant plu. Merci d'avance pour le témoignage !
Haut