Règles du forum

Attention ce forum est destiné avant tout à ceux qui découvrent le référencement. Les membres qui auront l'amabilité de répondre à leurs questions sont priés de rester courtois, polis, indulgents, patients et pédagogues... Merci d'avance !

Par ailleurs, inutile d'utiliser ce forum uniquement pour obtenir des liens vers vos sites, les liens sont désactivés pour le référencement (nofollow).

Messages: 19

Enregistré le: 26 Fév 2015

Message le Mer Fév 22, 2017 23:23

Bonjour,

Je vois dans le webmaster tools que Google indexe les pages de résultats de mon moteur de recherche interne de mon site. J'ai une boxe de recherche multicritère et une boxe de recherche simple.

Dois-je ne pas faire indexer ces pages qui créent du contenu dupliqué et d'autres erreurs ?

Comment faire ? Avec le robots.txt ?

Merci,
Philippe de Podexpert.
Haut
30 Réponses
Messages: 8424

Enregistré le: 14 Mai 2003

Message le Jeu Fév 23, 2017 7:33

Podexpert a écrit:Dois-je ne pas faire indexer ces pages qui créent du contenu dupliqué et d'autres erreurs ?

Avoid the following techniques:
  • Automatically generated content

Src: https://support.google.com/webmasters/answer/35769
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 9:24

Merci Solution, c'est bien ce que je pensais.

Dois-je passer par le robot.txt pour cela ?
Quelle ligne dois-je rentrer ?

Merci,
Philippe
Haut
Messages: 8424

Enregistré le: 14 Mai 2003

Message le Jeu Fév 23, 2017 9:29

robots.txt ou meta robots:
http://www.webrankinfo.com/dossiers/indexation/comment-desindexer
Haut
Messages: 23010

Enregistré le: 19 Avr 2002

Message le Jeu Fév 23, 2017 9:29

en effet il ne faut pas les faire indexer, et sans doute pas non plus crawler

si elles sont actuellement indexées, il faut d'abord les désindexer (tuto ici)
et ensuite bloquer le crawl
Pour ne plus confondre ces notions, lis mon dossier crawl/indexation

je t'invite à lire mes articles sur le sujet (liens déjà fournis), ou à voir mon webinar sur robots.txt et noindex (replay gratuit)
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 9:43

Merci beaucoup pour vos réponses.

Je m'y attelle dès aujourd'hui.

Bonne journée,
Philippe
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 11:19

Re,

Il faut attendre attendre que la page soit désindexée (1 jours ou 2) avant de l'entrer dans le robots.txt si j'ai bien compris ?

Merci,
Philippe
Haut
Messages: 23010

Enregistré le: 19 Avr 2002

Message le Jeu Fév 23, 2017 11:21

indique-nous le format des URL de résultats de recherche, ou un exemple
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 12:24

Voici le chemin des résultats de recherche : https://www.podexpert.com/recherche-resultats.php

J'ai bien désindéxé avec la balise mais je n'ai encore rien mis dans le robots.txt
Haut
Messages: 23010

Enregistré le: 19 Avr 2002

Message le Jeu Fév 23, 2017 12:35

ok donc les URL des résultats de recherche ne sont pas regroupées dans un répertoire à la racine (par exemple /recherche/), ce qui complique la désindexation.

il faut attendre que Google désindexe les pages concernées (voir mon tuto pour accélérer)
ensuite seulement il faudra ajouter
Disallow: /recherche-resultats.php
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 14:31

J'ai fait la demande pour https://www.podexpert.com/recherche-resultats.php dans la search console. J'ai choisi pour tout le répertoire si j'ai bien compris.
Quand la demande aura abouti, je rajouterai Disallow: /recherche-resultats.php dans le robots.txt

Merci pour votre aide.

Bonne journée,
Philippe.
Haut
Messages: 23010

Enregistré le: 19 Avr 2002

Message le Jeu Fév 23, 2017 14:45

ça ne marchera pas, il ne s'agit pas d'un répertoire...
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 17:03

J'ai annulé ma demande et je l'ai remplacé par suppression de page web.
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 18:55

Voici mon robots.txt
User-Agent: *
Disallow: /envoyer_a_un_ami.php?
Disallow: /*?currency=*
Disallow: /*sortorder_az=
Disallow: /*sortorder_id=

Je ne comprends pas pourquoi il y a des * dans les lignes avec disallow. Le * de User-agent je le comprends mais pas les autres.
Haut
Messages: 12168

Enregistré le: 23 Nov 2005

Message le Jeu Fév 23, 2017 18:58

Ces règles permettent de bloquer toutes les url intégrant la partie fixe des règles en question.

Disallow: /*?currency=* se comprend par : "toute page qui contient la chaîne '?currency='".

A la différence de Disallow: /envoyer_a_un_ami.php? : "toute page qui commence par '/envoyer_a_un_ami.php?'"
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 19:08

J'avais lu qu'il n'y avait pas de joker pour le robots.txt.

Donc quand la page sera désindéxé, il faudra que je rajoute /*recherche-resultats dans mon robots.txt pour qu'il n'y ait plus de crawl ?

D'ailleurs n'aurais pas du demander la désindéxation de /*recherche-resultats au lieu de /recherche-resultats.php ?
Car les pages que je veux enlever commencent par https://www.podexpert.com/recherche-resultats.php mais sont suivis par une chaine de caractère selon ce qui est entré dans la barre de recherche par exemple : https://www.podexpert.com/recherche-resultats.php?search_in_descriptio ... &x=10&y=22

Moi j'ai demandé la suppression de l'URL /recherche-resultats.php, est-ce que ça va supprimer toutes les autres occurences ?

Merci,
Philippe
Haut
Messages: 23010

Enregistré le: 19 Avr 2002

Message le Jeu Fév 23, 2017 21:54

Podexpert a écrit:J'avais lu qu'il n'y avait pas de joker pour le robots.txt.

en effet, dans le standard il n'y en a pas, mais Google les gère

Podexpert a écrit:Donc quand la page sera désindéxé, il faudra que je rajoute /*recherche-resultats dans mon robots.txt pour qu'il n'y ait plus de crawl ?

non, le * est inutile car il n'y a aucun caractère à remplacer entre le / et le r

Podexpert a écrit:D'ailleurs n'aurais pas du demander la désindéxation de /*recherche-resultats au lieu de /recherche-resultats.php ?

quand on demande la désindexation, c'est d'une URL ou d'un bout d'URL (répertoire), mais pas d'une règle avec des caractères jokers

Podexpert a écrit:Moi j'ai demandé la suppression de l'URL /recherche-resultats.php, est-ce que ça va supprimer toutes les autres occurences ?

non
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Jeu Fév 23, 2017 22:08

Ok donc pour désindexer l'ensemble des pages qui commence par https://www.podexpert.com/recherche-resultats.php sur la google search console comment dois-je faire ?
En notant https://www.podexpert.com/recherche-resultats et demander la désindexation du répertoire ?
La balise pour la désindexation sur mon site a aussi été mise sur https://www.podexpert.com/recherche-resultats.php.

Dans la balise robots.txt, il faudra dans ce cas que je mette /recherche-resultats.php* ?

Merci pour votre réactivité.
Haut
Messages: 23010

Enregistré le: 19 Avr 2002

Message le Jeu Fév 23, 2017 23:58

au bout d'un moment, il faut accepter de tenir compte de ce qu'on dit...

ce n'est pas possible de désindexer d'un seul coup toutes ces URL
pour le reste, relire mes messages précédents
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Ven Fév 24, 2017 0:01

Ok donc je ne peux désindexer toutes les URL mais je peux éviter que Google viennent les crawler. C'est déjà ça de pris.
Merci pour vos réponses.
Haut
Messages: 12168

Enregistré le: 23 Nov 2005

Message le Ven Fév 24, 2017 7:05

Si tu en bloques l'accès avant que Google ne les ait désindexé, les pages déjà dans l'index le resteront.
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Ven Fév 24, 2017 9:31

Oui ça j'avais bien compris. Quand je disais "c'est déjà ça de pris" je parlais des infos glanées sur le thread.

Le problème c'est que j'ai des centaines de pages à faire désindexer, toute commençant par https://www.podexpert.com/recherche-resultats.php

Si je suis le tuto pour rendre une page non-indexable :
- soit je mets une balise no-index sur chaque page, ce qui va me prendre un temps fou (Je suis sous shop application, pas d'accès direct au code, je peux rajouter des balises mais pas en masse).
- soit j'utilise l'outils de la search console, mais pareil, je dois le faire une par une car recherche-resultats.php n'est pas un répertoire.

Pour qu'elles ne soient pas crawlées c'est quand même plus simple car je peux utiliser * dans mon robots.txt.

La seule solution c'est d'utiliser le Noindex dans le robots.txt mais les avis varient sur cette méthode.

Bonne journée,
Philippe
Haut
Messages: 12168

Enregistré le: 23 Nov 2005

Message le Ven Fév 24, 2017 10:02

La balise noindex, avec Shop Application, c'est mort. Sauf à faire un ticket auprès du prestataire.

Te reste donc, en effet, la désindexation url par url via Google Search Console (tu peux faire plus rapidement que un par un en utilisant un plugin Firefox comme iMacro, qui te permettrait de scripter l'ajout des url à désindexer) ou le robots.txt via la directive noindex.

Edit, a priori tu as la main pour le noindex : http://www.shop-application.com/module-actualites-optimisez-lindexatio ... 5_228.html

Tu as essayé en indiquant uniquement le nom du fichier.php dans l'interface dont il est question en début d"article ?
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Ven Fév 24, 2017 12:40

Oui j'ai la main pour la meta noindex dans Shop Application mais c'est le même problème qu'avec la search console, c'est un par un. Il ne me semble pas qu'il accepte les jokers.

J'ai essayé avec uniquement le fichier.php et ça l'a rendu non indexable mais pas toutes ces variantes.

J'ai fait le test avec le noindex dans le robots.txt, ça a l'air d'avoir fonctionné. Maintenant est-ce que la balise noindex dans le robots.txt va aussi empêcher que ce soit crawlé ? Certains disent oui, d'autre non. Dans le doute, je vais rajouter le Disallow en dessous.

Merci pour vos réponses.
Haut
Messages: 12168

Enregistré le: 23 Nov 2005

Message le Ven Fév 24, 2017 18:11

Si tu mets un noindex, ça ne désindexera pas ce qui l'est déjà.
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Ven Fév 24, 2017 18:19

Ah merde j'avais cru comprendre le contraire.
Pourtant que je fais le test de robots.txt sur la search console avec la commande Noindex: /recherche-resultats.php*
Et que je test avec https://www.podexpert.com/recherche-resultats.php?criteria%5B1%5D=*&cr ... a%5B7%5D=* par exemple, il me dit bien qu'il est bloqué.

Je vais voir avec les meta noindex sur Shop Application si ils peuvent me mettre la balise pour toutes les URL commençant par https://www.podexpert.com/recherche-resultats.php
Haut
Messages: 12168

Enregistré le: 23 Nov 2005

Message le Ven Fév 24, 2017 19:20

Bloquer une page ne la désindexe pas.

cf http://www.webrankinfo.com/dossiers/conseils/disallow-noindex-nofollow
Haut
Messages: 19

Enregistré le: 26 Fév 2015

Message le Ven Fév 24, 2017 19:32

Oui mais comme je vous l'ai dit plus haut, j'ai mis la directive noindex dans mon robots.txt qui accepte les jokers.
Or comme je l'avais lu dans le tuto de WRI que vous m'avez lié : "Mon test a montré que cette commande noindex dans le robots.txt bloque même le crawl. J'ai voulu faire le test inverse pour compléter l'analyse : j'enlève la directive Noindex, je laisse indexer la page, et seulement ensuite j'ajoute la directive Noindex. Il a fallu attendre plusieurs jours, mais la page a fini par être désindexée, sans que Google revienne crawler la page."
Haut
Messages: 2079

Enregistré le: 9 Aoû 2005

Message le Ven Fév 24, 2017 19:40

mais la page a fini par être désindexée


Tu peux aussi utiliser le 410 en .htaccess pour supprimer un contenu, le code 410 indique a gogole une page retirée de façon permanente, il finira par en supprimer le contenu de son index :

redirect 410 /sous-dossier/titre_de_la_page.html
Haut
Messages: 12168

Enregistré le: 23 Nov 2005

Message le Ven Fév 24, 2017 19:52

Oublie, Furtif. C'est du Shop Application, un CMS en mode Saas.
Haut