Bonjour,
Après avoir cherché une solution pendant un mois par moi-même en testant différentes solutions et en parcourant les sujets déjà ouverts ici et là, je me vois obligé de faire un appel "personnalisé" tant mon problème est étrange.
Le contexte :
J'ai un site qui tourne sous wordpress
J'ai le plugin Google XML SiteMaps installé
ma structure de permaliens est domaine.fr/categorie/nom-de-la-page-id
Le problème :
Dans Google Webmaster Tools (GWT) j'ai des centaines d'erreurs de crawl (not found - 404) de pages qui n'existent pas et que GWT me dit trouver dans mon sitemap.xml.gz. Pour quelques erreurs il me dit aussi que la source n'est pas disponible (unavailable).
Les pages "not found" correspondent à mes articles (posts wordpress) et l'adresse trouvée par GWT a pour structure : domaine.fr/nom-de-la-page-id. En gros GWT me zappe le "categorie" de ma structure.
Exemple : au lieu de me crawler normalement domaine.fr/legumes/carotte-3456 il me trouve une erreur de crawling sur domaine.fr/carotte-3456 (sans la catégorie legumes donc)
Pourtant les articles sont indexés correctement dans google quand je fais une recherche.
Solution :
J'ai vérifié le contenu de mon sitemap.xml.gz et ces pages not found crawlées par googlebot que GWT me dit trouvé dans mon sitemap n'y sont pourtant pas !
J'ai recréé mille fois mon sitemap.xml.gz et rien n'y fait il continue à me trouver ces pages qui n'existent nulle part (j'ai même tapé les urls dans google pour voir si un site linkait vers elles mais zéro résultat).
Au début j'ai pensé que l'erreur venait du plugin WP Super Cache mais j'ai supprimé ce plugin et ça n'a eu aucun effet
J'ai ensuite pensé que l'erreur venait d'un test sur mes permaliens (j'avais essayé d'enlever la catégorie pour avoir justement seulement domaine.fr/nom-de-la-page mais j'étais finalement revenu en arrière) mais impossible de savoir si c'est ça...
Aujourd'hui j'ai l'impression de n'avoir que deux choix :
faire un Disallow sur toutes ces pages dans un robot.txt (je n'en ai pas à l'heure actuelle)
faire des redirections 301
Mes ces deux solutions me semblent être du bricolage un peu hasardeux.
Pouvez-vous m'aider à régler ce problème, ça devient urgent, j'ai remarqué une baisse de mon positionnement dans les recherches google (pas énorme mais quand meme)...
Merci !
Après avoir cherché une solution pendant un mois par moi-même en testant différentes solutions et en parcourant les sujets déjà ouverts ici et là, je me vois obligé de faire un appel "personnalisé" tant mon problème est étrange.
Le contexte :
J'ai un site qui tourne sous wordpress
J'ai le plugin Google XML SiteMaps installé
ma structure de permaliens est domaine.fr/categorie/nom-de-la-page-id
Le problème :
Dans Google Webmaster Tools (GWT) j'ai des centaines d'erreurs de crawl (not found - 404) de pages qui n'existent pas et que GWT me dit trouver dans mon sitemap.xml.gz. Pour quelques erreurs il me dit aussi que la source n'est pas disponible (unavailable).
Les pages "not found" correspondent à mes articles (posts wordpress) et l'adresse trouvée par GWT a pour structure : domaine.fr/nom-de-la-page-id. En gros GWT me zappe le "categorie" de ma structure.
Exemple : au lieu de me crawler normalement domaine.fr/legumes/carotte-3456 il me trouve une erreur de crawling sur domaine.fr/carotte-3456 (sans la catégorie legumes donc)
Pourtant les articles sont indexés correctement dans google quand je fais une recherche.
Solution :
J'ai vérifié le contenu de mon sitemap.xml.gz et ces pages not found crawlées par googlebot que GWT me dit trouvé dans mon sitemap n'y sont pourtant pas !
J'ai recréé mille fois mon sitemap.xml.gz et rien n'y fait il continue à me trouver ces pages qui n'existent nulle part (j'ai même tapé les urls dans google pour voir si un site linkait vers elles mais zéro résultat).
Au début j'ai pensé que l'erreur venait du plugin WP Super Cache mais j'ai supprimé ce plugin et ça n'a eu aucun effet
J'ai ensuite pensé que l'erreur venait d'un test sur mes permaliens (j'avais essayé d'enlever la catégorie pour avoir justement seulement domaine.fr/nom-de-la-page mais j'étais finalement revenu en arrière) mais impossible de savoir si c'est ça...
Aujourd'hui j'ai l'impression de n'avoir que deux choix :
faire un Disallow sur toutes ces pages dans un robot.txt (je n'en ai pas à l'heure actuelle)
faire des redirections 301
Mes ces deux solutions me semblent être du bricolage un peu hasardeux.
Pouvez-vous m'aider à régler ce problème, ça devient urgent, j'ai remarqué une baisse de mon positionnement dans les recherches google (pas énorme mais quand meme)...
Merci !