Bonjour à tous,
Je m'appelle Alexandre, j'ai 25 ans, je travaille pour un comparateur internet dans le sud de la France (à aix en Provence), et je m'intéresse de près à tout ce qui touche au SEO. D'un point de vue extra-professionnel, photographie et vol à voile sont mes passions...
Je rencontre un problème d'indexation de mon site perso, récemment créée. Je vais tenter d'apporter l'information la plus précise et claire possible.
Je suis actuellement hébergé chez OVH, (le nom de domaine a également été réservé via OVH). J'utilise le module Wordpress installé à la racine. Il s'agit d'un "petit" site de 12 pages.
Mon problème : après avoir envoyé le sitemap à Google via le webmaster tool, je constate :
1/ erreur d'exploration du fichier robots.txt. Suite à cette erreur, j'ai supprimé le fichier, afin de ne pas bloquer l'exploration du site, or, Google détecte toujours cette erreur d'exploration... Pour info, il s'est passé grossomodo une semaine depuis le premier message d'erreur et la suppression du fichier robots.txt.
l'upload initial du fichier robots.txt a généré le blocage de 10 URLs. J'ai l'impression que google ne prend pas en compte la suppression du robots.txt (à moins que googlebot mette plus de tps pour revenir...?)
2/ Google me renvoie un code de réponse 520 sur 7 URL (dont le sitemap :-/ ) J'ai pour cela envoyé un message à OVH, il y a environ 4/5 jours, et pour lequel je n'ai pas de réponse.
3/ Dans l'onglet "sitemap" du webmaster tool, je constate 1 erreur 404 (mais a priori corrigé, car la page est de nouveau accéssible) et 3 avertissements identiques pour la même url /a-propos (cf. retranscription ci-dessous) :
Cependant sur les 12 pages envoyés via le sitemap, webmastertool m'indique en avoir indexé 9 (or lorsque je lance la fonction site: sur Google, je ne trouve que 2 pages...
Enfin, il est je pense important de savoir, que j'ai tenté de générer des sitemap de différentes manières, soit par un générateur de sitemap, soit par un pluggin Wordpress, en veillant à ne pas faire de doublons.
Idem pour le fichier robot.txt...
Actuellement, j'ai supprimé du serveur le robot.txt, seul le sitemap est tjs présent.
Si quelqu'un à déjà rencontré ce type de problème, ou susceptible de m'aider... je lui en serais très très reconnaissant !
Merci d'avance,
Alexandre
Je m'appelle Alexandre, j'ai 25 ans, je travaille pour un comparateur internet dans le sud de la France (à aix en Provence), et je m'intéresse de près à tout ce qui touche au SEO. D'un point de vue extra-professionnel, photographie et vol à voile sont mes passions...
Je rencontre un problème d'indexation de mon site perso, récemment créée. Je vais tenter d'apporter l'information la plus précise et claire possible.
Je suis actuellement hébergé chez OVH, (le nom de domaine a également été réservé via OVH). J'utilise le module Wordpress installé à la racine. Il s'agit d'un "petit" site de 12 pages.
Mon problème : après avoir envoyé le sitemap à Google via le webmaster tool, je constate :
1/ erreur d'exploration du fichier robots.txt. Suite à cette erreur, j'ai supprimé le fichier, afin de ne pas bloquer l'exploration du site, or, Google détecte toujours cette erreur d'exploration... Pour info, il s'est passé grossomodo une semaine depuis le premier message d'erreur et la suppression du fichier robots.txt.
l'upload initial du fichier robots.txt a généré le blocage de 10 URLs. J'ai l'impression que google ne prend pas en compte la suppression du robots.txt (à moins que googlebot mette plus de tps pour revenir...?)
2/ Google me renvoie un code de réponse 520 sur 7 URL (dont le sitemap :-/ ) J'ai pour cela envoyé un message à OVH, il y a environ 4/5 jours, et pour lequel je n'ai pas de réponse.
3/ Dans l'onglet "sitemap" du webmaster tool, je constate 1 erreur 404 (mais a priori corrigé, car la page est de nouveau accéssible) et 3 avertissements identiques pour la même url /a-propos (cf. retranscription ci-dessous) :
Lors du test d'un échantillon des URL de votre sitemap, nous avons constaté que certaines des URL n'étaient pas accessibles. Ce problème pouvant provenir d'une erreur de serveur (par exemple, une erreur 5xx) ou d'une erreur de réseau entre Googlebot et votre serveur, nous vous conseillons de vérifier la configuration de votre serveur Web. Toutes les URL accessibles seront envoyées.
Cependant sur les 12 pages envoyés via le sitemap, webmastertool m'indique en avoir indexé 9 (or lorsque je lance la fonction site: sur Google, je ne trouve que 2 pages...
Enfin, il est je pense important de savoir, que j'ai tenté de générer des sitemap de différentes manières, soit par un générateur de sitemap, soit par un pluggin Wordpress, en veillant à ne pas faire de doublons.
Idem pour le fichier robot.txt...
Actuellement, j'ai supprimé du serveur le robot.txt, seul le sitemap est tjs présent.
Si quelqu'un à déjà rencontré ce type de problème, ou susceptible de m'aider... je lui en serais très très reconnaissant !
Merci d'avance,
Alexandre