Messages: 1

Enregistré le: 5 Avr 2014

Message le Sam Avr 05, 2014 23:32

Bonjour à tous,

Je m'appelle Alexandre, j'ai 25 ans, je travaille pour un comparateur internet dans le sud de la France (à aix en Provence), et je m'intéresse de près à tout ce qui touche au SEO. D'un point de vue extra-professionnel, photographie et vol à voile sont mes passions...

Je rencontre un problème d'indexation de mon site perso, récemment créée. Je vais tenter d'apporter l'information la plus précise et claire possible.

Je suis actuellement hébergé chez OVH, (le nom de domaine a également été réservé via OVH). J'utilise le module Wordpress installé à la racine. Il s'agit d'un "petit" site de 12 pages.

Mon problème : après avoir envoyé le sitemap à Google via le webmaster tool, je constate :

1/ erreur d'exploration du fichier robots.txt. Suite à cette erreur, j'ai supprimé le fichier, afin de ne pas bloquer l'exploration du site, or, Google détecte toujours cette erreur d'exploration... Pour info, il s'est passé grossomodo une semaine depuis le premier message d'erreur et la suppression du fichier robots.txt.
l'upload initial du fichier robots.txt a généré le blocage de 10 URLs. J'ai l'impression que google ne prend pas en compte la suppression du robots.txt (à moins que googlebot mette plus de tps pour revenir...?)

2/ Google me renvoie un code de réponse 520 sur 7 URL (dont le sitemap :-/ ) J'ai pour cela envoyé un message à OVH, il y a environ 4/5 jours, et pour lequel je n'ai pas de réponse.

3/ Dans l'onglet "sitemap" du webmaster tool, je constate 1 erreur 404 (mais a priori corrigé, car la page est de nouveau accéssible) et 3 avertissements identiques pour la même url /a-propos (cf. retranscription ci-dessous) :

Lors du test d'un échantillon des URL de votre sitemap, nous avons constaté que certaines des URL n'étaient pas accessibles. Ce problème pouvant provenir d'une erreur de serveur (par exemple, une erreur 5xx) ou d'une erreur de réseau entre Googlebot et votre serveur, nous vous conseillons de vérifier la configuration de votre serveur Web. Toutes les URL accessibles seront envoyées.


Cependant sur les 12 pages envoyés via le sitemap, webmastertool m'indique en avoir indexé 9 (or lorsque je lance la fonction site: sur Google, je ne trouve que 2 pages...

Enfin, il est je pense important de savoir, que j'ai tenté de générer des sitemap de différentes manières, soit par un générateur de sitemap, soit par un pluggin Wordpress, en veillant à ne pas faire de doublons.
Idem pour le fichier robot.txt...

Actuellement, j'ai supprimé du serveur le robot.txt, seul le sitemap est tjs présent.

Si quelqu'un à déjà rencontré ce type de problème, ou susceptible de m'aider... je lui en serais très très reconnaissant !

Merci d'avance,

Alexandre
Haut
7 Réponses
Messages: 23111

Enregistré le: 19 Avr 2002

Message le Lun Avr 07, 2014 8:36

ça serait tout de même + simple de te répondre si on avait l'URL du site concerné
Haut
Messages: 3259

Enregistré le: 7 Sep 2003

Message le Mer Avr 16, 2014 21:00

seo-hero a écrit:Actuellement, j'ai supprimé du serveur le robot.txt, seul le sitemap est tjs présent.


Pour commencer c'est robots.txt avec un s
Et ensuite il est préférable de ne pas le supprimer mais de mettre un fichier qui contient rien du tout.
Ou mieux, lui mettre ceci :
Code: Tout sélectionner
User-agent: *
Sitemap : http://www.example.com/sitemap.xml


Comme cela les robots savent où se trouve le sitemap
Haut
Messages: 1

Enregistré le: 27 Jan 2015

Message le Mar Jan 27, 2015 17:51

Bonjour,

je me suis aperçu ce matin que la plupart de mes sites avait été deindexé par google ex: info:www.nomdedomaine.com ( n'est plus indexé par google).

Tout ces sites était référencés depuis plus de 2 ans sans problème et bien positionnés. Ce matin d'un seule coup plus rien sur la presque la totalité et un message sur le sitemap :

"Lors du test d'un échantillon des URL de votre sitemap, nous avons constaté que certaines des URL n'étaient pas accessibles. Ce problème pouvant provenir d'une erreur de serveur (par exemple, une erreur 5xx) ou d'une erreur de réseau entre Googlebot et votre serveur, nous vous conseillons de vérifier la configuration de votre serveur Web. Toutes les URL accessibles seront envoyées".

Avez vous une idées pour que cela revienne ?

Merci de votre précieuse aide.

Alex
Haut
Messages: 2

Enregistré le: 11 Fév 2015

Message le Mer Fév 11, 2015 13:26

Même soucis suite a transfert de serveur chez OVH sur l'ensemble de mes sites.

Pourquoi ? et surtout quoi faire et comment au plus vite.

Merci de votre compréhension.

Cordialement
Sylvain
Haut
Messages: 12288

Enregistré le: 23 Nov 2005

Message le Mer Fév 11, 2015 14:10

Toujours la même réponse : a minima il nous faut une url...
Haut
Messages: 2

Enregistré le: 11 Fév 2015

Message le Mer Fév 11, 2015 14:48

Pourquoi une url? car a priori le problème est semble t-il connu et récurrent ! Et ce n'est pas sur 1 seule url ....

Par contre le mutisme continu chez OVH. Incroyable ce manque de réponses de leur part.

Merci aux utilisateurs ayant eu ce problème et l'ayant résolu de bien vouloir m'orienter.

Cdt
Sylvain
Haut
Messages: 17

Enregistré le: 4 Déc 2011

Message le Mer Avr 15, 2015 9:43

Helios-BP a écrit:Pourquoi une url? car a priori le problème est semble t-il connu et récurrent ! Et ce n'est pas sur 1 seule url ....

Par contre le mutisme continu chez OVH. Incroyable ce manque de réponses de leur part.

Merci aux utilisateurs ayant eu ce problème et l'ayant résolu de bien vouloir m'orienter.

Cdt
Sylvain


Bonjour,
J'ai eu le même problème chez OVH, c'est le CDN gratuit la première année qui a expiré. Dès lors, que des erreurs 520 depuis GWT.
En effet le service client par mail OVH n'est pas très efficace, sans réponse mail j'ai appellé OVH qui m'ont expliqué le PB, et j'ai donc souscrit à un CDN, depuis les fichiers / pages sont à nouveau accessibles.
Cdt
Mathieu
Haut