Que se passe -t-il quand un site n'est plus accessible ?

WRInaute discret
Bonjour,

Je me demandais comment ça se passait pour les crawlers quand un site n'est plus accessible pendant 2/3 jours (changement d'hébergeur, crash du serveur, bref site inaccessible)

Est-ce qu'on est viré rapidement du moteur ou il y a un petit surcit de quelques jours ?

PS modé : je sais pas si j'ai posté dans le bon forum
 
WRInaute accro
non, il faut beaucoup d'outime pour etre viré de l'index (l'un de mes sous domaine a un htaccess + htpasswd, et les robots ne peuvent plus y acceder depuis plus de six mois, j'ai toujours deux pages d'indéxées...)
 
WRInaute occasionnel
:D La réponse est dans la question : il n'est plus accessible !

Aux visiteurs, donc à tous les visiteurs, bots y compris. Comme expliqué ici https://www.webrankinfo.com/forum/t/rumeurs-et-realites-sur-google-officiel.31641/ :

Rumeur : Le classement de mon site sera moins bon si mes pages se chargent lentement.
Réalité :
La rapidité de chargement d'une page n'a pas d'incidence sur son classement. Toutefois, si votre serveur Web n'est pas disponible ou si votre connexion est interrompue ou ne permet pas de charger l'une de vos pages, celle-ci ne sera pas indexée.

La disponibilié du serveur n'a donc pas d'incidence, sauf que la page risque de ne pas être indexée !!!

J'adore l'humour Googlesque.
 
WRInaute impliqué
Oui mais si un site est constemment indisponible lors du passage des robots ceux-ci peuvent pensés que la page n'existe plus et pat le suite la désindexée.

En tout cas c'est ce qui me semble le plus logique ce qui n'a pas grand rapport avec le fait que le site soit lent ou rapide.
 
WRInaute accro
ça m'est arrivé... et on peut dire que les bots sont de plus en plus rapides :roll:

si le site reste inaccessible quelques jours et que google ne peut voir les pages, il ne les donne plus dans ses résultats... enfin... c'est ce que j'ai constaté chez moi. Il est vrai que certaines pages qui apparaissent das les résultats sont inaccessibles... mais je pense que c'est parce que les bots ne sont encore pas passés dessus. Il y a des sites plus souvent crawlés que d'autres.

Mais je suis quasiment sûr que Google ne retire pas les pages non accessibles avant un certain temps de son index... seulement des résultats. Ensuite le bot repasse quand le serveur est accessible et google replace les pages qu'il a donc son index de "sauvegarde". En général la réindexation est très rapide.
 
WRInaute discret
Mais je suis quasiment sûr que Google ne retire pas les pages non accessibles avant un certain temps de son index... seulement des résultats. Ensuite le bot repasse quand le serveur est accessible et google replace les pages qu'il a donc son index de "sauvegarde". En général la réindexation est très rapide.

Ok ça me rassure si c'est bien ça...
 
WRInaute accro
chmouc a dit:
Mais je suis quasiment sûr que Google ne retire pas les pages non accessibles avant un certain temps de son index... seulement des résultats. Ensuite le bot repasse quand le serveur est accessible et google replace les pages qu'il a donc son index de "sauvegarde". En général la réindexation est très rapide.

Ok ça me rassure si c'est bien ça...
Il me semble qu'a aussi été rapporté le cas ou le bot avait considéré toutes les pages non accessibles comme identiques (vides) et les avait donc toutes indexées comme "pages similaires" ;-/

A confirmer ...
 
Discussions similaires
Haut