Trafic divisé par 2

Nouveau WRInaute
Bonjour

Depuis le 16 octobre mon trafic provenant de google à été divisé par 2 sans avoir strictement rien changé sur mon site.
Toutefois il apparaît que google n'aurait pas pu crawler mon site entre le 16 et 18 octobre avec donc pas mal d'erreur.

Mes questions sont donc les suivantes:

Google m'a t'il sanctionné? si oui comment le voir? es ce temporaire où à long terme?
Avez vous des retour d'expérience à me donner sur le sujet

Cordialement

Michel
 
WRInaute impliqué
il faut regarder l'évolution des positions sur les principaux mots clé, et quelques longue traine, pour voir si cela a bougé ou pas.
 
WRInaute accro
eliantis a dit:
Toutefois il apparaît que google n'aurait pas pu crawler mon site entre le 16 et 18 octobre avec donc pas mal d'erreur.
C'est pas la cause d'un trafic divisé par deux.
 
WRInaute impliqué
Mais que s'est-il passé entre le 16 et 18 octobre, Google a fait honneur à l'avatar de Zeb, avec une mise à jour Penguin !

Cherche plutôt par là. Ce que tu décris, n'est sans doute pas une coïncidence...
 
WRInaute discret
ben au vue de la date certainement le filtre penguin, moi, le trafic a été divisé par 10 donc par 2 rien de dramatique...... :?
Ok je sors.....
 
WRInaute accro
cocota a dit:
moi, le trafic a été divisé par 10 donc par 2 rien de dramatique...... :?
Bon bah si t'avais 10 visiteurs par jour reste plu que toi ... :D au moins c'est un site "passion" (mode humour je :arrow: aussi)
 
Nouveau WRInaute
je veux bien que le filtre pinguin change le résultat, mais comment expliqué cette erreur de crawl en même temps ce hasard est il normal, je trouve cette concordance étonnante, je vais attendre pour voir si cela remonte
 
Membre Honoré
Bonjour,

Pour Penguin c'est une possibilité (mais sans l'URL impossible de vérifier). Pour l'indisponibilité du site il faut vérifier si c'était temporaire ou pas (et si pas de nouvelles erreurs), si c'était temporaire, cela n'aurait pas du faire de grands changements (généralement le cas).

Cordialement.
 
WRInaute accro
eliantis a dit:
mais comment expliquer cette erreur de crawl en même temps
Souvent un serveur down ne l'est pas a 100% il m'est arrivé de servir des pages incomplètes ou défectueuses produisant des urls bidons ...

Bon après faut voir comment répond ton site sur ces urls foireuses car si tu en as 10 000 qui répondent en 200 pour 10 pages réelles ça peut poser un souci.
 
Nouveau WRInaute
Apparemment mon site à été down trois fois de suite, dont une fois direct la faute de OVH, la coïncidence est bizarre mais bon l'option nouvel algo est aussi possible

le 16 octobre google me dite ceci:
Au cours des 24 dernières heures, Googlebot a rencontré 110 erreurs en tentant d'établir la connexion avec votre site. Le taux d'échec de connexion à l'échelle de votre site est de 2.5 %.

je n'ai pas non plus de message situé ici en bas de page comme quoi ils ont détecté des mauvais liens
Code:
https://www.webrankinfo.com/astuces/savoir-si-site-penalise-par-google

me disant que j'ai des problèmes de liens vers mon site, donc à voir..
 
Membre Honoré
Bonjour,
eliantis a dit:
Apparemment mon site à été down [...]
Au cours des 24 dernières heures, Googlebot a rencontré 110 erreurs en tentant d'établir la connexion avec votre site. Le taux d'échec de connexion à l'échelle de votre site est de 2.5 %.
110 fois (2.5 %) c'est beaucoup, il sera bien de vérifier s'il n'y a pas de nouveaux messages de ce type.

En attendant, ce peut être plein de raisons, sans l'URL du site il est difficile de vérifier pour la communauté.

Cordialement.
 
Discussions similaires
Haut