Relation Pages exploréees / Ko téléchargés et temps de chargement

WRInaute discret
Bonjour,

je me trouve avec une situation assez bizarre.
En regardant la console webmaster, j'ai longtemps pensé que plus le temps de chargement était rapide, plus google explorait de pages et donc plus il y avait de ko téléchargés. Je crois même avoir lu cette règle ici ou là.

Je suis pourtant en train de vivre la tendance inverse.

J'ai pourtant fortement travaillé sur le temps de chargement de mon site et je suis passé de disons 3500 ms à plutôt 1700 ms. C'est énorme comme gain non ? Ce gain brutal s'est fait sur quelques jours de développement et ça fait maintenant plus de 2 mois que mon temps de chargement est largement inférieur à 2000 ms, oscillant entre 1500 et 1800.

Ce que je constate en nombre de pages : Je suis passé d'une moyenne autour de 600 pages /jour à plutôt 350 pages.
De la même manière, je suis passé de plutôt 6000 ko à plutôt 3500 ko. La relation entre les deux données étant fortement liées, mes pages étant globalement toutes de la même taille.

J'avoue que j'ai du mal à comprendre.

Dans ce même temps, mon nombre de pages indexées est passé de 3100 à 3300. J'ai donc bien plus de pages (la vie du site) mais google le parcourt de moins en moins alors que les pages sont plus rapides..
Mon sitemap est aussi resté constant dans cette période, evoluant positivement selon les nouvelles pages ajoutés au fil de la vie du site (il est autour de 2100 pages en ayant moins de 100 pages non indexés, tendance à la baisse avec le temps).

bizarre non ?
 
WRInaute discret
le gain est important, mais cela reste bien lent.
la baisse du nombre de pages indexées peut s'expliquer par le fait que google n'y trouve de moins en moins de changements donc de raisons de redemander des pages connues.
 
WRInaute discret
Louis63 a dit:
le gain est important, mais cela reste bien lent.
la baisse du nombre de pages indexées peut s'expliquer par le fait que google n'y trouve de moins en moins de changements donc de raisons de redemander des pages connues.

1,5s pour télécharger une page..moi je trouve ça bien ! Surtout que je pense que le test google est fait des US alors que c'est un site franco français en français et qu'à partir de France on est plutôt à 0,7s d'après Gtmetrix et pingdom !

Et je trouve étonnant que la baisse de visite soit exactement synchro avec le gain de vitesse.
 
WRInaute impliqué
Bonjour,

Il ne faut pas confondre temps de téléchargement du fichier HTML, et temps complet de chargement de la page (HTML + scripts + images + mise en page + affichage).
1,5s pour le chargement et affichage complet d'une page c'est correct
1,5s pour télécharger uniquement le fichier HTML c'est très mauvais
Il faut regarder du coté des requêtes, de la mise en cache, voir revoir complètement le schéma de BDD (tables, index, ...).

Ci dessous un exemple de rapport GSC correct
i0sPdY7.png
 
WRInaute discret
Mon site est sous wordpress... le systeme de cache est actif et mon site hautement optimisé.

Je ne vois pas pourquoi google mettrais 1,5s juste pour avoir le fichier HTML quand Gtmetrix met 0,8s pour tout télécharger.. sauf si évidemment google fait ses tests à partir des USA où forcément c'est un peu plus loin pour le site sur un serveur en France.
 
WRInaute impliqué
Pour une réponse plus précise, il faudrait connaitre l'url du site (en privé si besoin), et le type d'hébergement (mutualisé, dédié...). Aussi quel est le poids en Ko d'une page type ? (j'imagine 10Ko mais...)

Le site que j'ai pris en exemple est sur un dédié en France, donc la latence n'entre pas (trop) en compte. Je ne sais pas si le temps de téléchargement inclut le temps de résolution DNS, si c'est le cas ca peut être aussi un point à vérifier si vous hébergez le DNS.
 
WRInaute discret
Le site n'est pas un secret de polichinel, il est même inscrit dans mon profil : http://www.concertsenboite.fr

Il est particulièrement performant et réactif de mon point de vue et ultra optimisé. Je ne comprends donc pas trop pourquoi google mettrait 2 fois plus de temps que d'autres tests pour juste choper le HTML, ou alors j'ai une exclusion du cache rien que pour lui !

Je suis sur un mutualisé, chez O2switch.
 
WRInaute impliqué
Bonjour,

Après quelques tests, notamment avec l'outil http://www.maplatency.com/ pour la partie HTTP GET, il semble que votre hébergeur soit correct pour les IPs françaises mais beaucoup plus lent pour les IPS étrangères (voir la carte ci dessous), au niveau HTTP. Pas de problème particulier pour les résolutions DNS. Le chargement complet se fait ensuite plus rapidement, on a l'impression qu'il y a un temps d'attente pour la première requête HTTP (voir deuxième image)
Soit c'est un problème réseau de leur coté, ou une volonté. Dans tous les cas et vu que GoogleBot crawle les urls via des IPs US, cela peut impacter la fréquence de crawl, le nombre de pages crawlées, voir même une pénalité dans le futur pour site lent.
En tout ca n'impacte pas vos visiteurs. Mais à votre place je contacterai 02switch pour leur soumettre le problème, voir je changerai d'hébergeur.
Ahg72El.png

DhVjuqn.png
 
Discussions similaires
Haut