Messages: 23010

Enregistré le: 19 Avr 2002

Message le Mar Jan 17, 2017 10:20

Suite à l'excellent article paru dans le blog de Google, j'ai rédigé un dossier que j'estime assez complet sur la notion de budget de crawl. Jusqu'à présent on entendait surtout Google dire que ça n'existe pas, mais ce n'est pas ce qui est (bien) expliqué dans leur article. Au contraire, en tout cas pour les gros sites, c'est un sujet très important d'optimisation du référencement naturel.

En gros, selon moi, la meilleure façon d'optimiser le crawl (à part d'accélérer son site) est de réduire la "masse noire" (lisez mon article en entier pour les explications). En plus ça "nettoie" souvent le site de pages de mauvaise qualité, ce qui est bénéfique pour l'ensemble du référencement (cf. algos Panda, Phantom et autres liés à la qualité).

Avez-vous des compléments à suggérer / retours d'expérience / questions ?

Image
Haut
2 Réponses
Messages: 621

Enregistré le: 18 Avr 2003

Message le Mar Jan 17, 2017 21:44

En complément de ces statistiques, vous pouvez en déduire le poids moyen par élément crawlé. L'article précise une illustration de pages crawlées par jour (moyenne 2500) et volume (150 Mo pour faire simple) ce qui donne 60ko en moyenne. Plus c'est lourd, plus ça prend du temps à télécharger et donc cela a un impact sur la troisième mesure (temps de chargement d'une page). Or justement, Google favorise les sites rapides aux sites lents. Il est donc important de conserver un poids faible des pages afin de réduire la durée de chargement de la page et donc d'avoir un meilleur indice de performance, qui sera bénéfique au référencement.
Haut
Messages: 23010

Enregistré le: 19 Avr 2002

Message le Mar Jan 17, 2017 22:14

en effet, juste 2 remarques :
- la courbe de Google mélange tous les types de documents, qui ne s'optimisent pas de la même façon
- la taille en Ko d'une page HTML n'est pas le seul critère qui a un impact sur le temps de téléchargement (et de chargement complet de la page)
Haut