Je lance un nouveaux topic car je m'écarte grandement du sujet initial : https://www.webrankinfo.com/forum/viewt ... .htm#31710
Jusque là tout le monde suit... alors je vais compliquer et vous exposer une de mes théories.
En effet, je suis persuader qu'il existe un nombre de page maximum indexable qui est fonction du PR. Voici les bases de ma théorie. J'ai fait pas mal de tests sur un PR4 avec environ 45000 pages indexées pour arriver a ces constatations
Je vais prendre ici comme postulat qu'il n'y a aucun deeplinks externe. C'est à dire que les pages pronfondes ont toutes des liens internes comme backlinks. Ca me permet de simplifier mon analyse tout en restant crédible. Avec ce postulat, le PR est diffusé vers les pages profondes sans qu'il y ait d'apport externe de PR.
Même si la barrière des 101K ou des 100 premiers liens pris en compte est contestée ( cf http://www.webmasterworld.com/forum3/13600.htm) il existe, je pense, un nombre maximun de liens pris en compte par google. Il est soit issu de limite physique ( taille d'un page ) ou logique ( nombre de liens ) voir d'un conséquence de la formule du PR à cause du seuil que j'introduit après.
De même, il existe un nombre maximum de liens suivis par google. Généralement on parle de niveaux de liens suivi par google depuis la racine car cette page a souvent le PR le plus élever. En fait, je pense que google ne suis que les liens qui transmettent un PR supérieur à un certain seuil. Les notions de distance par rapport à la racine n'a plus grand sens au vu du fonctionnement du PR. Ainsi, si l'on fait une chaine de page le PR diminue à chaque niveau jusqu'à ne plus atteindre le "seuil". J'avais à l'époque fait un test du Niveau de descente de Google.
Avec ces 2 facteur on en déduit qu'il existe un nombre maximum de pages indexables en fonction du PR d'un site. La formule simplifiée pourrait être de (nb de liens unique par page)^(niveau de descente)
Plus le nombre de lien par page augmente, plus le niveau de descente diminue car le PR se dillue très vite. Si on diminue le nombre de lein par page on profite beaucoup moins de l'exposant.
Je moyen d'avoir un maximum de pages indexée passe donc par une analyse très fine de la distribution du PR pour qu'il soit transmis jusque dans les feuilles de l'arborescence du site.
Les deeplinks auront donc pour effet de mieux diffuser le PR et probablement le nombre de page indexées mais cela sera au détriment du PR des pages moins profondes. Bref le PR est une ressource précieuse qu'il ne faut pas gaspillée.
Voilà, J'espère ne pas avoir été trop confus.
Merci de vos commentaires ou de vos opignions divergentes.
Mirgolth
Je ne suis pas d'accord avec ta formulation. Une pharse plus juste à mon sens serait : Tu peux avoir autant de pages de référencées qu'il existe de liens différent vers tes pages. En effet, un page accessible qui n'est jamais liée ne sera jamais indexée.Suede a dit:Tu peux avoir autant de pages de référencées que d'url qui permettent d'accéder à tes pages.
Jusque là tout le monde suit... alors je vais compliquer et vous exposer une de mes théories.
En effet, je suis persuader qu'il existe un nombre de page maximum indexable qui est fonction du PR. Voici les bases de ma théorie. J'ai fait pas mal de tests sur un PR4 avec environ 45000 pages indexées pour arriver a ces constatations
Je vais prendre ici comme postulat qu'il n'y a aucun deeplinks externe. C'est à dire que les pages pronfondes ont toutes des liens internes comme backlinks. Ca me permet de simplifier mon analyse tout en restant crédible. Avec ce postulat, le PR est diffusé vers les pages profondes sans qu'il y ait d'apport externe de PR.
Même si la barrière des 101K ou des 100 premiers liens pris en compte est contestée ( cf http://www.webmasterworld.com/forum3/13600.htm) il existe, je pense, un nombre maximun de liens pris en compte par google. Il est soit issu de limite physique ( taille d'un page ) ou logique ( nombre de liens ) voir d'un conséquence de la formule du PR à cause du seuil que j'introduit après.
De même, il existe un nombre maximum de liens suivis par google. Généralement on parle de niveaux de liens suivi par google depuis la racine car cette page a souvent le PR le plus élever. En fait, je pense que google ne suis que les liens qui transmettent un PR supérieur à un certain seuil. Les notions de distance par rapport à la racine n'a plus grand sens au vu du fonctionnement du PR. Ainsi, si l'on fait une chaine de page le PR diminue à chaque niveau jusqu'à ne plus atteindre le "seuil". J'avais à l'époque fait un test du Niveau de descente de Google.
Avec ces 2 facteur on en déduit qu'il existe un nombre maximum de pages indexables en fonction du PR d'un site. La formule simplifiée pourrait être de (nb de liens unique par page)^(niveau de descente)
Plus le nombre de lien par page augmente, plus le niveau de descente diminue car le PR se dillue très vite. Si on diminue le nombre de lein par page on profite beaucoup moins de l'exposant.
Je moyen d'avoir un maximum de pages indexée passe donc par une analyse très fine de la distribution du PR pour qu'il soit transmis jusque dans les feuilles de l'arborescence du site.
Les deeplinks auront donc pour effet de mieux diffuser le PR et probablement le nombre de page indexées mais cela sera au détriment du PR des pages moins profondes. Bref le PR est une ressource précieuse qu'il ne faut pas gaspillée.
Voilà, J'espère ne pas avoir été trop confus.
Merci de vos commentaires ou de vos opignions divergentes.
Mirgolth
Dernière édition par un modérateur: