L'algo de Google dévoilé: 300 critères détaillés

WRInaute passionné
kmenslow a dit:
Tester 50 tailles d'images pour voir l'incidence dans Google, tiens plus de l'absurdité et de la perte de temps que de l'étude sérieuse..

Une méthode est une méthode. grosse erreur de penser comme cela . Effectivement, comme la répétition du mot clé dans le titre, dès que l'on vois qu'au bout de 3 il n'y a plus d'effet, on peu réduire. Mais on va quand même laisser jsuqu'a 5.

POUR LES TAILLES D'IMAGES ET LE ALT, j'ai lu que le alt n'est plus vraiment pris en compte. Et bien erreur.
Il n'est pas pris en compte sur certaines extensions et en fonction de la taille de l'image. J'ai fait les tests sur 5 tailles d'images, et 2 tailles sont retenues par google, les 3 autres sont oubliées ... Et ces deux tailles sont mieux noté que le H3 sur la requête MOTCLE , mais sont très loin dans la requête avec la commande LEMOTCLE SITE:www.site.truc

Ce qui indique que le alt est pris en compte, mal classé, mais est choisi dans certaines tailles pour apparaitre dans le panel des serps. Mais ce n'est pas l'image qui est affichée, le liens de la page c'est tout.
Et ce test n'a qu'une seule image, je voulais tester sur différents nombre, pas le temps.

J'accepte toutes les remarques, mais il me semble qu'au regard des combinaisons possibles, ont est très au-delà des 5000, mais qu'en même temps, je le répète, 5000 c'est déjà pas mal non plus . En résumé, c'est le prix qui coince.
 
Olivier Duffez (admin)
Membre du personnel
kmenslow a dit:
Concernant les 5000 tests de l'auteur : J'imagine que cela doit prendre du temps pour les réaliser, du temps pour que Google prennent en compte les modifications, du temps pour qu'il y ait un impact dans les serps ... et pendant tout ce temps, les ingénieurs de Google modifient continuellement les paramètres des multicouches de l'algo et rajoutent de temps en temps de nouvelles couches.
Résultat : Les résultats des premiers tests ont de fortes chances d'être périmés à la fin de l'étude.
en effet, c'est bien là le problème. C'est pour ça que j'ai tenté d'orienter la discussion vers la méthode... (arrêtez au passage de lyncher l'auteur)
 
WRInaute passionné
YoyoS a dit:
Il est un peu longo ton post 0_o
et encore j'ai eut une crampe ! :mrgreen:

Moi je remercie raphael, cela m'a motivé pour mettre ma stratégie de test en route qui trainait dans les cartons depuis des mois. En mettant tout sur le papier, pour le moment, j'en suis 453 600 tests nécessaires pour les images seulement (rassurez-vous, dans la théorie ). Je met tous ca sur un nouveau site, c'était prévu de toute manière. Je vais parler des livres sur le référencement et le SEO, même si je lui casse un peu de bois sur la tête (pas méchamment non plus), je mettrais son livre dans la liste et je vais essayer de rencontrer Raphael Richard si possible.

Ce serait bien de sa part de venir encore une fois s'exprimer et éclairer notre lanterne sur son travail.
 
WRInaute passionné
Ce n'est pas tant la tentative de décortiquer des critères de l'algo qui m'interpelle, mais plutôt le packaging.
Sans à priori vis-à-vis de l'auteur que je ne connais pas, j'ai trois tentatives précises de compréhension de l'algo en tête.
La première était un thread sur WMW où les membres partageaient leurs points de vue. Environ 130 facteurs sont ressortis de ce partage. Ann Smarty a rebondi sur cette liste pour suggérer 200 paramètres.
L'autre étude a été réalisée par SEOmoz, dont j'ai traduit les résultats. L'index Linkscape de SEOmoz est un fantastique outil de comparaison qu'il faut avoir les moyens financiers et techniques d'entretenir et analyser.
Bien entendu, c'est en parallèle des Ranking Factors SEOmoz dont la version 2011 vient de sortir, impliquant plusieurs dizaines de référenceurs pour évaluer le poids des facteurs influents le référencement.

Pour ma part, lorsque je distille une formation à un référenceur, je demande de dresser une liste du Top 10 des facteurs influents, puis de donner une note de pondération positive et négative. Par exemple, je donne 8,5/10 à Title en pondération positive et 7,5/10 en pondération négative - c.a.d si la Title est trop longue, trop courte, trop spammy.... bref l'impact négatif qu'elle peut avoir si elle est mal foutue.
Maintenant, LE gros principe à retenir est que ces facteurs valent que dalle si on ne sait pas les appliquer par rapport à un cas particulier. Le petit manuel du référenceur n'est pas applicable de manière générale tout simplement à cause de la nature même de l'algorithme qui dispose de couches non appliquées de manière uniformes au travers de l'index et même au long de la vie d'un site. Les impacts de ces fameux facteurs ne peuvent pas être généralisés point barre !

Bref, pour conclure, l'intérêt de ces tentatives de reverse engineering m'intéressent lorsqu'elles sont collaboratives ou légitimes comme dans le cas de SEOmoz/Linkscape, mais ça me dérange lorsqu'il s'agit de vendre un ebook qui coûte apparemment un certain prix. Effectuer des milliers ou des millions de tests depuis son petit bout de la lorgnette n'est pas suffisant pour clamer le gros titre racoleur d'un livre payant. Un humble partage via un forum ou un blog aurait été salvateur, mais l'approche me dérange. Je ne suis pas intervenu pour lyncher l'auteur puisque je n'ai pas lu l'ouvrage, mais simplement pour remettre en cause la manière de communiquer et poser des doutes sur la légitimité de la méthodologie.
Enfin bon, le peu que j'ai lu sur ses posts ne me rassure pas du tout. Prétendre que la Meta Keywords compte pour 0,25% (de qui, de quoi, pour qui, pour quoi, quand, où, comment, etc ?) est assez gonflé lorsqu'il suffit de glisser un terme retournant 0 résultat dans cette meta pour ne jamais la voir apparaître dans les résultats de recherche. Ce n'est pas 0,25, mais bel et bien 0 pointé dans tous les cas de figure.
Par contre, je le défends un peu lorsqu'il s'agit de ses propres sites puisque c'est monnaie courante pour un référenceur d'être mal chaussé comme un cordonnier. J'ai moi-même en tête un paquet de défauts flagrants sur mon site qui figurent dans ma ToDo, mais pas le temps ni la motivation de m'y plonger.

Sauf que ma défense tombe à l'eau avec son discours suivant :
Je n'utilise jamais de techniques de referencement de pointe sur les sites qui seront visites en priorite par mes concurrents referenceurs afin d'eviter de savoir dans quel sens je reflechis.
Aujourd'hui, je n'ai plus de "petits" sites (gros projets, mais plus longs, plus compliqués), mais j'ai monétisé pendant des années avec les moyens les plus évidents, puis revendu allègrement mes créations grâce à une valorisation par positionnement et CA.
Et je peux vous dire que j'envoyais avec tout ce que je pouvais y mettre de mon propre savoir. Peu importe si la concurrence voit tout car il en manquera toujours un morceau dans l'analyse. C'est complètement bidon de prétendre ne pas utiliser ses connaissances sur son propre site.

Non je ne vais pas téléphoner à Raphaël Richard, mais il peut tout à fait me joindre si l'envie lui prend de défendre son bout de gras. Qu'il m'envoie son pdf et je le lirais, mais je ne garantis pas d'en parler autour de moi si le contenu ne me persuade pas.
Transformer ses détracteurs en prescripteurs est une leçon de communication imparable. Seulement, ce n'est pas au détracteur de faire le premier pas.
 
WRInaute passionné
thickparasite a dit:
Maintenant, LE gros principe à retenir est que ces facteurs valent que dalle si on ne sait pas les appliquer par rapport à un cas particulier. Le petit manuel du référenceur n'est pas applicable de manière générale tout simplement à cause de la nature même de l'algorithme qui dispose de couches non appliquées de manière uniformes au travers de l'index et même au long de la vie d'un site. Les impacts de ces fameux facteurs ne peuvent pas être généralisés point barre !

Bref, pour conclure, l'intérêt de ces tentatives de reverse engineering m'intéressent lorsqu'elles sont collaboratives ou légitimes comme dans le cas de SEOmoz/Linkscape, mais ça me dérange lorsqu'il s'agit de vendre un ebook qui coûte apparemment un certain prix. Effectuer des milliers ou des millions de tests depuis son petit bout de la lorgnette n'est pas suffisant pour clamer le gros titre racoleur d'un livre payant. Un humble partage via un forum ou un blog aurait été salvateur, mais l'approche me dérange.

Je suis globalement d'accord, mais dans le détail, je m'interroge toutefois sur certains points:
- il n'y a pas de cas particulier en soit concernant l'optimisation d'un site. il y a des conditions , très probablement, dans l'algo lui-même (ou plusieurs algo?). Pour certains, l'algorithme est un analyseur de titre, d'url, de balise H1 , en résumé c'est une page web , du moins en image générale. Hors, je rappelles qu'un algorithme, c'est des lignes de programmation , par millier et surement par million pour google. Construire un algorithme est assez simple sur le papier. On construit par exemple 200 programmes, des modules, et chacun va gérer une variable, genre le H1 pour faire simple.

Le programme va donc, comme tu le dis très bien, attribuer toutes sortes de valeurs de base, selon des conditions, des bonus ou des malus. Une fois que les 200 programmes ont fait leur travail de base, il y a toute une panoplie de mini programme qui vont gérer les conditions croisées entre les résultats de base; au cas ou, si , sinon etc ... Pour compliquer et être certain que personne ne déchiffre mon algo, je mettrais une variable hasard et une variable date. Ainsi, pour le keyword, Je donnerais un poids variable entre 0,00 et 0,09 au hasard, et qui change tous les 40 jours ... Un coup ca marche dans les test, et un coup ca ne marche plus ...

C'est ainsi que parfois, certain font des test, et se font huer car les autres n'ont pas les mêmes résultats ... J'ai lu un test fait sur des images dans une e-boutique disant que les images n'ont pas d'incidence ( http://www.blog-ecommerce.com/google-image-ou-le-mythe-du-par-la-balise-alt). Alors que tout le monde dis le contraire.
Qui croire, a lire le sous titre de cette page, "La Meilleure Agence de Référencement pour Ecommerce" , on se pose des questions (moi pas trop ...).
Peut-etre que Google joue au yoyo avec les valeurs de critères et qu'une variable hasard est bien réelle.

Si l'on fait des tests, soit on le fait uniquement sur des schémas de page totalement identique à son site et son style (blog, page produit, page annonce, liste de tableaux etc) et on a pas besoin de mélanger les genres, et les résultats obtenus ne seront valable que pour le même type de site. Mais en aucun cas on ne peux effectivement revendiquer ces tests êtres valables pour tous les types de sites.

Soit on fait TOUS LES TESTS , avec toutes les combinaisons possible, de manière scientifique. En théorie, le test sur les images nécessiterais environ 453 600 tests , et ceux-ci ne pourrait pas êtres validés sans avoir fait tous les autres, soit quelques millions ...
En partant du principe que l'algo est le plus compliqué et tordu possible, je vous donne un exemple :
On veut croiser deux critères ensemble (sur les 200) et l'on va tester le critère ALT d'une image avec le critère H1, en se disant que google, en cas de croisement, pourrais ne rien faire de plus ou accorder un petit bonus supplémentaire, qu'il ne donnerais pas en association du H1 et H2 par exemple ...

Alors je fais ma page de test avec le mot clé dans H1 et dans le ALT. Mais pour que je puisse déterminer si bonus il y a, il me faut isoler par d'autres test chacun des critère, c'est a dire un test sur le H1 tout seul, et un test sur le ALT. Donc, je suis obligé de faire tous les tests pour les valider. Le plus difficile sera de quantifier sur une échelle la valeur de chacun.

Un vrai SEO doit avoir fait tous les test pour se prévaloir du statut d'expert ou de "maître" en la matière. Même si l'on peut grandement éliminer le volume des combinaisons possibles, il n'en reste pas moins quelques centaines de millier.
Mais dans ce cas, la méthode s'appliquerais a toute sorte de site.

Je crois comprendre que ce que tu voulais dire peut-etre, c'est que la bonne méthode appropriée pour un type de site (blog avec bcp de grands textes) ne sera pas efficace sur un autre type de site e-commerce avec beaucoup d'images et de mini textes de description. Mais la formule de l'algorithme reste inchangée, je pense, a moins que google en ait fait plusieurs très différentes selon justement le type de site (je doute un peu, mais possible). Cela devrait se voir de toute manière dans le cadre d'un ensemble de test exhaustif.

Sinon, je trouve normal de monnayer le fruit de son travail, et Raphaël à tout a fait légitimement le droit de vendre le sien sur un e-book. Reste à nous démontrer que la méthode est fiable et qu'elle justifie le prix.

De mon point de vue, il n'y a que le résultat qui compte. Donc, c'est en étant présent en première ou deuxième place dans les serps sur une requête que l'on prouve ses capacités et sa performance, même si c'est dépendant de milliers de liens externes plus ou moins naturel et légitimes ...

La vrai optimisation devrait être uniquement in-site , et les concours de ref sont pour moi le seul moyen de prouver des capacités a créer des liens illégitimes (puisque le mot clé ne veut rien dire). Ce n'est pas dutout un gage de sérieux et de confiance. Un vrai concours devrais se faire sur une structure sans aucun lien externe, chose qui semble impossible car il y aura toujours un petit malin ou déçu ou des copieurs pour mettre des liens externes ou tricher ...

Je projettes de faire un labo de test communautaire, mais ouvert seulement a des professionnels avec siren ou siret, verifiés. C'est comme ca. Avec 3 niveaux d'accès et d'information, un résumé et résultats (critères généraux) simple ouvert a tous, et 2 niveaux d'accès plus complexe et gratuit pour les pro français. Et en français, histoire de faire comprendre a ceux qui ne traduisent pas leur site qu'on peu aussi faire la même chose ... et mieux (sauf les fautes) :mrgreen:
 
WRInaute passionné
Regarde ce qu'implique la notion d'algorithme par couches pour comprendre ce que je veux dire. Tu pars dans une mauvaise direction autrement.

Sinon, pour tenter d'imprégner de l'algo, tu peux faire tous les tests possibles, lire tous les posts de tous les forums SEO, acheter tous les livres (y compris celui à 1300€ de Raphael) et bosser sur 20 000 sites.
Sauf que la clef ne réside pas là!
Le but ultime est d'acquérir l'instinct indispensable pour prendre la bonne décision. Cet instinct peut s'obtenir plus ou moins rapidement, mais c'est le seul élément qui te permettra de sentir lorsque quelque chose cloche ou inspirer d'actionner tel levier plutôt qu'un autre.
Dans tous les cas, ranger les sites dans des "cases" d'optimisation est une ineptie. Cela ne fonctionne pas comme ça en réalité. L'exemple qui me revient quasiment lors de chaque prestation est de voir une optimisation absurde sur un site et lorsque je demande d'où est venue l'inspiration, la réponse es toujours la même "j'ai vu ça sur le premier de ma requête fétiche". Comme par hasard, cela ne marche JAMAIS quand on l'applique à un autre site.
 
WRInaute passionné
Quand tu parles de "couches" , que veus-tu dire? Tu parles des couches de passage successives des robots quand tu mets des nouvelles pages ou un nouveau site en ligne? J'ai vu cela sur mon site de test. mais un coup tu as un un critère qui passe devant, ensuite il disparait, pour revenir au final en tête ... cela dit, je considère l'ensemble comme un seul algorithme, mais je me trompe peut-etre.
thickparasite a dit:
Le but ultime est d'acquérir l'instinct indispensable pour prendre la bonne décision. Cet instinct peut s'obtenir plus ou moins rapidement, mais c'est le seul élément qui te permettra de sentir lorsque quelque chose cloche ou inspirer d'actionner tel levier plutôt qu'un autre.

"j'ai vu ça sur le premier de ma requête fétiche". Comme par hasard, cela ne marche JAMAIS quand on l'applique à un autre site.

Si tu met l'intuition et l'inspiration en avant, alors Raphaël est probablement très bien placé sur cette échelle et il n'est nul besoin de demander une preuve de méthodologie, et le prix est peut-etre très justifié ...

Sur l'aspect de l'analyse concurrentielle et de déterminer par le seul "VISU" les points les plus positifs exploité par les concurrents pour être en haut des serps, ca marche, selon ses compétence d'analyses ... si tu n'a pas ces compétences d'analyse, effectivement ca ne marchera jamais.

cela dit, mes remarques sont basées sur le fait que j'interprète dans un sens tes propos, un sens qui n'est peut etre pas totalement le reflet du sens des idées que tu as développé. Mais on se comprend un peu quand même.
 
WRInaute passionné
longo600 a dit:
Je projettes de faire un labo de test communautaire, mais ouvert seulement a des professionnels avec siren ou siret, verifiés. C'est comme ca. Avec 3 niveaux d'accès et d'information, un résumé et résultats (critères généraux) simple ouvert a tous, et 2 niveaux d'accès plus complexe et gratuit pour les pro français. Et en français, histoire de faire comprendre a ceux qui ne traduisent pas leur site qu'on peu aussi faire la même chose ... et mieux (sauf les fautes) :mrgreen:

C'est une excellente idée.
 
WRInaute accro
Ce que je comprends c'est que Google a des facteurs nettement plus discriminants que d'autres, par exemple en fonction du type de site (e commerce ou blog perso) la présence des pages de conditions de vente, protection des données, etc est essentielle ou pas.
Selon que le site est un "sous domaine" sur une grande plateforme (overblog, wordpress) ou un sous domaine d'un domaine normal aussi, les critères ne peuvent pas être identiques.

Donc oui, il y a une sorte d'arbre de décision, d'appel ou pas de certains critères en fonction du type de site, "ou d'autres paramètres qui nous sont inconnus du dieu google"

Ce qui multiplie d'autant plus les tests à effectuer mécaniquement ^^
 
WRInaute passionné
longo600 a dit:
Quand tu parles de "couches" , que veus-tu dire?

Il n'y a pas un algo Google comme tout le monde dit couramment, mais des couches ou strates successives.
C'est basique comme notion. Tu crois vraiment que les centaines d'ingénieurs qui opèrent des centaines (milliers?) de modifications par an sur l'algo vont trituter une grosse formule unique ? Va bouger une virgule dans une formule de math pour voir l'effet que ça fait, alors à l'échelle d'un algo comme Google, c'est juste impensable.
Nan, c'est beaucoup plus facile de plaquer les formules (filtres algorithmiques) les unes sur les autres et procure beaucoup plus d'aisance pour déterminer différentes interactions selon les zones et même dans le temps.
La couche de base que l'ont peut considérer comme celle du PageRank n'a été remanié qu'une seule fois, en 2001, après sa création en 1996 et le lancement de Google en 1998.

Pour compliquer le tout, il y a ce qu'on appelle les "effets de bord" qui sont une zone de turbulence lorsque les couches n'interagissent pas correctement entre elles. En d'autres termes, cela s'appelle un "bug" et un site pris dans un effet de bord est plutôt mal parti pour un bon bout de temps - jusqu'au lever de filtre.

Bref, tu peux tester tout ce que tu veux, mais je suis contre l'idée de prendre des "trouvailles" de reverse engineering à la petite semaine pour des généralités. Nous avons les fondamentaux qui sont connus grâce à la méthode empirique. Ensuite, chaque année procure son lot de changement dans la jauge de pondération sur ces fondamentaux, mais après c'est purement spéculatif de clamer un "décodage" des 300 facteurs de l'algo. On sait aujourd'hui que quasiment chaque requête fait l'objet d'un test plus ou moins particulier et poussée (dixit Amit Singhal qui est une voie plus solide que Matt Cutts). Cela suggère des millions ou milliards de combinaisons possibles sur toutes les interactions entre plusieurs milliers de facteurs. Le chiffre de 300 est un petit coup marketing pour donner un crouton de pain aux SEO. La réalité est largement plus dense.
 
WRInaute passionné
On est donc bien sur la même longueur d'onde pour les couches, avec une nuance (pour moi) ... il n'y a qu'un résultat (presque) , qu'un seul classement donné dans les serps. cela signifie que l'algorithme, qu'il soit scindé en petits ou énormes modules, que tu partes dans une direction ou une autre dès le dut des premières couches, n'aboutira qu'a un seul classement. Donc un programme qui gère cet aboutissement.

Si tu arrivait à mettre en place des tests exhaustifs sur ces milliards de combinaisons, en analysant la progression des résultats, tu arriverais a déceler les "carrefours" et les différents chemins avec leur valeurs de cotation des critères respectives.

Plus facile a dire qu'a faire ... L'algorithme de google n'est pas en théorie totalement indéchiffrable, question de moyens et de ressource, mais dans la pratique, je le conçois, c'est loin d'être une mince affaire pour un seul homme ...
 
WRInaute passionné
thickparasite a dit:
Ok si tu veux....
Bah, c'est pas si je veux, je n'ai pas de leçon a donner ni la qualité d'un expert. Je donnes mon point de vue et je peux me tromper, ce ne sera pas la première fois ni la dernière. Citer son point de vue et ses expériences, c'est se fixer des repères perso sur ses propres réflexions et les confronter aux autres. Après, chacun pense à sa manière. J'avoue que j'apprend bcp avec les échanges sur wri, bon test personnel en tout cas.
 
WRInaute accro
longo600 a dit:
Plus facile a dire qu'a faire ... L'algorithme de google n'est pas en théorie totalement indéchiffrable, question de moyens et de ressource, mais dans la pratique, je le conçois, c'est loin d'être une mince affaire pour un seul homme ...
hé les ingénieurs... faut aussi prendre en compte les modifications manuelles opérées par l'équipe de Matt, et les conséquences de l'existence deliste blanche et noire.
 
WRInaute passionné
Désolé, je ne peux pas tourner 3 fois différemment les notions que j'explique.
Dans tous les cas, non nous ne sommes pas sur la même longueur d'onde...
 
WRInaute passionné
JanoLapin a dit:
hé les ingénieurs... faut aussi prendre en compte les modifications manuelles opérées par l'équipe de Matt, et les conséquences de l'existence deliste blanche et noire.

Bon le gentil lapin .. tu crois que déjà pas assez compliqué comme ca? ... :mrgreen:
mais tu as raison!
 
WRInaute impliqué
Moi ce qui me chagrine c'est que ok on peut déterminer des critères et faire une liste pondérée, mais il y a un facteur qu'on ne peut pas tester : le temps. Si on fait un échange de lien à J, celui-ci pourra être vu comme suspect par rapport au profil de liens alors qu'a J+30 il passera sous les radars (ce n'est qu'un exemple simplet).
 
WRInaute accro
Bigb06 a dit:
Moi ce qui me chagrine c'est que ok on peut déterminer des critères et faire une liste pondérée, mais il y a un facteur qu'on ne peut pas tester : le temps.

Je suis assez Ok avec ça depuis les années que je fréquente ce site qui reste une référence quoi qu'on puisse en dire, j'ai vu évoluer les choses au point que ce qui passe un jour ne passe plus le lendemains. J'ai même vu le retour de certaines choses qui avait été pénalisées sévèrement a certaines époque et qui permettait de nouveau de prendre du trafic deux ans plus tard.

Bref pertinent ou pas ce livre a 12 mois grand max de visibilité après ça ... (a la condition qu'il soit pertinent a ce jour ce qui reste a vérifier)

J'ajouterai que je sais plu qui a parlé de "ressenti personnel" pour appliquer une règle ou pas vis a vis d'un site. Je suis aussi assez OK avec ça et c'est même ma seule façon de faire. En effet a force de lire tout et son contraire il se dégage qu'un "sentiment " fruit d'une pondération globale de ce qu'on peut lire (de vrai ou faut) moralité je me suis toujours retrouvé devant un site avec le sentiment que tel truc était bon ou pas sans pouvoir l'expliquer. Et je sais aussi que chacun sent très bien là ou il est "faible". Donc passer quelque chose d'aussi complexe qu'un site web et ses utilisateurs (qui sont parti prenante de la popularité et du positionnement) dans une moulinette me semble hasardeux.
 
WRInaute passionné
Perso, j'ai fait cela depuis 1997, avec plus ou moins de succès, parfois des catastrophes ... Aujourd'hui, j'éprouve le besoin de confirmer mes points de vues par des tests, et même imparfait, il me montrent que je me trompe sur mon analyse visuelle.
Peut-etre que c'est l'âge , tout se détraque ! :mrgreen:

Dailleurs, les résultats de mes test on été stables plusieurs mois, et je constate que depuis quelques jours, le classement a été complètement bouleversé ... totalement !
 
WRInaute passionné
JanoLapin a dit:
hé les ingénieurs... faut aussi prendre en compte les modifications manuelles opérées par l'équipe de Matt, et les conséquences de l'existence deliste blanche et noire.
A l'échelle du Web, les manips manuelles sont une variable négligeable.
Pas besoin d'être ingénieur pour piger ça ;)
 
WRInaute accro
thickparasite a dit:
JanoLapin a dit:
hé les ingénieurs... faut aussi prendre en compte les modifications manuelles opérées par l'équipe de Matt, et les conséquences de l'existence deliste blanche et noire.
A l'échelle du Web, les manips manuelles sont une variable négligeable.
Pas besoin d'être ingénieur pour piger ça ;)
oué.. moi c'est pas tout le web qui m'intéresse mais.. disons.. les quelques premières pages des serps.

Or les modif' manuelles concernent justement ces pages là...
 
WRInaute passionné
L'adage dit que les problèmes arrivent toujours en première page !
Sauf que ta remarque qui se voulait très maline est juste hors sujet. Pas besoin d'ebook ou de reverse engineering pour taper tous les jours ta poignée de requêtes chouchou et émettre un jugement qui n'a rien de scientifique et encore moins applicable à la globalité de ces fameux ranking factors.
Ca me fait toujours bien rire quand un gonze arrive son contre-exemple sur sa requête chérie, tandis que les autres essayent de trouver le pourquoi du comment sur un levier particulier.
 
WRInaute passionné
Je me demande si tout le monde appliquais la bonne recette idéale en rapport avec son type de site en parfaite concordance avec l'algorithme de Google ... incapable de savoir qui est le premier a classer ... il se suicide ! :mrgreen: lol ... j'arrête !
 
WRInaute passionné
Ben j'ai rien vu du suicide de l'algo de Google :mrgreen:

Pas de news de Raphael, c'est un lien vers le sujet? Tu as le lien stp @patapon87?
 
WRInaute passionné
Rien de neuf sur le sujet ...
J'ai tel a l'auteur et laissé mon num pour discuter de vive voix, car je n'aime pas donner non plus un avis sans connaitre. il doit être en vacances car je n'ai pas de nouvelles.
De l'ensemble des forums ou commentaires ci et là, c'est assez critique. il y a donc une maladresse quelques part, et l'on attend toujours un signe de l'intéressé, maintenant que les quelques tomates jetés sont tombés au sol...

A moins qu'il ait vendu un millier d'e-book et que revenir sur le sujet n'a aucun intérêt pour lui ... :mrgreen:
 
Discussions similaires
Haut