[hypothèses] les critères de Google pour l'algo Panda

Olivier Duffez (admin)
Membre du personnel
Tout ce qui suit ne va être que suppositions, hypothèses et autres idées plus ou moins sérieuses, mais je me suis dit qu'on pourrait essayer de lister les critères que Google pourrait utiliser dans son fameux algorithme Panda.

A quoi ça sert de lister tout ça si rien ne peut être vérifié ? Ca peut servir à mieux analyser Panda, en essayant de faire des recoupements entre toutes les infos que les membre de WRI voudront bien partager. Car si pour l'instant peu de monde sur WRI est concerné (actuellement Panda ne concerne que les requêtes en anglais), il y aura forcément pas mal de monde quand Google aura généralisé Panda à toutes les langues. Autant réfléchir dès maintenant et profiter que nous sommes nombreux sur WRI à s'intéresser à ce sujet :roll:

J'avais commencé une liste au sujet des fermes de contenus (qui semble-t-il ne sont qu'une partie des cibles de Panda). Depuis, Google a précisé que dans certains cas les retours utilisateurs étaient pris en compte, par le biais de l'extension Chrome permettant de bloquer des sites sur Google.

A ceux qui voudront donner leur avis ou participer à cette discussion : merci de bien préciser à chaque fois s'il s'agit uniquement de votre avis perso, de votre intuition, du bon sens, ou bien si c'est issu d'un ou plusieurs cas réels (auquel cas ce serait bien de préciser vos infos).

Merci d'avance pour votre participation constructive :)
 
WRInaute passionné
Ma certitude à mois est qu'une grande partie de webmasters honnêtes vont payer.
les malhonnêtes aussi, sauf qu'eux, n'ont pas de scrupule et ils opteront très rapidement pour d'autres contournements ... et en attendant que google prenne en compte les nouvelles techniques blackhat (ou greyhat :D ) les plus honnêtes continueront à payer.

c'est ce que j'ai remarqué à chaque mise à jours d'algo dans mon entourage ... pire je connais des sites qui utilisent toutes les techniques interdites par google et qui continuent de grimper dans les SERPS ...
 
Nouveau WRInaute
Google et l'algo Panda

Bonjour

Il est possible sinon probable que l'algo Panda évolue au fur et à mesure des critiques (qui ne sont pas forcément prises en comptes toutes). sistrix et qqs autres ont constatés des fortes baisses de trafic, elles sont assez importantes pour qu'une remontée de trafic ne soit pas trop imputable à des sites déja fortement optimisés, surveillés, ....

En tout cas si qq'un revoie la meme liste Sistrix mise à jour aux USA ou en UK ....je parie que la perte est déja moindre ...meme s'il faut aussi tenir compte des actions des sites impactés.

Les qqs hypothèses lues ou testées ne font remonter que des conseils déja appliqués par la majorités des SEO. Et on voit aussi qqs sites de référence impactés : Yahoo Answers est-il si spammeux/spammé ???

Sur un trafic assez faible, j'ai pu voir un certain type de page fortement impactée aux USA (mais pas le site entier) et le trafic est revenu 4 semaines après sans intervention. La faiblesse du trafic est un biais statistique mais la chute du 24/02 était très nette et prolongée.
Souvent on ne voit rien sur le trafic global SEO mais si on segmente par niveau ou par marché.... alors le résultat est bien plus intéressant.

David Cohen @SEOEuro
 
WRInaute occasionnel
Par rapport à ta liste :

- Les mots clefs OK , je comprend pas d'accord, mais je comprend.
- Les liens dans la masse ou corp de texte, penses tu passer les post de Wri en do-follow ?

- La densité, ok mais sur un forum ? ou un site d'annonce ?

- Faible qualité editoriale .... ???? ok, Quid des forums, les sites d'annonce, les ecommerces ?

- Faibles articles ???? ok tjs la même question penses tu moderer les posts ayant pas assez de contenus ?

- Les noms d'auteurs.... ?? sur un form va ton revoir les signature (idem sur les sites d'annonces ou ecommerces)

- Trés nombreux articles sur le même sujets.... ? Quid des Forums, blog thématique, sites thématique, ecommerce ?

- Les Pubs, ok le net est il pret a passer au payant ?

- Liens profond ..... ?? re même question les forum les sites d'annonces vont ils laisser des liens en do-follow ?

- Rare partage sur les réseaux sociaux ? .... donc on envoit notre trafic sur facebook, twitter etcc... au détriment de notre site ??

- Taux de rebond, c'est chaud, mais à la limite je comprend..

- faible proportion d'internautes mettant cette page en favoris ????? Et la il va falloir apprendre a des gens comme mes grand parents et beaux parents à mettre aux favoris ???




Non comme d'hab Google se mord la queue, les solutions ?

Faites des sites de m**de, oublies les forums, blogs, sites thématiques.. etc...

Faites des sites pour facebook, twitter, et Bing !

PS : est ce constructif ?
 
WRInaute impliqué
Moi j'aurais tendance à dire de ne pas trop en faire.

Cela m'étonnerait pas que Google surveille les sites qui modifient certaines choses en abondance sur leur site à l'approche de Panda... Ainsi pour moi ce serait le genre de site typiques pour lesquels appliquer des sanctions.

La plupart des sites à très bon contenus que je connais sont fait par des amateurs en prog et qui n'y connaissent rien en référencement. Des Docteurs qui publient sur leur site par exemple. Et il me semble que ce que cherchent les moteurs, c'est bien de mettre en avant des contenus plus sérieux et consistants comme ceux-là. Alors c'est certain, pour moi, mieux vaut éviter la sur-optimisation, car c'est bien à cause de cela que de nombreux petits sites à contenu intéressant ne sortent jamais des résultats...

Ensuite, clairement Facebook et Twitter auront une importance prioritaire. C'est à dire les échanges, les "j'aime", le nombre de fans ou followers, retweet, etc. Car si à une époque les blogs étaient nombreux, de plus en plus de personnes ne publient plus que sur FB et Twitter n'ayant plus de site vraiment perso. Les liens sortants ne viennent plus essentiellement des sites persos, mais des réseaux sociaux.

Sinon, toujours selon mon intuition, même si les liens sur des gros sites comme Wikipédia sont en no-follow, je pense que Google accorde(ra) une certaine importance aux sites linkés car les modifications d'articles sont de plus en plus "surveillés".

Autre point qui m'est venu à l'esprit avec l'arrivée des aperçus dans les résultats Google : Il pourrait comparer deux images de captures d'un site - une pour le site visitée par un bot, et l'autre par un "faux humain" - pour vérifier si le visuel est très différent.

Pour conclure, je pense que la vraie problématique aujourd'hui pour les moteurs serait avant tout la chasse à la sur-optimisation : écrire pour les moteurs et non les lecteurs... Cela passe donc par le code HTML, mais aussi le contenu rédactionnel. Je pense que Google a les moyens de vérifier si un texte est grammaticalement et orthographiquement correct en comparant avec de nombreux textes de référence. (C'est d'ailleurs la base de Google translation ou des suggestions).En effet on trouve quand même pas mal de textes traduits de mauvaise qualités, des textes générés avec des robots, etc.
 
WRInaute passionné
Logiquement, tout ce qui montre que les visiteurs apprécient le site :
- taux de rebond faible
- nombre de revisite élevé
- nombre de pages vues par visiteur élevé (en supposant qu'ils arrivent à le déduire)
- idem pour le temps passé sur le site
- tout ce qui est communautaire (forum actif ? facebook / twitter / autres ? son principe de vote (+1 et extension chrome))
- toujours les liens, peut-etre plus sur les pages internes (plus de chance que ce soit naturel ?)

A mon avis, si tout ces critères sont avantageux pour le site, il doit plus facilement passé tout autre filtre (tel que les pubs en trop grand nombre si on en crois les rumeurs), puisque finalement la pub ne serait pas un frein pour les visiteurs, et donc que le contenu est de suffisamment bonne qualité pour que les visiteurs supportent les pubs (on pense à Allociné blindé de pub mais très apprécié malgré tout).
 
WRInaute discret
Donc selon vous, le texte optimisé pour le robots en bas du site -http://www.zalando.fr serait a proscrire en vu de la mise à jour panda ?
Extrait du texte:

Sur Zalando.fr vous trouverez dès aujourd’hui des chaussures tendance ainsi que toute la mode en ligne ! La boutique en ligne de Zalando.fr vous garantit un excellent service sur un grand choix de chaussures et de vêtements des meilleures marques internationales. Découvrez vite notre boutique et choisissez parmi des milliers de modèles de chaussures homme et chaussures femme, sans oublier notre gamme de vêtements homme, vêtements femme et vêtements enfant parmi vos marques préférées. Vous pourrez acheter des ballerines élégantes ou des sandales qui s’accorderont à merveille avec une robe tendance Vero Moda ou bien encore des baskets pour aller avec un jeans décontracté Diesel. Pour un look parfait, combinez vos nouvelles chaussures femme ou chaussures homme avec des vêtements, des sacs ou des accessoires de mode de notre offre exclusive ! Notre gamme de produits est réellement innovante, nous avons des chaussures tendance pour tous les goûts et tous les âges. Pour composer facilement votre look préféré et personnel, rien de plus simple : il vous suffit de vous connecter sur Zalando.fr depuis votre ordinateur ou votre Smartphone et de commander vos chaussures, vos vêtements et vos accessoires de mode. Faites vos achats au meilleur prix et en toute sécurité avec Zalando.fr ! Pas de risque chez Zalando.fr avec la livraison gratuite et les retours gratuits pendant 30 jours de vos chaussures et de vos vêtements en France métropolitaine et en Corse ! Si vous avez la moindre question ou si vous désirez obtenir des renseignements, n’hésitez pas à contacter gratuitement l’équipe de Zalando.fr
 
WRInaute accro
Je suggèrerais de ne pas mélanger analyse d'un site particulier et discussion générale sur cet algo. Je pense que cette question serait plus à sa place dans la partie support du forum
 
WRInaute impliqué
tonguide a dit:
- taux de rebond faible
- nombre de revisite élevé
- nombre de pages vues par visiteur élevé (en supposant qu'ils arrivent à le déduire)

Aujourd'hui, j'ai visité plusieurs sites pour chercher des infos précises dans certains domaines et je les ai trouvé au bout d'une page (réel).

Pourquoi un site pertinent pour un visiteur devrait il être visité un nombre de fois élevé et avec beaucoup de pages vues ? Cette condition n'est pas nécessaire. Elle peut être à la limite "suffisante" pour donner un critère de qualité en plus.

Donc pour moi, Panda (qui au départ doit rechercher le contenu de mauvaise qualité donc non pertinent pour l'utilisateur) ne devrait pas se fixer sur ce genre de choses.
 
WRInaute passionné
"toi" tu n'es peut-être pas la moyenne pour cette thématique.

Tu as des personnes qui cherchent une info en particulier et d'autres qui cherchent à approfondir, des passionnés.

Par exemple avec WRI, tu peux chercher un article sur le référencement pour te faire une idée de ce qu'il faut faire dans les grandes lignes. Tu tombes dessus, tu lis, tu repars. Pour autant ça ne signifie pas que les autres visiteurs vont faire pareil. Il y a toujours une partie de passionné dans chaque domaine.

Autres exemples, le jardin : tu peux te demander comment entretenir un palmier sans être spécifiquement fan de ton jardin.

Il y a toujours une partie de passionné et une partie de curieux. J'ai perso une partie qui visite qu'une page, et d'autres qui visitent plus de 600 pages sur la journée ...
 
WRInaute passionné
Il y a une différence entre :
- un Tx de rebond élevé + un temps de visites convenable
et
- un Tx de rebond élevé + un temps de visite court + clic sur un autre résultat de la même recherche
 
WRInaute passionné
Il y a aussi les nuages de tags à manipuler avec précaution avec Panda.
Jusqu'à présent les tags permettaient de grossir artificiellement le nombre de pages et d'améliorer le linking interne.
Avec Panda, à mon avis, il faut limiter le nombre de tags et qu'ils soient très spécifiques. Par exemple :
- Mauvais tag : Football
- Bon tag : Coupe du monde de football 2010

Une autre solution envisageable pour les tags, si on pense qu'ils sont nécessaires pour l'internaute, c'est de mettre un Noindex, Follow
 
WRInaute impliqué
Dharius a dit:
Ensuite, clairement Facebook et Twitter auront une importance prioritaire. C'est à dire les échanges, les "j'aime", le nombre de fans ou followers, retweet, etc. Car si à une époque les blogs étaient nombreux, de plus en plus de personnes ne publient plus que sur FB et Twitter n'ayant plus de site vraiment perso. Les liens sortants ne viennent plus essentiellement des sites persos, mais des réseaux sociaux.

Je suis d'accord avec la première partie de ton analyse sur le fait que l'on délaisse les blogs pour du facedebouc !!! Seulement, en règle générale, un internaute prenait la peine d'écrire un article dans son blog pour être lu. Aujourd'hui on se contente de quelques phrases quand se n'est pas quelques mots à peine.

C'est pourquoi j'ai beaucoup de doutes sur la qualité rédactionnelle et la source d'information que peut être facedebouc ou twitter !!!
Et j'espère de tout coeur que Google va changer les choses ... doit on devenir célèbre à tout pris pour être vu ? Faut il que je fasse loft story pour que mon site soit bien référencé sur GG ? Pour ma part je ne considère pas les liens facedebouc et twitter comme des liens de qualité car je sais pertinemment qu'il n'y aura pas de phrase complètes dans une discussion sur mon thème mais simplement "Regarde ça => hpp://...... c'est trop cool".
Et c'est donc là que j'en reviens sur les BL de qualité ou non ... j'estime donc que les liens des réseaux sociaux que j'ai cité ne correspondent pas (a priori) à des liens de qualité ... mais à une popularité sans grand intérêt vraiment.

Ne pas oublier que GOOGLE est là pour apporter l'information aux internautes ... est ce que c'est sur facedebouc que j'aurai mes infos ? sur Twitter ? ... Pour ma part je m'attends d'avantage à des blogs ou des sites pour avoir les réponses à mes questions !!!!

Peut être GG va t'il commencer à réaliser qu'il se plante en mettant en valeur les réseaux sociaux .... c'est du populisme à mes yeux ... ça me fait penser à Endemol et ses émissions pourries plutôt qu'un bon film ou un documentaire !!! On préfère foutre du facedebouc plutôt que du site informatif (quoi que ...heureusement qu'il y a wiki). Comment abrutir les gens plutôt que les rendre intelligent !!!

Concernant ton analyse sur Wiki, je suis entièrement d'accord avec toi !!! je pense que malgré le nofollow, les BL wiki sont présent sur ta plateforme webmaster tools ... donc tu te doutes bien que GG le sais !!! Vu que la politique de wiki est de limiter les liens externes ... je pense que l'on peut dire qu'un lien wiki sera très apprécié par GG.
 
WRInaute discret
Pour ma part je pense qu'une partie des critères de l'algo Panda vont être l'utilisation et le croisement de données que Google possède déjà.

- Quantité de pages en Duplicate content sur le site,
- Qualité de la rédaction des articles (cf formation de Ranking Metrics sur le sujet)
- Quantité et nature des liens (maillage interne et backlinks provenant des autres sites)

A cela peut être que Google aura comme critère :

- Le nombre de fois une page est en favoris,
- Le nombre de fois où une page est mise à jour,
- Le nombre de sujet divers en rapport avec l'actualité, (un site qui traite d'un large nombre d'actualité dans différents domaines pouvant être très éloigné),

Je pense pas apporter de grandes nouveautés, mais bon... c'est ma petite contribution.
 
WRInaute impliqué
tonguide a dit:
Je suis bien d'accord avec toi, malheureusement, ce n'est pas nous qui choisissons.

Je vais te dire à quoi cela me fait penser ...aux annuaires...il y a 10 ans !!! On s'inscrivait sur 1000 annuaires en 2 clics et on voyait notre site monter dans les SERPS parce que Google comptabilisait les BL des annuaires. Avec le temps on a réalisé que les annuaires n'étaient pas un critère de qualité et qu'il fallait s'orienter sur un échange de liens utiles.

Je pense que cela prendra surement un peu de temps ... la mode du "buzz" va changer ... et peut être plus vite qu'on ne le croit (vu que les technologies changent de plus en en plus vite).

Dans son nouvel algorithme ... panda n'en tient il pas compte ? Se contente t'il uniquement des fermes à contenu ? Je trouve ça bien dommage de passer du temps à développer un algorithme si on ne tient pas compte de tels critères qui me paraissent essentiels pour dénicher les sites de qualité plutôt que les sites à "buzz" qui n'ont bien souvent beaucoup moins d'infos que le site du Docteur landa qui fera son article sur la triothérapie intestinale (j'ai inventé l'expression) et qui n'aura malheureusement pas fait un buzz avec (contrairement à doctissimo) !!!
 
WRInaute impliqué
Jiraiya-15 a dit:
Pour ma part je pense qu'une partie des critères de l'algo Panda vont être l'utilisation et le croisement de données que Google possède déjà.

- Quantité de pages en Duplicate content sur le site,
Peut être également le Duplicate d'images !!! Il serait temps !!! Quand je vois des images identiques dans les serps (deux photos identiques à une position d'écart c'est plutôt moyen)

- Qualité de la rédaction des articles (cf formation de Ranking Metrics sur le sujet)
J'ai beaucoup de doutes avec la version française de Panda concernant ce critère

- Quantité et nature des liens (maillage interne et backlinks provenant des autres sites)
Croisons les doigts mais je pense que Google faisait déjà un "bon" travail à ce niveau


A cela peut être que Google aura comme critère :

- Le nombre de fois une page est en favoris,
- Le nombre de fois où une page est mise à jour,
Ce critère ne me parait pas pertinent dans le sens ou certains articles ne doivent pas bouger ... par contre sur la mise à jour régulière des sites avec ajout de contenu ...ça peut le faire effectivement !!!

- Le nombre de sujet divers en rapport avec l'actualité, (un site qui traite d'un large nombre d'actualité dans différents domaines pouvant être très éloigné),

Je pense pas apporter de grandes nouveautés, mais bon... c'est ma petite contribution.
 
WRInaute passionné
cheloniologue a dit:
Ne pas oublier que GOOGLE est là pour apporter l'information aux internautes ... est ce que c'est sur facedebouc que j'aurai mes infos ? sur Twitter ? ... Pour ma part je m'attends d'avantage à des blogs ou des sites pour avoir les réponses à mes questions !!!!
Peut être GG va t'il commencer à réaliser qu'il se plante en mettant en valeur les réseaux sociaux .... c'est du populisme à mes yeux ... ça me fait penser à Endemol et ses émissions pourries plutôt qu'un bon film ou un documentaire !!! On préfère foutre du facedebouc plutôt que du site informatif (quoi que ...heureusement qu'il y a wiki). Comment abrutir les gens plutôt que les rendre intelligents !!!
Concernant ton analyse sur Wiki, je suis entièrement d'accord avec toi !!! je pense que malgré le nofollow, les BL wiki sont présents sur ta plateforme webmaster tools ... donc tu te doutes bien que GG le sait !!! Vu que la politique de wiki est de limiter les liens externes ... je pense que l'on peut dire qu'un lien wiki sera très apprécié par GG.
C'est soit du populisme à quelques centimes, soit de la grande pauvreté mentale (si le but réel est celui d'abrutir les gens de peur qu'ils deviennent intelligents et forment des communautés intelligentes).
 
WRInaute impliqué
Bonjour,

+1 pour cheloniologue

Panoramix a dit:
C'est soit du populisme à quelques centimes, soit de la grande pauvreté mentale (si le but réel est celui d'abrutir les gens de peur qu'ils deviennent intelligents et forment des communautés intelligentes).
En même temps, le public d'un stade ne scande pas du molière lors d'un match.

Récemment, il y a un pote qui me disait que les biologistes étaient intéressés par la propagation d'une information sur les réseaux sociaux car cela avait de fortes similitudes avec les virus biologiques.

Par extrapolation, les fermes de contenus ressemblerait plutôt à des cellules cancéreuses, cellules qui ont été détournés de leur fonction première et ne serviraient pas à grand chose.

Panda pourrait être un moteur qui met à l'écart les cellules cancéreuses du web, et qui trouveraient les sources d'origines des virus.

Voilà mes 2 sous
 
WRInaute passionné
Le temps passé sur une page :

Je suppose que Google doit faire un rapprochement entre le temps passé sur une page et la quantité de mots à lire.
Si c'est 800 mots et un temps de 30 s, c'est moins bon que si c'est 100 mots et un temps de 30 s.
 
Nouveau WRInaute
J'ai pour ma part le sentiment que le critère véritablement nouveau de Panda serait un "taux de rebond publicitaire".

Google aurait concentré ses efforts pour repérer les sites pour lesquels l'internaute arrive, passe peu de temps et clique sur l'une des publicités/liens publicitaires . Ce critère pourrait selon moi expliquer les sanctions généralisées des shopbots, sites de coupons ou fermes de contenus... Un taux de rebond publicitaire trop élevé pourrait agacer Google qui y voit là un détournement de son trafic, même si cela fait parti de la définition même du métier de comparateur.
 
WRInaute passionné
@seoscar : ça serait un peu bête de leur part, à ce moment là, la célèbre méthode qui consiste à faire plein de site bourrin (sans pub, ni même de contenu à lire pour un humain) pour référencer le site principal qui lui est rentable fonctionnerai à merveille.
 
WRInaute discret
Je pense qu'il doit y avoir parmi les critères aussi le nombre de liens qui pointent vers l'extérieur (pubs OU liens normaux).

Car clairement, dans les sites inintéressants pour les internautes ET qui ont été pénalisés, on voit :
- les fermes de contenu, blindées de pub (donc beaucoup de liens publicitaires)
- les comparateurs/annuaires (quasiment que des liens vers l'extérieur, peu de contenu), sans intérêt pour l'internaute qui préfèrerait arriver directement sur le produit qu'il cherchait

Et en mélangeant surement ça avec le temps passé par l'internaute avant de ressortir du site pour aller ailleurs.

@seoscar : ça serait un peu bête de leur part, à ce moment là, la célèbre méthode qui consiste à faire plein de site bourrin (sans pub, ni même de contenu à lire pour un humain) pour référencer le site principal qui lui est rentable fonctionnerai à merveille.

Avec mon hypothèse, ces site ne serviraient à rien, puisque sans contenu et avec juste des liens vers la cible. Et s'ils ont du contenu ben... autant mettre ce contenu dans le site cible !
 
Nouveau WRInaute
strekk > Nous nous rejoignons. Cependant, je n'ai pas un avis aussi tranché sur les comparateurs, ils répondent à un besoin et ont un intérêt pour l'internaute.

tonguide > Pas nécessairement. Ce taux de rebond publicitaire serait simplement un indice supplémentaire de l'algo, ni plus ni moins. S'il n'y a pas de publicité sur le site, Google ne va évidemment pas sortir sa calculette et affecter un bon point au site concerné sous prétexte que son taux de rebond publicitaire est de 0. Mais peut-être n'ais-je pas saisi ta remarque?
 
WRInaute discret
Seoscar a dit:
strekk > Nous nous rejoignons. Cependant, je n'ai pas un avis aussi tranché sur les comparateurs, ils répondent à un besoin et ont un intérêt pour l'internaute.

Ils auraient un intérêt s'ils présentaient les produits par ordre de prix, au lieu de les présenter dans l'ordre qui les intéresse (suivant le cas, en mettant d'abord ceux qui payent le plus cher au clic, ou ceux qui font le meilleur taux de clic et donc qui leur rapportent le plus). En tant qu'utilisateur, je ne vais JAMAIS sur les comparateurs car j'ai remarqué que ça me fait uniquement perdre du temps. Surtout que sur certains types de produits, ils n'ont de comparateur que le nom, et ne comparent rien du tout. Et même en n'y allant jamais ça m'en fait perdre quand même car il faut scroller les 4 premières pages de résultats pour espérer voir autre chose...

En tout cas personnellement à la fois en tant qu'internaute lambda et que webmaster d'un ecommerce, je suis favorable à ce que google soit beaucoup plus sévère avec les sites d'avis, comparateurs, et annuaires en tous genres.
 
WRInaute impliqué
strekk a dit:
En tant qu'utilisateur, je ne vais JAMAIS sur les comparateurs

Ca c'est ton expérience. Moi j'y vais et j'ai déjà (pas toujours) trouvé mon bonheur. C'est comme dans tout, il y a du bon et du mauvais...
Mais je ne vois pas pourquoi on devrait sanctionner l'ensemble des comparateurs de prix.
 
WRInaute occasionnel
Bonsoir à tous,
Discussion passionnante :) Personnellement je rejoins l'avis de quelques uns qui doutent du bien fondé de "surpondérer" les réseaux sociaux dans l'algo. D'une part, cela exclue probablement 90% des sites internet qui n'ont aucune chance/vocation à être tweeté/liké et d'autre part, cela me semble être un critère extrêmement "blackhatable"...

Google ferait mieux - a mon avis - d'intensifier sa lutte contre le contenu dupliqué. Problème qu'il n'a pas vraiment réglé malgré ce que l'on peut dire ou lire...
 
WRInaute impliqué
Seoscar a dit:
J'ai pour ma part le sentiment que le critère véritablement nouveau de Panda serait un "taux de rebond publicitaire".

Google aurait concentré ses efforts pour repérer les sites pour lesquels l'internaute arrive, passe peu de temps et clique sur l'une des publicités/liens publicitaires . Ce critère pourrait selon moi expliquer les sanctions généralisées des shopbots, sites de coupons ou fermes de contenus... Un taux de rebond publicitaire trop élevé pourrait agacer Google qui y voit là un détournement de son trafic, même si cela fait parti de la définition même du métier de comparateur.

Ne pas oublier que google fait des fortunes avec adwords !!! Peut être trouver un juste milieu ... mais il ne pénalisera pas ce qui lui rapporte du fric. A l'inverse ceux avec un taux de rebond publicitaire bien trop élevé ... de type "fermes a contenu" ... google doit le pénaliser pour la simple et bonne raison que les publicités n'ont a priori pas un taux de transformation élevé (en gros le mec qui met sa pub reçoit un trafic de mauvaise qualité... donc il risque de se tourner vers un autre publicitaire).
 
WRInaute passionné
Pas d'accord par contre, selon plusieurs annonceurs que je connais personnellement, les sites de contenu avec peu de valeur, quand la pub n'est pas trop sauvage (donc identifiable), sont tout aussi rentable qu'une pub Adwords mais beaucoup moins cher. (forcement, c'est comme si on achetait le mot clé qui est visé par le spammeur). Du coup, ça dessert forcement GG, qui gagne moins pour le même mot clé ...
 
WRInaute occasionnel
cheloniologue a dit:
Ne pas oublier que google fait des fortunes avec adwords !!! Peut être trouver un juste milieu ... mais il ne pénalisera pas ce qui lui rapporte du fric. A l'inverse ceux avec un taux de rebond publicitaire bien trop élevé ... de type "fermes a contenu" ... google doit le pénaliser pour la simple et bonne raison que les publicités n'ont a priori pas un taux de transformation élevé (en gros le mec qui met sa pub reçoit un trafic de mauvaise qualité... donc il risque de se tourner vers un autre publicitaire).


Oui est qui écoule les clics ?

C'est pas lui, il n'a que 10 places sur ses pages de search, nous on en as potentiellement 24 !

La mauvaise transformation ?
il s'en fou !!
Il smartprice, et ne reverse rien à l'annonceur...

GG a tellement d'annonces image/texte/video non cliquées par jour, qu'il est pret à tout, pour qu'elles soient consommés...
 
WRInaute impliqué
Neillys a dit:
Oui est qui écoule les clics ?

C'est pas lui, il n'a que 10 places sur ses pages de search, nous on en as potentiellement 24 !
D'où le fait de trouver un juste milieu ... et peut être ne pas favoriser que du wiki qui ne lui rapporte rien !!!

La mauvaise transformation ?
il s'en fou !!
Il smartprice, et ne reverse rien à l'annonceur...
Là par contre je suis pas d'accord... il existe bien d'autres publicitaires comme yahoo ou d'autres ... je pense que google n'a pas intérêt à mettre des pubs au mauvais endroit et surtout à ce que des webmaster peu scrupuleux fourrent sur la page 24 espaces pub en sachant que le clic n'apportera pas un traffic ciblé et de qualité. Si tel est le cas, les annonceurs iront voir ailleurs.

GG a tellement d'annonces image/texte/video non cliquées par jour, qu'il est pret à tout, pour qu'elles soient consommés...
Pas a tout ... j'en suis persuadé.
 
WRInaute accro
cheloniologue a dit:
Neillys a dit:
GG a tellement d'annonces image/texte/video non cliquées par jour, qu'il est pret à tout, pour qu'elles soient consommés...
Pas a tout ... j'en suis persuadé.

Peut être pas à tout... mais d'un point de vue stratégique, il se tirerait une balle dans le pied à dégager des sites qui convertissent correctement en AdSense, puisque ce sont de "secondes chances": le visiteur qui n'a pas cliqué sur la pub dans la SERP est récupérable sur le site tiers.
Tant que le ciblage et la conversion sur le site tiers sont bons, c'est à son avantage.

Si* on veut inclure AdWords/AdSense dans la réflexion "Panda", il faut considérer ça aussi.


* ce n'est pas parce que Matt Cutts n'en parle pas que ce n'est pas vrai**
** et inversement :mrgreen:
 
WRInaute discret
kmenslow a dit:
Il y a aussi les nuages de tags à manipuler avec précaution avec Panda.
Jusqu'à présent les tags permettaient de grossir artificiellement le nombre de pages et d'améliorer le linking interne.
Avec Panda, à mon avis, il faut limiter le nombre de tags et qu'ils soient très spécifiques. Par exemple :
- Mauvais tag : Football
- Bon tag : Coupe du monde de football 2010

Une autre solution envisageable pour les tags, si on pense qu'ils sont nécessaires pour l'internaute, c'est de mettre un Noindex, Follow

C'est également ma crainte. Maintenant c'est une grosse partie des blogs qui utilisent les tags... Google conseille désormais explicitement de ne pas indexer des pages du type résultat de recherche interne et les tags jouent justement cet effet...

Tout est surement question de dosage comme pour chaque critère d'ailleurs...

A-t-on des retours de sites utilisant un moteur de blogs type wordpress et qui serait pénalisé par Panda ?
 
WRInaute passionné
Aprés avoir lu consciencieusement ce topic, j'en conclus que que éviter d'être victime de Panda, il suffit de n'utiliser aucun service Google (adsence, analytics etc ) pour empêcher Google de faire une quelconque mesure statistique. :mrgreen:

Il faudrait être un minimum sérieux les enfants en vérifiant la faisabilité de telle ou telle mesure que serait sensé faire Google.

J'aimerais bien savoir, par exemple, comment Google, peut selon vous, déterminer pour un site donné :

1 - le taux de rebond
2 - le temps passé sur le site
3 - le taux de clic sur les publicités

enfin toutes ces mesures qui selon vous lui permettraient de pondérer les résultats de recherche.
 
WRInaute passionné
le taux de rebond

Utiliser le taux de rebond comme "indicateur de qualité"... mouais, je doute. Ou alors, il faudrait corréler cet indicateur avec le type de site...

- Un site de "CP" avec un taux de rebond élevé montrerait le peu d’intérêt des utilisateurs à lire ce contenu "pré-maché" pour les moteurs...
- Un taux de rebond élevé peu au contraire pour un annuaire montrer que l'utilisateur trouve ce qu'il veut... rapidement.

Dans certains cas, un taux de rebond élevé peu être signe de qualité.
 
WRInaute passionné
fandecine a dit:
J'aimerais bien savoir, par exemple, comment Google, peut selon vous, déterminer pour un site donné :

1 - le taux de rebond
2 - le temps passé sur le site
3 - le taux de clic sur les publicités

enfin toutes ces mesures qui selon vous lui permettraient de pondérer les résultats de recherche.

Il est vrai que tous les sites n'ont pas Google Analytic et de pubs adsense .

Pour le temps passé sur le site :
- L'internaute fait une recherche Google
- Clique sur le 1er résultat
- Disparait des yeux de GG
- Revient sur la page de résultat et clique sur le 2nd résultat
Si entre les 2 clics, il n'y a eu que 20 s, Google est en droit de se poser la question sur la pertinence de son 1er résultat.

Pour le taux de rebond :
Pour le connaitre, les sites doivent utiliser l'un des services de GG.

Si Google a des doutes sur son 1er résultat (car temps de 20 s et site n'utilisant pas l'un de ses services), il peut facilement privilégier le site se trouvant en position 2 (là GG connait tous car le site utilise l'un de ses services).

L'utilisation des services Google peut être bénéfique pour le positionnement de "certaines" pages mais peut également être néfaste selon la situation :D Mais c'est un autre débat.
 
WRInaute passionné
Chrome doit aussi renvoyer suffisamment d'infos pour que GG se fasse une idée de la pertinence des pages selon ses critères.
 
WRInaute passionné
fandecine a dit:
Aprés avoir lu consciencieusement ce topic, j'en conclus que que éviter d'être victime de Panda, il suffit de n'utiliser aucun service Google (adsence, analytics etc ) pour empêcher Google de faire une quelconque mesure statistique.
...
J'aimerais bien savoir, par exemple, comment Google, peut selon vous, déterminer pour un site donné :
1 - le taux de rebond
2 - le temps passé sur le site
3 - le taux de clic sur les publicités
Tu m'as coupé l'herbe sous le pied, j'allais en parler de tous ces résultats que seuls les barres GG (je serais curieux de savoir, en %, combien d'internautes francophones en sont munis?), les cookies adsense, ou autres pointeurs Analytics peuvent donner : que vont devenir les sites qui ne sont pas munis de ces outils? :roll: Et encore, que vont devenir les sites qui bloquent les captures écrans? GG va les pénaliser d'office.

Même conclusion : restons sérieux...

edit : @lafleur2004 : Chrome, sur mon WWW, représente à peine 1,8% des visites contre plus de 10% en théorie sur une moyenne = certaines thématiques sont hors-normes pour les moyennes, cela dépend du public visé.
 
WRInaute passionné
1,8 %, c'est un échantillon plus que représentatif pour se faire une idée. Tu sais que tu sondes la France entière avec juste 1000 personnes ?
 
WRInaute occasionnel
cheloniologue a dit:
GG a tellement d'annonces image/texte/video non cliquées par jour, qu'il est pret à tout, pour qu'elles soient consommés...
Pas a tout ... j'en suis persuadé.
[/quote]


Crois moi, je le tiens de source ultra sùr...... :mrgreen:
 
WRInaute passionné
kmenslow a dit:
Si entre les 2 clics, il n'y a eu que 20 s, Google est en droit de se poser la question sur la pertinence de son 1er résultat.

Et si il s'est écoulé 1 heure, c'est que l'internaute c'est endormi ! :mrgreen:

Un peu de sérieux ! D'une part ce genre de mesure est très aléatoire, d'autres parts le temps passé sur une page, si tant est que google puisse le mesurer ne signifie en rien de la pertinence de celle ci.

Même la pertinence d'un résultat est une donnée subjective. Ce qui est pertinent pour l'un ne l'est pas forcement pour un autre (et je ne parle même pas de la qualité de tel ou tel site qui est un critère encore plus subjectif)

Autre chose, certain d'entre vous citent le DC. Là je pense qu'il y a confusion, les filtres sensés lutter contre le DC sont en place depuis longtemps et Panda n'amène rien de neuf à ce sujet.
 
WRInaute passionné
lafleur2004 a dit:
1,8 %, c'est un échantillon plus que représentatif pour se faire une idée. Tu sais que tu sondes la France entière avec juste 1000 personnes ?

Oui on fait un sondage sur 1000 personnes mais pas n'importe lesquelles, le sondage est fait sur "un échantillon représentatif" selon la formule consacrée. (l'échantillon ou plutôt les critères qui le définissent, ne sont d'ailleurs pas les mêmes selon le type de sondage)

Pour faire une statistique généralisable à un plus grand nombre, l'échantillon n'est jamais le fruit du hasard. Les 1.8% dont tu parles ne constituent en rien un échantillon représentatif.
 
WRInaute impliqué
fandecine a dit:
1 - le taux de rebond
Concernant le taux de rebond publicitaire ... bah il utilise adsense ... affichage ... clic ... temps ... Je pense qu'il en est capable !!!

Neillys a dit:
cheloniologue a dit:
GG a tellement d'annonces image/texte/video non cliquées par jour, qu'il est pret à tout, pour qu'elles soient consommés...
Pas a tout ... j'en suis persuadé.

Crois moi, je le tiens de source ultra sùr...... :mrgreen:
Je pense donc que Google est con alors .... c'est risquer de faire partir ses annonceurs vers d'autres publicitaires car le taux de transformation est petit, qu'il met en valeur des sites sans contenu réel mais bourré de pub ... sur lequel l'internet se retrouve par hasard suite à un buzz d'un nageur qui se noie et qui va cliquer sur une pub de cosmétique aux algues. :mrgreen: :mrgreen: :mrgreen:
D'ou justement (très probablement à mon sens), on fait notamment la guerre aux fermes à contenu ... voilà comment je le perçois !!
 
WRInaute passionné
cheloniologue a dit:
Concernant le taux de rebond publicitaire ... bah il utilise adsense ... affichage ... clic ... temps ... Je pense qu'il en est capable !!!

Pour cela il faudrait que tous les sites utilisent adsence sur toutes les pages et uniquement adsence : :mrgreen:

On nage dans le délire paranoïaque le plus complet !!!

J'en reviens donc à ma première préconisation : N'utilisez plus aucun service de Google et vous échapperez à Panda à coup sûr :wink:
 
WRInaute passionné
Fandeciné, certainement, mais je ne pense pas que ce genre de considération empêche Google de tenir compte de ce que lui renvoient les utilisateurs de Chrome.

Google a besoin de ce type d'info pour savoir si ton site est intéressant ou pas, car :

- il ne comprend rien à ton contenu ;
- le linking est truandé à mort.

Il va donc logiquement s'intéresser à tous les signaux qu'il va pouvoir capter pour savoir si les naunautes aiment ton site ou non. S'il n'en reçoit pas, ou trop peu, quelle conclusion peut-il en tirer à ton avis, surtout si des sites comparables au tien lui en envoient beaucoup plus ?

Après, pour revenir au sujet, je ne pense pas que l'inclusion d'infos sur le comportement des naunautes dans les critères de classement ait grand-chose à voir avec Panda. C'est à mon avis un chantier permanent et plus vaste.
 
WRInaute passionné
Ah d'accord...

fandecine a dit:
On nage dans le délire paranoïaque le plus complet !!!

Bon, je pensais qu'on était sur un fil dans lequel on pouvait échanger tranquillos des ressentis histoire de tenter de faire avancer le schmilblick, mais comme d'hab ici, celui qui a une idée différente mérite juste de se faire traiter de malade :lol:

Désolé d'avoir essayé d'avancer des arguments, ça n'arrivera plus 8)
 
WRInaute passionné
Ouais, il parait même que lorsque Google prends une photo pour Street View, si il n'y a pas la queue devant ta boutique et bien ton site n'apparait plus dans les SERPs :mrgreen:
 
WRInaute passionné
lafleur2004 a dit:
Bon, je pensais qu'on était sur un fil dans lequel on pouvait échanger tranquillos des ressentis histoire de tenter de faire avancer le schmilblick, mais comme d'hab ici, celui qui a une idée différente mérite juste de se faire traiter de malade :lol:

Désolé d'avoir essayé d'avancer des arguments, ça n'arrivera plus 8)

Ben on échange, avec des avis bien différents. Le fait de débattre n'interdit pas d'être contredit ni de voir ses propos diversement appréciés ou même jugés.
 
WRInaute passionné
fandecine a dit:
Ben on échange, avec des avis bien différents. Le fait de débattre n'interdit pas d'être contredit ni de voir ses propos diversement appréciés ou même jugés.

Bien reçu. De mon côté, je juge tes propos idiots.

Fiouh, on avance bien, tu ne trouves pas ?
 
WRInaute passionné
fandecine a dit:
Pour cela il faudrait que tous les sites utilisent adsence sur toutes les pages et uniquement adsence : :mrgreen:
Et ce n'est pas le cas et c'est pour cela que les résultats qu'il propose ne sont pas parfait.
GG fait ce qu'il peut avec ce qu'il a comme infos sur chaque site.
 
WRInaute passionné
lafleur2004 a dit:
Bien reçu. De mon côté, je juge tes propos idiots.

Lesquels ? Si c'est lorsque je parle de délire paranoïaque, ça ne fait effectivement pas avancer grand chose, par contre si c'est lorsque je dis que google n'est pas en mesure de façon fiable d'effectuer des mesures de taux de rebond, temps passé sur une page etc .. j'aimerais que tu argumentes

Et ce n'est pas le cas et c'est pour cela que les résultats qu'il propose ne sont pas parfait.
GG fait ce qu'il peut avec ce qu'il a comme infos sur chaque site.

Tu dois comprendre que cette affirmation est gratuite et non étayée. Moi j'affirme le contraire en argumentant que le recueil de ce genre de données est peu fiable et aléatoire, qu'il n'est pas universel et qu'il présente donc beaucoup trop de failles pour être mis en oeuvre qui plus est dans un algorithme déjà bien complexe.

Oui Google est imparfait, mais de là a dire qu'il fait ce qu'il peut !? Il fait ce qu'il veux et de la même manière nous dit ce qu'il veux.
 
WRInaute passionné
fandecine a dit:
Oui Google est imparfait, mais de là a dire qu'il fait ce qu'il peut !? Il fait ce qu'il veux et de la même manière nous dit ce qu'il veux.
Oui, je suis d'accord avec toi et avec moi :D il fait ce qu'il peut et ce qu'il veut comme un savant mélange de sites avec adsense et de sites sans sur la 1ere page.
 
WRInaute passionné
Quand je vois les stats que GG trends nous sort sur nos sites ... je me fais aucun soucis pour GG à réussir à récupérer des informations. N'oublions pas non plus qu'il s'agit d'une partie des critères qui visent notamment à virer les très gros spammeurs sur lesquels GG aura forcement des stats assez précises. Sur les sites moins gros, dont les stats sont trop faible pour juger, il y a probablement d'autres critères qui peuvent suffire (trop de pub ? incohérence dans les textes qui prouvaient qu'il s'agit d'un bot ? etc.).

D'ailleurs, on parle beaucoup des gros sites, est-ce que vous voyez des sites qui ont moins de 1000vu/jour qui se sont fait salement avoir ? (dans quel cas, on pourrait dire que si GG a trop peu d'informations sur le site avec peu de stat, il n'y touche pas. Ou au contraire, si d'autres critères jouent, ce que je crois).
 
WRInaute passionné
fandecine a dit:
si c'est lorsque je dis que google n'est pas en mesure de façon fiable d'effectuer des mesures de taux de rebond, temps passé sur une page etc .. j'aimerais que tu argumentes.

Déjà fait au dessus :roll:

Sinon, tu crois que GG met Chrome et Analytics à disposition gratuitement juste par altruisme ? Ou bien pour en retirer des avantages ?
 
WRInaute passionné
lafleur2004 a dit:
fandecine a dit:
si c'est lorsque je dis que google n'est pas en mesure de façon fiable d'effectuer des mesures de taux de rebond, temps passé sur une page etc .. j'aimerais que tu argumentes.

Déjà fait au dessus :roll:

Sinon, tu crois que GG met Chrome et Analytics à disposition gratuitement juste par altruisme ? Ou bien pour en retirer des avantages ?

Ou qu'il finance une partie du développement de Firefox :mrgreen: .... sans parler d'Android ... au final, il a une multitude de canaux lui permettant d'avoir des infos de qualité
 
WRInaute passionné
lafleur2004 a dit:
Sinon, tu crois que GG met Chrome et Analytics à disposition gratuitement juste par altruisme ? Ou bien pour en retirer des avantages ?

Donc, j'en reviens à ma préconisation, si tu crains pour panda, n'utilise pas les services de google :mrgreen:

kmenslow a dit:
Ou qu'il finance une partie du développement de Firefox :mrgreen: .... sans parler d'Android ... au final, il a une multitude de canaux lui permettant d'avoir des infos de qualité

Tu cites des projets open source. Tu as trouvé des bouts de code suspect qui tendraient à montrer qu'on est espionné lorsque l'on utilise ces produits ?

Ensuite, ce que vous tendez à sous entendre va en l'encontre de ce qui se passe dans le domaine de l'open source et du logiciel libre.

Bien sur que les données analytics sont une source d'information précieuse mais surement pas pour en déduire une super équation miracle définissant la qualité d'un site par exemple.
 
WRInaute passionné
fandecine a dit:
Donc, j'en reviens à ma préconisation, si tu craint pour panda, n'utilise pas les services de google :mrgreen:

Ta conclusion est un peu simpliste.

1/ Encore une fois, je ne pense pas que le comportement de l'internaute ait beaucoup de rapport avec Panda. C'est plus vaste que ça et à mon avis intégré en continu, au rythme où GG parvient à traiter valablement tel ou tel type d'info.

2/ Si tu penses que ton site est apprécié des naunautes, pourquoi priver Google de cette précieuse information ?

3/ Dans le cas de Chrome (et Androïd, etc), ce n'est pas toi qui utilise un service GG, mais ton visiteur. Tu veux l'en empêcher comment ?

Bref, tu demandes des arguments, pourquoi n'en fournis-tu pas toi-même, plutôt que des smileys ?
 
WRInaute passionné
lafleur2004 a dit:
Bref, tu demandes des arguments, pourquoi n'en fournis-tu pas toi-même, plutôt que des smileys ?

fandecine a dit:
D'une part ce genre de mesure est très aléatoire, d'autres parts le temps passé sur une page, si tant est que google puisse le mesurer ne signifie en rien de la pertinence de celle ci.

fandecine a dit:
Pour cela il faudrait que tous les sites utilisent adsence sur toutes les pages et uniquement adsence


fandecine a dit:
le recueil de ce genre de données est peu fiable et aléatoire, qu'il n'est pas universel et qu'il présente donc beaucoup trop de failles pour être mis en oeuvre qui plus est dans un algorithme déjà bien complexe.

C'est dommage qu'il n'y ai pas de smiley avec de grosses lunettes, je l'aurais volontiers rajouté :mrgreen:
 
WRInaute passionné
Pour moi, ce n'est que la conclusion l'analyse du comportement des visiteurs.

Google par ses analyses en déduit que tel ou tel type de site est probablement mauvais, en analysant exclusivement la façon dont est fait le site et son contenu. Suite à ça, si le pourcentage est un poil trop élevé, il regarde avec les données qu'il a sur les visiteurs (si elles sont suffisantes ?) ce qu'en pense les visiteurs. Et pour ça, rien que la moyenne des visiteurs que GG envoi à ce site peu largement suffire pour en déduire une tendance, en particulier quand il lui envoi beaucoup de monde.

D'où ma question précédente, est-ce qu'on a des exemples de sites avec de faible stats qui ont été touchés ? (du genre les sites bourrins dont le but est de référencer un site plus gros / plus rentable)
 
WRInaute discret
fandecine a dit:
Ouais, il parait même que lorsque Google prends une photo pour Street View, si il n'y a pas la queue devant ta boutique et bien ton site n'apparait plus dans les SERPs :mrgreen:
Trop fort ! :lol:
A condition que la photo soit pas prise les jours de fermeture de la boutique... ni les jours de lancement des soldes... :mrgreen:

Heureusement que ce fil débutait par
WebRankInfo a dit:
Tout ce qui suit ne va être que suppositions, hypothèses et autres idées plus ou moins sérieuses, [...]

La question que je me pose, au delà des critères et de leur nombre, c'est surtout leur pondération.

Les mots clés ? à partir de quand en abuse-t-on ?
Parce que si je vend des stylos et que mon menu indique "stylos bleu | stylos rouge | stylos vert | stylos noir | etc.", faudrait quand même pas que je me fasse sabrer parce que le Panda il prend ça pour de l'abus...

Dans un ndd ? faut pas pénaliser, juste ramener la pondération à 0.
Parce qu'une requête sur "ports + morbihan" (un exemple [presque :mrgreen:] au hasard ), le site en n°1 ne brille pas par la qualité de son contenu.

Le rebond ?
à condition de savoir comment séparer "le bon grain de l'ivraie"

Le linking ?
Un maillage internet sur 10 pages c'est par forcément justifié, surtout quand tout est déjà dans le menu.
Et les BL sont parfois peu nombreux sans pour autant signifier que le site est inintéressant.

Le DC ?
Evidement que oui, mais :
Ne pas nuire au droit de citer.
Et bien sûr "qui de la poule ou de l'oeuf ?" Ce qui n'est pas toujours facile à trancher.

Les réseaux sociaux ?
Dans la grande majorité des pages, leurs commentaires lapidaires sont peu dignes d'intérêt.
Par ailleurs, pour celles qui mériteraient le détour, quand on dépense autant d'énergie, de temps et d'argent à faire une super page FB, faudrait sans doute songer à faire aussi un site... non ? :roll:
Donc pour moi, l'intérêt d'une page sur un réseau social ne doit être que secondaire, la priorité étant à donner au site parent.

Le recueil des avis ?
Revenons donc aux anciennes méthodes qui consistent à cliquer en masse pour recueillir un max d'avis favorables... :?
Va falloir drôlement verrouiller cette affaire pour qu'elle soit crédible.

La qualité du contenu ?
Commençons par la vérification d'orthographe, ce ne sera pas du luxe :mrgreen:
Ensuite faudra que l'AI qui analyse la qualité sémantique des pages ait un sens critique super "aware"... mais pourquoi pas.

Le respect des normes ?
Pas W3C ? pas WAI ? Bref, pas correctement balisé ?
Ce serait pas mal aussi, histoire de nettoyer un peu la profession...
Notons quand même que j'attends toujours, depuis 15 ans, un navigateur conforme... euh, vraiment conforme !

What else ?
Ben tiens, j'vais me faire un café, car à force de parler (et de vous lire) ça m'a donné soif...
 
WRInaute discret
dolmenhir a dit:
Le linking ?
Un maillage internet sur 10 pages c'est par forcément justifié, surtout quand tout est déjà dans le menu.
Fallait lire "Interne" (je précise pour ceux auraient pas déjà rectifié)
(désolé, pas d'edit possible)
 
WRInaute discret
Bonjour à tous,

Je pense que puisqu'on essaye de monter dans les SERPs (et qu'on entend par là depuis belle lurette ceux de google), on a accepté qu'ils dictent les règles du jeu. Google n'est plus une entité unique, mais une myriade de services différents (dirait-on filiales). Les objectifs du service adsense peuvent converger avec ceux du service initial (moteur de recherche)... mais puisqu'on en est à parler de pondération, il est évident que ce qui fait les affaires de l'un ne fera pas forcément celles de l'autre.

Si je devais jouer à Mme Irma, je dirais qu'au sein même de google ça doit lobby-iser à mort pour les pondérations de l'algo !

Bref, je renonce à chercher la petite bête, et je vais juste dire pourquoi je pense que les réseaux sociaux sont pris en compte à juste titre.

Jusqu'à présent, google fondait son "appréciation" du site sur des résultats de robots.... mais un design, une pertinence d'information etc.... ne sont pas appréciables uniquement avec les taux de rebond, le backlinking etc... sur des critères de qualité tellement complexes, à savoir la communication d'un être humain vers un autre être humain, je pense que l'appréciation de la plèbe, fusse-t-elle buveuse de bière et beuglante dans un stade (stéréotype de l'un d'entre vous auquel je ne refuse pas de m'identifier par ailleurs), est parfois plus significative que celle d'un robot.....

Puisque je fais un site pour humain, autant que le moteur de recherche prenne en compte son avis. A l'heure actuelle, Facebook devient tentaculaire et chronophage. En terme d'analyse comportementale et de "secrets persos" ils sont bien mieux armés que google. Se lier progressivement au système du +1, par un bouton ou un autre (élu par la plèbe encore et pas forcément par les élites) je pense que c'est logique de la part de Google. Croiser l'appréciation humaine avec celle des robots, cela me semble aller dans le bon sens, et donc je pense que c'est le critère majeur du nouvel algo.
 
WRInaute passionné
Winsiders a dit:
Croiser l'appréciation humaine avec celle des robots, cela me semble aller dans le bon sens, et donc je pense que c'est le critère majeur du nouvel algo.

Tout à fait mais ça, c'est pas Panda, c'est les Quality raters et c'est en place depuis des années 8)
 
Olivier Duffez (admin)
Membre du personnel
Il parlait peut-être de l'appréciation par les internautes.
D'ailleurs lafleur2004, qu'est-ce qui te fait dire que Panda n'utilise aucune donnée liée au comportement des internautes ? (je crois avoir lu que tu as écrit ça)
 
WRInaute impliqué
Bonjour à tous,

Je comprends pas trop la volonté affichée de taper sur les "fermes de contenu" telle qu'on les décrit de manière récurrente.

Je comprends par contre que la volonté affichée soit de taper sur les sites ayant du contenu inutile, et de médiocre qualité.

Pour en revenir aux fermes de contenu, ce qui m'étonne ce qu'un des critères cité est notamment le fait qu'un site de contenu cible du contenu constitué à partir de mots-clés apporteurs de trafic. Il faut être un peu sérieux, quelle entreprise aujourd'hui ne fait un site que pour le plaisir ? Aucune. Le but d'un site internet, c'est de générer du trafic avant tout pour générer de l'affichage de pub, du clic ou des ventes. Par conséquent, en allant loin dans le raisonnement, il faudrait éliminer tous les sites "pro" au profit des sites perso...

Ce qui me semble complexe un site perso dispose de moins de ressources pour avoir une qualité de service supérieure, et peu de perspective d'évolution.

Enfin bref, cela m'amène à poser la question suivante : est-ce que Google ne nous aurait pas fumé en nous faisant gobber une mise à jour importante de son algo, en sortant des mots chocs et en faisant des "exemples" grâce à une équipe qualité ?

Peut-être que c'est là le meilleur moyen de lutter contre les abus : la peur de la sanction poussée à son paroxysme.
 
WRInaute passionné
WebRankInfo a dit:
Il parlait peut-être de l'appréciation par les internautes.

Ah oui en effet, c'est le "Jusqu'à présent, google fondait son "appréciation" du site sur des résultats de robots" qui m'a trompé.

WebRankInfo a dit:
D'ailleurs lafleur2004, qu'est-ce qui te fait dire que Panda n'utilise aucune donnée liée au comportement des internautes ? (je crois avoir lu que tu as écrit ça)

Je crois que l'intégration de ces données a démarré il y a plusieurs années, et que ça se fait en continu, par petite touche, par domaine d'activité, par type de site ou par type de donnée intégrée. Je crois aussi que l'importance dans l'algo de ces données va croissant, bien qu'elles soient excessivement difficiles à exploiter (les débats qui ont lieu ici sur le taux de rebond montrent un exemple des écueils à surmonter pour tirer des conclusions de telles informations).

Je suis bien entenu incapable de le démontrer, je déduis ça d'observations et de raisonnements. Ce qui est sûr, c'est que si tu "améliores l'expérience utilisateur", comme on dit, sur un site web qui a déjà un certain trafic, ses pages font généralement assez rapidement une grimpette dans les Serp.

Mais Panda, vu le contexte de la sortie de ce truc et d'après ce que j'ai compris des effets (et effets de bord) sur l'anglophone, ça a plus l'air d'un mix bizarroïde entre nouvelles stats sur le contenu des pages et contraintes liées à la mise en valeur des services Google qu'autre chose. Ca ne t'a pas donné cette impression ?

Regarde dans le lot des sites flingués par Panda. Dans le tas, il y en a qui doivent vraiment donner satisfaction à leurs visiteurs. S'ils coulent malgré cela, c'est à mon avis sur d'autres critères, pas sur des données liées au comportement, sinon au contraire ils auraient dû bénéficier de Panda.

Après, je ne suis pas régulièrement de requête en britiche, je me base peut-être sur de l'info trop partielle ou trop déformée, peut-être donc que je changerai d'avis quand on verra les effets de Panda sur le françouze !
 
WRInaute passionné
Bourriquet a dit:
Enfin bref, cela m'amène à poser la question suivante : est-ce que Google ne nous aurait pas fumé en nous faisant gobber une mise à jour importante de son algo, en sortant des mots chocs et en faisant des "exemples" grâce à une équipe qualité ?

Pas con, mais pour ce qui est de Panda, il y a trop d'effets de bord pour que ça soit ça. C'est du filtre pur et dur, à mon avis.
 
Nouveau WRInaute
Je pense que c'est un mix des deux. Il doit y avoir du manuel, comme du programmé. Il doit aussi y avoir des facteurs de linguistique parce qu'ils se sont limités à l'anglophone (même pas en Inde en plus) jusque là.
 
WRInaute impliqué
si j'étais google, pour tous les sites qui ont un forum, je me servirais de l'évolution du taux d'inscris sur le forum par rapport aux visites, et de l'évolution du nombre de nouveaux posts par rapport au nombre d'inscris.je pense que çà doit donner une idée de si un forum réponds aux attentes des visiteurs ou pas.
 
WRInaute passionné
@Alex84 : tous es sites ne donnent pas accès aux robots, ni mêmes aux visiteurs non connectés, à ces informations. De plus, la thématique a une grande influence sur l'activité d'un forum, son ancienneté aussi. La plupart des gros forums ont bénéficié des années 2003-2005 où les forums "gratuits" en sous-domaine n'existaient pas encore (ni les blogs perso d'ailleurs). Les sites créés après 2006 n'ont plus bénéficié de ces apports (et de la notoriété induite) en raison de la concurrence des systèmes "gratuits" de publications. Dans la thématique "biologie", c'est évident : on regarde le rythme de parution des nouveaux articles après 2006 et avant sur quelques sites majeurs : c'est du simple au décuple.

Par ailleurs, je reviens sur des critères vis à vis de données que GG pourrait exploiter depuis Analytics et/ou Adsense : que faire de ceux qui n'ont pas ces systèmes? Ils seraient écartés des éventuelles sanctions Panda? C'est ATT (ex-Xiti) qui pourrait rapidement être content... et quelques grosses régies comme Ligatus, etc., aussi.

Dans ce cas, GG pourrait également tenir compte des sites mis de côté par les annonceurs AdWords (ceux que les annonceurs refusent).
 
WRInaute impliqué
Pour te répondre, je pense qu'il est capable de piocher des infos plus moins partout ... il met à disposition des internautes une panoplie d'outils ... surement que derrière il s'en sert pour X ou Y raison.

Après je suis d'accord sur le fait que tout le monde n'a pas ça ... mais si tu enlève : adwords, adsense, webmaster tools, GG analytics ... je doute qu'il reste énormément de sites mis à jours régulièrement. (C'est mon humble avis).

Puis si y a ni l'un ni l'autre ... il trouvera bien quelque chose ... il enregistre nos visites (petite option que l'on doit décocher pour pas avoir une super surprise et trouver son site en top position alors qu'on est en 4ème page). Il peut éventuellement mesurer si les visiteurs vont souvent sur le site ... ou s'ils en partent ... je sais pas ...mon avis Panda s'axe d'avantage sur le comportement des internautes.
 
WRInaute accro
fandecine a dit:
cheloniologue a dit:
Concernant le taux de rebond publicitaire ... bah il utilise adsense ... affichage ... clic ... temps ... Je pense qu'il en est capable !!!

Pour cela il faudrait que tous les sites utilisent adsence sur toutes les pages et uniquement adsence : :mrgreen:
quoique : je clique sur un lien dans les serp. ça m'envoie sur le site A qui n'a ni analytics ni adsense, je clique sur une pub qui m'envoie sur le site B, avec adsense ou analytics. gg sait vers quelle page j'ai été au départ des serp (surtout qu'en mode non connecté on voit souvent des url trackées dans les serp gg) et comme 10'' plus tard je suis sur le site B, la probabilité que j'ai changé de page sur A, entre temps, est très faible.
Si au lieu de cliquer sur une pub je reviens dans les serp, c'est encore plus facile pourgg.

maintenant, au niveau adsense, il faut savoir que c'est moins rentable pour gg que adword, donc autant moins bien positionner les sites avec forts ctr et, par contre, mieux positionner les adwords sur les requêtes correspondant à ces clics, voire même ajouter ces requêtes élargies aux suggestions effectuées par gg.
après, si les sites avec adsense arrivent à avoir des visiteurs indépendamment des serp gg, c'est tout bénef pour gg.
un bon client annonceur chez gg va installer analytics sur son site, ça lui permettra de mieux calculer son roi adwords. Et donc gg pourra tracker tous ses visiteurs :wink:
 
Discussions similaires
Haut