Stratégie de mots clés et... spam ???

WRInaute accro
Coucou

Suite à une conversation sur l'utilité et les risques à faire indexer des résultats de recherches par Google, je voudrais vous soumettre quelques réflexions pour que vous me disiez ce que vous en pensez.

--------------------------------------------------------------------------------------
Alors voila, on part d'un exemple avec une page d'article : HITACHI Caméscope DVD/Disque dur DZ-HS500

Il y a des liens en "presque" bas de page :

Thèmes de la page :
Hitachi Caméscope DVD/Disque dur DZ-HS500 | Hitachi Camescope DVD Disque dur DZ HS500 | Hitachi Camescope DVD Disque dur DZ | Hitachi Camescope DVD Disque dur | Hitachi Camescope DVD Disque | Hitachi Camescope DVD | Hitachi Camescope | Camescope DVD Disque dur DZ HS500 | Camescope DVD Disque dur DZ | Camescope DVD Disque dur | Camescope DVD Disque | Camescope DVD | DVD Disque dur DZ HS500 | DVD Disque dur DZ | DVD Disque dur | DVD Disque | Disque dur DZ HS500 | Disque dur DZ | Disque dur | dur DZ HS500 | dur DZ | DZ HS500 ||

Chaque expression séparée par un | est en fait un lien vers le moteur de recherche qui génère une page optimisée pour chacune d'entre elle (title, h1, url, ... optimisée pour chaque expression. Ces pages sont bien sûr indexables par les crawlers.

-------------------------------------------------------------------------------------

Les questions à se poser :

- Quels intérêts ?

Ici et sur d'autres forums de référencement, on prone souvent le référencement propre, avec une vision à long terme. On prone alors de référencer proprement 1 seule page plutôt que de passer du temps sur un bidouillage d'expressions satellites.

Oui, mais heu ... Comment peut-on référencer un article sous une seule appellation quand les internautes peuvent le nommer sous des dizaines d'appellation différentes ?
Dans l'exemple présent, ils indexent des dizaines de pages connexes de leur moteur de recherche en définissant toutes les manières possibles de taper une requête pour chercher ce produit. Et encore, ils restent "gentils" puisqu'ils ne mettent pas en placent des systèmes pour les fautes d'orthographe, les anagrammes ou mêmes les synonymes.


Est-ce du spam ?

Voila là où je voulais en venir. Est-ce du spam ?
Même si c'est très limite, j'aurais tendance à dire que NON :

Est-ce qu'en faisant ça, cette société cherche à tromper ses visiteurs ? Visiblement non, puisque les articles sont bien référencés chez elles et qu'elle peut en assuré la vente.

Est-ce qu'en faisant ça, cette société cherche à influencer les résultats ? Visiblement non, au contraire, elle cherche à ce qu'on la trouve mieux au sein des résultats. Pourquoi se priver de ces expressions alors qu'elles sont légitimes, non ?

A la limite, le seul reproche qu'on peut lui faire, c'est de gonfler la taille de l'index de la BDD de Google de 0.0000....001%

Voila, qu'en pensez-vous ?

Je sais, c'est très philosophique comme question, je pense que personne ici ne pourra dire un OUI ou un NON catégorique. C'est le débat qui est interressant. D'ailleurs, si quelqu'un avait une communication officielle de Google à ce sujet, je suis preneur.

Edit WRI : on peut discuter des techniques sans citer les sites concernés, merci.
Réponse Blman : je m'en doutais, c'est pour ça que j'avais détaillé un peu ;)
 
WRInaute accro
EDIT : à ce moment là du topic, quelques posts du dessus on été supprimés ;) ...


dorian53 a dit:
Ces listes de mots clefs sont affreuses et totalement inutiles.
...
Plusieurs sites font ça. Des sites poubelles qui n'ajoutent aucune valeur ajouté et ne font qu'indexer du contenu (pas toujours à eux d'ailleurs) dans tous les sens... et au final nous n'avons pas l'information voulu.

aille, désolé de t'avoir énervé ;)

1. Alors, l'information voulue, on l'a. Il n'y a pas duperie sur la marchandise, les pages qui ressortent sont bien en relation avec le contenu recherché
2. Inutiles... Bien sûr que si : créer de la visite. On ne fait pas du référencement pour la beauté du geste ;)
3. Le site que je cite, comme celui que tu avais cité, ne sont pas des sites poubelles. On ne peut pas dire ça...

Edit WRI : merci de continuer la discussion sans citer de sites. On peut discuter des techniques seulement.

Si les internautes appellent un article sous différentes appellations, est-ce que c'est spammé de vouloir être trouvé par le plus grand nombre ?
 
WRInaute impliqué
Enfin, tout le monde ne peut pas se permettre de faire la même chose que les très gros ;)
Si toi demain tu le fais, tu as de fortes chance de te faire sévèrement pénaliser :(
 
WRInaute passionné
Faut voir les choses le plus simplement possible, ce n'est pas naturelle d'avoir une telle liste.
Pourquoi ne pas faire ça dans l'index des livres :
Page 1 - Sommaire | Page 1 Le sommaine | 1 Sommlaire | Le grand sommaire | Sommaires page 1

C'est à la limite du duplicata.

1 - OK, ça sent défend (avec les mêmes arguments qu'un annuaire)
2 - "Inutile" ce n'était pas pour le référenceur
3 - Poubelle non, mais ce n'est pas ce qu'il propose de mieux, ils exploitent une carte, qui, personnellement me fait fuir.
 
WRInaute accro
cloacking a dit:
Enfin, tout le monde ne peut pas se permettre de faire la même chose que les très gros ;)
Si toi demain tu le fais, tu as de fortes chance de te faire sévèrement pénaliser :(

Bé justement, pourquoi est-ce que je me ferais pénaliser ? Même si je conçois que c'est limite, est-ce que c'est du spam ?
 
WRInaute passionné
C'en est !

On crierait au spam report sur d'autres sites de petites annonces automobiles ou autres.

Edit WRI : merci de ne pas citer de sites.
 
WRInaute accro
Les pages existent et sont accessibles individuellement : ce n'est pas du spam.
Mais il devrait y avoir matière à nettoyer l'index au nom du duplicate content, tout de même :)
 
WRInaute impliqué
Je suis absolument d'accord avec dorian53, pour moi c'est du spam. Combien de fois je me suis fait dépasser des pages légitimes et bien plus pertinentes par des recherches indexées, des listes de mots clés "relatifs", ou d'autres trucs du genre ... Et en quel honneur les plus gros auraient le droit de faire ça alors que les plus petits se font sévèrement punir ?
 
WRInaute accro
dorian53 a dit:
S'en est !

On crierait au spam report sur d'autres sites de petites annonces automobiles ou autres.

Explique moi pourquoi alors ;)


Google a dit:
Conseils concernant la conception et le contenu

* Efforcez-vous de définir une hiérarchie claire entre les pages et de créer des liens texte pertinents. Chaque page doit être accessible à partir d'au moins un lien texte statique.
* Créez un plan de site dont les liens pointent vers les sections les plus importantes de votre site. Si le plan de votre site comporte plus de 100 liens, nous vous conseillons de le diviser en plusieurs pages.
* Présentez des informations utiles à l'aide de pages au contenu clair et précis.
* Essayez d'imaginer les termes susceptibles d'être utilisés par les internautes pour trouver votre site et insérez ces termes dans vos pages.
* Pour présenter les éléments les plus importants de votre site (noms, contenu, liens, etc.), utilisez du texte plutôt que des éléments graphiques. En effet, notre robot d'exploration ne reconnaît pas les informations figurant dans les graphiques.
* Assurez-vous que le texte associé aux balises title et aux attributs alt est précis et descriptif.
* Assurez-vous que vos liens fonctionnent correctement et que le code HTML de vos pages ne présente pas d'erreurs.
* Si vous utilisez des pages dynamiques (l'URL de la page contient alors le caractère "?"), n'oubliez pas que ces pages peuvent ne pas être explorées par certains robots de moteur de recherche. Il est donc conseillé de limiter le nombre et la taille des paramètres de ces URL.
* Sur chaque page, limitez les liens à un nombre raisonnable (moins de 100).

Conseils techniques

* Utilisez un navigateur texte tel que Lynx pour examiner votre site. La plupart des robots de moteur de recherche visualisent en effet votre site de la même manière que Lynx. Si certaines fonctionnalités (JavaScript, cookies, ID de session, cadres, balises DHTML ou contenus Flash) vous empêchent de voir la totalité de votre site dans un navigateur texte, il est possible que les robots rencontrent des difficultés similaires lors de leur exploration.
* Évitez de faire appel à des ID de session ou à des arguments permettant de suivre les chemins empruntés par les robots sur votre site. Ces techniques sont utiles pour analyser le comportement des internautes, mais le mode d'exploration des robots est entièrement différent. Ces techniques peuvent donner lieu à une indexation incomplète de votre site, car les robots ne peuvent pas toujours éliminer les URL qui semblent différentes bien que pointant vers la même page.
* Vérifiez que votre serveur Web prend en charge l'en-tête HTTP If-Modified-Since. Cet en-tête permet à votre serveur Web d'indiquer aux robots Google si le contenu de votre site a évolué depuis leur dernière exploration. Cette fonctionnalité permet de limiter la consommation en bande passante et l'exploitation inutile d'autres ressources informatiques.
* Utilisez un fichier robots.txt sur votre serveur Web. Ce fichier indique aux robots d'exploration les répertoires de votre site qui peuvent ou non être explorés. Vérifiez que ce fichier est adapté à votre site ; sinon, vous risquez de bloquer l'accès de notre robot d'exploration Googlebot. Pour plus d'informations sur le contrôle des robots qui visitent votre site, consultez la page http://www.robotstxt.org/wc/faq.html. Pour tester votre fichier robots.txt et vérifier que vous l'utilisez de manière appropriée, servez-vous de l'outil d'analyse du fichier robots.txt disponible dans les outils Google pour les webmasters.
* Si vous utilisez un système de gestion de contenu, vérifiez qu'il peut exporter votre contenu pour permettre l'exploration de votre site par les robots des moteurs de recherche.
* Utilisez le fichier robots.txt pour éviter l'exploration des pages de résultats de recherche ou d'autres pages générées automatiquement par les moteurs de recherche et qui n'offrent pas d'intérêt particulier pour les internautes.

Conseils concernant la qualité

Nous abordons ici les pratiques déloyales ou techniques de manipulation les plus courantes. Les pratiques telles que celles consistant à tromper les internautes en enregistrant une version volontairement erronée du nom de sites Web populaires ne sont pas, par exemple, répertoriées dans le présent document. Google est cependant prêt à réagir à tous ces différents types de pratiques malhonnêtes. N'en déduisez pas non plus que les pratiques non mentionnées sur cette page sont autorisées par Google. Les webmasters qui s'efforcent de respecter ces principes de base offriront aux internautes une navigation plus agréable et obtiendront pour leur site un meilleur classement que ceux qui recherchent en permanence les failles de notre système.

Si vous pensez qu'un site ne respecte pas les conseils ci-dessus concernant la qualité, n'hésitez pas à nous le signaler à l'adresse https://www.google.com/webmasters/tools ... port?hl=fr. Google s'efforce d'apporter des solutions évolutives et automatisées aux problèmes plutôt que de les traiter au cas par cas. Nous utilisons les rapports qui nous parviennent sur les spams pour créer des algorithmes évolutifs, susceptibles d'identifier et de prévenir les futures tentatives dans ce domaine.

Conseils concernant la qualité - Généralités

* Concevez vos pages en pensant aux internautes et non aux moteurs de recherche. Ne trompez pas les internautes et ne leur présentez pas un contenu différent de celui destiné aux moteurs de recherche (technique appelée "cloaking" ou dissimulation).
* Évitez les "astuces" destinées à améliorer le classement de votre site par les moteurs de recherche. Pour savoir si votre site Web respecte nos consignes, posez-vous simplement la question suivante : "Suis-je en mesure d'expliquer en toute sérénité à un site Web concurrent les solutions adoptées pour mon site ?" Vous pouvez également vous poser les questions suivantes : "Ces solutions apportent-elles une aide aux internautes ?" "Aurions-nous fait appel à ces techniques si les moteurs de recherche n'existaient pas ?"
* Ne participez pas à des systèmes de liens conçus pour améliorer artificiellement le classement PageRank de votre site. Évitez tout particulièrement les liens vers des spams ou les "sites douteux" sur le Web, car ces liens risqueraient d'avoir une incidence négative sur le classement de votre site.
* N'utilisez pas de programmes non agréés pour demander l'indexation de vos pages, vérifier votre classement, etc. Ces programmes consomment des ressources informatiques inutilement et ne respectent généralement pas nos conditions d'utilisation. Google déconseille l'emploi de produits tels que WebPosition Gold™, qui envoient des requêtes automatiques ou programmées à Google.

Conseils concernant la qualité - Points à retenir

* Évitez de cacher du texte ou des liens.
* N'utilisez pas de techniques de dissimulation ("cloaking") ou de pages de redirection trompeuses.
* N'envoyez pas de requêtes automatiques à Google.
* Ne multipliez pas les termes sans rapport avec le contenu réel de votre site.
* Ne créez pas plusieurs pages, sous-domaines ou domaines présentant un contenu en grande partie identique.
* Ne créez pas de pages permettant l'installation de virus, de chevaux de Troie ou de tout autre programme mouchard ("badware").
* Évitez les pages satellites ("doorway") créées exclusivement pour les moteurs de recherche ou d'autres solutions, telles que les programmes d'affiliation, sans véritable contenu informatif.
* Si votre site fait partie d'un programme d'affiliation, assurez-vous qu'il est utile aux internautes. Présentez un contenu pertinent et original pour inciter les internautes à visiter votre site.

Voila, dans les guidelines de Google, j'ai mis en gras les 2 seuls points qui pourraient éventuellement donner une piste, mais personnellement, je n'ais jamais entendu :
- ni de retour d'expérience concernant un blacklistage ou une pénalisation pour ces raisons là
- ni jamais lu de doc officielle sur ce sujet là
 
WRInaute accro
Szarah a dit:
Les pages existent et sont accessibles individuellement : ce n'est pas du spam.
Mais il devrait y avoir matière à nettoyer l'index au nom du duplicate content, tout de même :)

Bien d'accord avec Szarah, ce n'est pas du spam,
et en particulier parce que ce sont des liens internes vers les catégories connexes du sujet de la page (et puis il fait ce qu'il veut dans ses constructions de pages non mais )
le danger est de faire des pages dupliquées puisque "presques" vides
mais théoriquement elles ne devraient pas etre ni crawlées, ni référencées.

je rajoute que google lui-meme propose des petits liens connexes en bas
sous les résultats :roll:
 
WRInaute passionné
HawkEye a dit:
Pour moi c'est du spam à partir du moment où ce n'est pas contrôlé et édité.

OK avec ça.

Plus voila les raisons pour lesquelles je pense que c'est du SPAM

- Concevez vos pages en pensant aux internautes et non aux moteurs de recherche
- Évitez les "astuces" destinées à améliorer le classement de votre site par les moteurs de recherche.
- Ne créez pas plusieurs pages, sous-domaines ou domaines présentant un contenu en grande partie identique.
 
WRInaute passionné
Enlever un mot, inverse l'ordre.

Si ce n'est pas un "contenu en grande partie identique" faut m'expliquer...

Dans ce cas la je ferai tous mes articles en double, un au singulier, l'autre au pluriel.
 
WRInaute accro
dorian53 a dit:
Enlever un mot, inverse l'ordre.

Si ce n'est pas un "contenu en grande partie identique" faut m'expliquer...

Dans ce cas la je ferai tous mes articles en double, un au singulier, l'autre au pluriel.

La dessus, tu a raison, je te l'accorde, surtout que les pages de résultats indexées sont quasi toujours IDENTIQUES...

Mais alors comment répondre à cette question : Comment peut-on référencer un article sous une seule appellation quand les internautes peuvent le nommer sous des dizaines d'appellation différentes ?
 
WRInaute passionné
Certains moteurs de recherche sont déjà suffisamment intelligents pour faire la liaison.

Si tous les termes sont présents dans la page ça aidera.

S'ils ne sont pas présents tant pis, c'est qu'une autre page en parlera plus explicitement et traitera le sujet mieux qu'elle.

On se positionne aussi beaucoup grâce au BL, et s'ils sont tous naturels, ils n'auront pas tous la même forme. On retrouvera alors cette mixité dans le choix des termes.
 
WRInaute discret
Je considère également ça comme du Spam.
Même si les pages existent, c'est un peu trop facile, je fais 50 000 pages sans contenus réel ni valeur ajouté pour le visiteur avec des h1 bourré de mot clé. Si les liens pointaient vers des pages d'articles connexes pas de problème mais la c'est pas le cas.
 
WRInaute accro
dorian53 a dit:
Certains moteurs de recherche sont déjà suffisamment intelligents pour faire la liaison.

Si tous les termes sont présents dans la page ça aidera.

S'ils ne sont pas présents tant pis, c'est qu'une autre page en parlera plus explicitement et traitera le sujet mieux qu'elle.

On se positionne aussi beaucoup grâce au BL, et s'ils sont tous naturels, ils n'auront pas tous la même forme. On retrouvera alors cette mixité dans le choix des termes.

ça, c'est de l'utopie ;)

Les termes dans la page, c'était encore bon il y a quelques années. L'ordre des mots est devenu important surtout dans le e-ecommerce où souvent des dizaines et des dizaines se battent sur le même intitulé de produit. Et je ne parle pas des anagrammes, fautes d'orthographes et synonymes, très largement sous exploités en référencement à cause de la peur de la sanction ou de la pénalité.
Et puis, les liens naturels, c'est bien, mais si on ne devait compté que la dessus, il y a bien longtemps que je pointerais au chomage ;)

Non, le site que je donnais en exemple (mais qui a été édité, bon, un énorme site de vente d'appareil photo et video), a une stratégie efficace, pas si irrespectueuse que ça finalement vis à vis des moteurs de recherche. Le seul truc qui permet aujourd'hui de faire la différence sur le principe de longue traine, c'est la balise <title> et vu qu'on a le droit qu'à un title par page pour la décrire, il faut bien autant de page que d'appellation possible pour un article si on veut être compétitif.

Et je le répète, ce n'est pas totalement mauvais ou irrespectueux que de faire ça. C'est juste essayer de s'adapter à la manière d'appeler un article qui est forcément différente d'un internaute à l'autre. Sinon, nous aurions tous une manière unique de chercher...
 
WRInaute discret
Dans ce cas rien de t'empeche de créer plusieurs pages pour vendre le même article avec une description différente, title différent, h1 optimisé pour différente recherche...
Mais pas de liens internes pointant vers une recherche avec title et h1 optimisé.
 
WRInaute passionné
blman a dit:
dorian53 a dit:
Certains moteurs de recherche sont déjà suffisamment intelligents pour faire la liaison.

Si tous les termes sont présents dans la page ça aidera.

S'ils ne sont pas présents tant pis, c'est qu'une autre page en parlera plus explicitement et traitera le sujet mieux qu'elle.

On se positionne aussi beaucoup grâce au BL, et s'ils sont tous naturels, ils n'auront pas tous la même forme. On retrouvera alors cette mixité dans le choix des termes.

ça, c'est de l'utopie ;)

Les termes dans la page, c'était encore bon il y a quelques années. L'ordre des mots est devenu important surtout dans le e-ecommerce où souvent des dizaines et des dizaines se battent sur le même intitulé de produit. Et je ne parle pas des anagrammes, fautes d'orthographes et synonymes, très largement sous exploités en référencement à cause de la peur de la sanction ou de la pénalité.
Et puis, les liens naturels, c'est bien, mais si on ne devait compté que la dessus, il y a bien longtemps que je pointerais au chomage ;)

Non, le site que je donnais en exemple (mais qui a été édité, bon, un énorme site de vente d'appareil photo et video), a une stratégie efficace, pas si irrespectueuse que ça finalement vis à vis des moteurs de recherche. Le seul truc qui permet aujourd'hui de faire la différence sur le principe de longue traine, c'est la balise <title> et vu qu'on a le droit qu'à un title par page pour la décrire, il faut bien autant de page que d'appellation possible pour un article si on veut être compétitif.

Et je le répète, ce n'est pas totalement mauvais ou irrespectueux que de faire ça. C'est juste essayer de s'adapter à la manière d'appeler un article qui est forcément différente d'un internaute à l'autre. Sinon, nous aurions tous une manière unique de chercher...

Je comprends très bien ce que tu veux dire, mais ce n'est pas parce que l'idée est concevable que l'on doit employer des méthodes qui ne le sont pas (pour les raisons évoquées plus haut).

Moi visiteur ça me fait chi*r d'avoir 50 000 liens issus de sites commerciaux quand je cherche des informations (un vrai test qui en parle) sur un PLASMA.
 
WRInaute accro
tophus a dit:
Dans ce cas rien de t'empeche de créer plusieurs pages pour vendre le même article avec une description différente, title différent, h1 optimisé pour différente recherche...
Mais pas de liens internes pointant vers une recherche avec title et h1 optimisé.

Il y aurait aussi la méthode de créer une dizaine de sites qui intégreraient le catalogue du commerçant via un fichier XML, sites bien sûr avec des WHOIS différents et déguisés sous forme de site d'affiliation. Bien sûr, chaque site aurait une manière différente d'écrire la balise TITLE et n'afficherait pas les mêmes infos de manière à éviter le duplicate content. On peut même imaginer un retardateur pour que les articles publiés sur les sites "satellites d'affiliation" n'est pas le même contenu au moment t que le site marchand principal pour éviter tout soupçon.

Mais la méthode serait certes moins visibles, car beaucoup moins facile à détecter, mais beaucoup plus irrespectueuse :twisted:
 
WRInaute discret
Biensûr que ces méthodes sont tentantes, quand on se fait ch..., à bosser sont contenus et que les résultats ne sont pas tjrs là.
Mais je reste convaincu qu'à long terme ça paye, et je suis également sûr qu'en utilisant des méthodes "propres" on peut y arriver!! Et pour moi ....le site en exemple du 1er post n'est pas clean sur ce coup.
 
WRInaute accro
dorian53 a dit:
Moi visiteur ça me fait chi*r d'avoir 50 000 liens issus de sites commerciaux quand je cherche des informations (un vrai test qui en parle) sur un PLASMA.

Les sites commerciaux n'ont pas le choix que de se trouver parmi les 3 premiers résultats de Google sur les requêtes qui les interressent sinon, ils ne vendraient rien, ou a des frais de visibilité bien trop importants pour être rentables.

Nous jouons tous avec les mêmes règles du jeu, et les sites marchands ont peut-être plus les moyens que les sites d'infos de jouer à ce jeu là. C'est pas moi qui ait inventé ces règles là, je défend juste mon steak.

Et plus on se bat sur ces 3 places là, plus les techniques seront borderline.

Et dans le cas précis du sujet de ce topic, le manque de documentation de la part de Google sur le sujet est quand même une porte ouverte.

Ce que je veux dire, c'est que soit :
- sur une appellation différente pour un produit, je ne mets rien en place, et ce sera un concurrent (site commercial) qui sera à ma place de toute façon, suivi de quelques autres sites commerciaux. Ca ne change donc rien à ton problème que l'aspect commercial pollue le web.
- soit je réagis, je suis présent. Ca ne règle toujours pas ton problème, mais au moins je me laisse la chance de participer à la vente avec mes concurrents, visibles sur cette requête.

Et puis, je ne pense pas qu'il faille forcément jeter la pierre aux sites commerciaux. On est en 2008, et ça ne va pas en s'arrangeant. Sur les sites d'infos, y'en a pas mal dont on peut douter de la qualité de l'info justement. Ce sont des billets ou articles rédiger à la va vite dans l'unique but de référencer des pages pour y afficher de la pub. Idem pour les sites de petites annonces, blog, forum, dicos, ...
 
WRInaute accro
blman a dit:
...
Et puis, je ne pense pas qu'il faille forcément jeter la pierre aux sites commerciaux. On est en 2008, et ça ne va pas en s'arrangeant. Sur les sites d'infos, y'en a pas mal dont on peut douter de la qualité de l'info justement. Ce sont des billets ou articles rédiger à la va vite dans l'unique but de référencer des pages pour y afficher de la pub. Idem pour les sites de petites annonces, blog, forum, dicos, ...

d'ailleurs je viens de lire les news sur le grand site, de la première télé française (je ne balance pas) et il y a presqu'autant de liens en bas de page vers les programme télé que dans ton exemple...
 
WRInaute accro
tophus a dit:
Biensûr que ces méthodes sont tentantes, quand on se fait ch..., à bosser sont contenus et que les résultats ne sont pas tjrs là.
Mais je reste convaincu qu'à long terme ça paye, et je suis également sûr qu'en utilisant des méthodes "propres" on peut y arriver!!

Oulala, ne me fait pas dire ce que je n'ais pas dit. Bien sûr qu'on peut y arriver avec des méthodes propres ;) D'ailleurs, je te remercie de le rappeler, c'est important que ceux qui lisent les quelques méthodes que j'ais écrites au dessus le sache (d'ailleurs, je ne les mettrais pas en place). C'est bien plus risqué de tricher que de référencer proprement.

Nan, juste que je ne trouvais pas les méthodes de ce vendeur, si "sales" que ça finalement comparées à ce que j'ais déjà pu voir ailleurs. Et d'ailleurs, je ne suis toujours pas convaincu que ce soit du SPAM...
 
WRInaute impliqué
Je pense que ça n’est pas une stratégie intéressante.
En procèdent de cette façon c’est vrai que tu ratisse plus large par contre plus tu génère de pages plus chacune de tes pages perd en popularité …
Je pense qu’il vaut mieux une page avec une bonne popularité plutôt que des dizaines avec un faible popularité et un contenu quasi identique.
 
WRInaute accro
Szarah a dit:
Les pages existent et sont accessibles individuellement : ce n'est pas du spam.
Mais il devrait y avoir matière à nettoyer l'index au nom du duplicate content, tout de même :)
Là, je ne suis pas d'accord avec toi Szarah car tu fais référence à des pages satellites qui renverraient vers la vraie page.
Concrètement, on se retrouve avec quoi ? 20 pages avec un contenu quasi identique. Ca s'appelle du duplicate content et google essaie de sandboxer de plus en plus ce type de pages.
Je ne pense pas que cela aille jusqu'au blacklistage ou alors personne n'est venu s'en vanter :wink:
 
WRInaute discret
up! :D

Tiens, et le même genre bourrage de mots clés mais sans liens, juste du texte. Ce genre-là:

PS.E26C3.F04 | Intel Pentium double coeur E2180 | ACER E261 | ACER PS.E26C3.F04 | acer e2180 | Intel Pentium Dual Core E2180 | PS.E26C3.F04 | extensa e2180 | extensa e261 | acer extensa e2180 | acer intel pentium dual core | Core E2180 | acer intel dual core E2180 | pentium dual core E2180 | acer dual core e2180 | extensa e261 E2180 | PENTIUM DUAL CORE E2180 avis | Pentium double coeur E2180 | E2180 | acer intel pentium dual core e2180

Je vois ça sur de plus en plus de gros sites e-commerce, j'ai du mal à croire que les webmasters jouent à la roulette russe avec leur réf.
Alors, Spam ou pas dans ce cas-ci?
 
Discussions similaires
Haut