Racontez vos pires boulettes SEO

WRInaute discret
Bonsoir,

Quelles ont été vos pires boulettes SEO ?
Comment en êtes-vous rendu compte ?
Combien de temps après ?
Avez-vous réussi à remonter la pente ?
 
WRInaute accro
MegaLooser a dit:
Bonsoir.

MegaLooser a dit:
Quelles ont été vos pires boulettes SEO ?
Spamdexing bête et méchant: 1.000.000 de pages de bot food avec un linking bien juteux.

MegaLooser a dit:
Comment en êtes-vous rendu compte ?
Quand la commande /search?q=site:example.com a renvoyé no results.

MegaLooser a dit:
Combien de temps après ?
Précisément le temps qui s'est écoulé entre le black listing et la consultation quotidienne des stats...

MegaLooser a dit:
Avez-vous réussi à remonter la pente ?
Non.
 
WRInaute passionné
Un truc tout con.
J'avais une version en dev et une version en prod d'un site internet.
Malheureusement, la version en dev s'est fait indexer (faut faire gaffe!), et je m'en suis aperçu lors d'une recherche sous google.
J'ai rajouté un robots.txt avec interdiction d'indexer le site sur la dev.

Lorsque j'ai inversé le site en dev et le site en prod (pour devenir site en prod et site archivé, respectivement), j'ai oublié de désactiver le robots.txt

Résultat : 1 semaine d'indexation perdue (pour les nouvelles pages). Et moi qui me disait que Google était une grosse limace qui tirait un 33 tonnes sur un tapis de clous.
 
WRInaute discret
HawkEye a dit:
Spamdexing bête et méchant: 1.000.000 de pages de bot food avec un linking bien juteux.
Je pense que pour un loser comme moi, faire un lien vers "spamdexing", "bot food" ne serait pas de trop. Je vais m'aider de mon ami gogole. Mais à priori c'est la perte d'un mi-yon de pages... ça fait mal !

MegaLooser a dit:
Avez-vous réussi à remonter la pente ?
Non.

J'adore la chute.
 
WRInaute accro
MegaLooser a dit:
Mais à priori c'est la perte d'un mi-yon de pages... ça fait mal !

Pas vraiment: c'est la génération semi-automatique de plus d'un million de pages totalement dénuées d'intérêt, mais chacune optimisée sur un terme précis, le tout linké comme il se doit pour assurer une indexation aussi rapide qu'un bon positionnement.

A partir d'un moment, on se fait choper... et on disparaît :mrgreen:
 
WRInaute discret
Perso niveau ref nat, j'ai pas une grande expérience et en ce moment je fais surtout de l'intégration web. Je me suis pas vraiment mouillé pour subir de grosse désillusion même si je ne désespère pas en rencontrer...

- me suis fait piéger à l'installe de wordpress une fois en cochant l'option qui te permets de pas être indexé par les moteurs (génération d'un robots.txt que tu peux pas désactiver par la suite). Donc faut en rajouter un physiquement.
 
WRInaute discret
HawkEye a dit:
MegaLooser a dit:
Mais à priori c'est la perte d'un mi-yon de pages... ça fait mal !

Pas vraiment: c'est la génération semi-automatique de plus d'un million de pages totalement dénuées d'intérêt, mais chacune optimisée sur un terme précis, le tout linké comme il se doit pour assurer une indexation aussi rapide qu'un bon positionnement.

A partir d'un moment, on se fait choper... et on disparaît :mrgreen:

OK merci pour avoir été plus rapide est très synthétique sur ces termes techniques. Au boulot on reçoit pas mal de super boîtes qui veulent nous aider en créant ce genre de pages à la pelle sur un sous domaine. Ca va dans les spam pour ma part.
 
WRInaute discret
Ah si j'ai oublié ! Pour mon nom de domaine, j'ai choisi megalooser au lieu de megaloser.
Mais bon, en fait je crois qu'au final ca va plus me servir. Je me suis trouvé con quand même quand j'ai réalisé mon erreur.
 
WRInaute passionné
Quelles ont été vos pires boulettes SEO ?
Créer un moteur de recherche sur une thématique foireuse ou j'indexe les pages de recherche avec du contenu extrait de plusieurs sites, Wikipedia et Youtube... Je mélange tout pour générer du contenu unique et foireux...Après deux semaines du lancement, 1500 VU/jour. Et très rapidement...50/jour. J'ai ensuite refais des tests sur plusieurs sites en faisant différentes manipulation & au final le contenu de "qualité" semble payer :mrgreen:

Comment en êtes-vous rendu compte ?
Quand la requête site:monsite.com ne sort plus aucune page + des stats à la baisses.

Combien de temps après ?
2 semaines

Avez-vous réussi à remonter la pente ?
Le site n'est toujours pas reindexé alors qu'il existe encore.
 
WRInaute passionné
HawkEye a dit:
MegaLooser a dit:
Bonsoir.

MegaLooser a dit:
Quelles ont été vos pires boulettes SEO ?
Spamdexing bête et méchant: 1.000.000 de pages de bot food avec un linking bien juteux.

MegaLooser a dit:
Comment en êtes-vous rendu compte ?
Quand la commande /search?q=site:example.com a renvoyé no results.

MegaLooser a dit:
Combien de temps après ?
Précisément le temps qui s'est écoulé entre le black listing et la consultation quotidienne des stats...

MegaLooser a dit:
Avez-vous réussi à remonter la pente ?
Non.


j'ai déja vu, voir véccu je ne sait plus ou,
ce genre de connerie quelque part au dixiéme du contennu ...
un pti trou de mémoire tiens , mais ça va me revenir !

Mais ma plus belle dans le seo, c'est d'être placardé sur google en 1er avec mes articles de l'un de mes blog duquel il y a un disalow dans le robots txt ! ça fait 6 mois que je suis pertinent comme ça !
c'est en chippotant cette semaine dans le GGwebmaster que je me suis rendus compte que mon robots txt etait disalow !
 
WRInaute accro
je faisais plusieurs sites en même temps et sur tous, j'avais mis un disallow dans mon fichier robots de façon à travailler tranquille sauf que pour l'un d'entre eux, lorsque je les ai lancé.... bah.... le disallow était resté en place :(

Au bout de 2 semaines, ne voyant pas d'indexation dans google, je me suis aperçu de l'erreur :evil:
 
WRInaute discret
Y a pas mal d'histoires à propos des robots.txt on dirait.
Vive GWT mais y a t'il d'autres outils "non google" pour faire un check du robots.txt ?
 
WRInaute passionné
j'avais fait un annuaire et j'ai indexé les mots clé des recherches. mais un jour a cause d'un bug de l'url rewriting, ben les pages ont tourné en boucle sur le meme mot clé, ca a vite été desindéxé / blacklisté. C'est revenue il y a quelque mois, mais ca faisait des années cette histoire (encore heureux que c'etait qu'un sous domaine de desindéxé)

Ensuite, j'ai voulu referencer des milliers de sonnerie sur un site avec bon pr et bonne reputation, ben là aussi me suis fait blacklisté, j'ai eu chaud, car c'etait dans dossier du genre site.com/sonnerie , ils m'on juste desindéxé le dossier (comme quoi, ca prouve que c'est fait manuellement).
 
WRInaute accro
ce n est pas une boulette, mais le pire que j'ai connu, c'est une base de données en grosse souffrance, et comme les recherches ne sont pas en cache (et que les pages "suivant" appellent le moteur) Google a divisé par 4 le nombre de pages qu'il parcourt par jour, n'étant plus réactif, grosse chute dans Google search / news, et 20% de baisse sur le mois...
 
WRInaute accro
MegaLooser a dit:
Perso niveau ref nat, j'ai pas une grande expérience et en ce moment je fais surtout de l'intégration web. Je me suis pas vraiment mouillé pour subir de grosse désillusion même si je ne désespère pas en rencontrer...

- me suis fait piéger à l'installe de wordpress une fois en cochant l'option qui te permets de pas être indexé par les moteurs (génération d'un robots.txt que tu peux pas désactiver par la suite). Donc faut en rajouter un physiquement.


Me suis fait baiser une fois (basculement du nouveau site en prod', pas fait gaffe et... site disparu de Google :cry: )

Fort heureusement j'ai pu rectifier le tir "rapidement" (3 semaines quand même, alors qu'une journée aura suffi pour éradiquer les pages de l'index !)
 
WRInaute discret
pareil, pour le robot.txt, tout en disallow (j'ai gueulé un bout de temps après google, plus de 15 jours pour m'en apercevoir). Moindre dégât, c’était un site à moi et pas pour le taff.

ha oui une fois dans un title, j'ai mis "paris dans le 72", c'est le client qui me l'a fait remarqué.... :oops:
 
WRInaute passionné
Apparemment, c'est une constante ce fichier là.
Pourquoi selon vous ?
Parce qu'il est statique ? Parce qu'il semble inoffensif ? Parce qu'il n'apparait pas parmis les fichiers d'administration de nos CMS ? Parce que finalement, on l'édite que très très rarement et on l'oublie dans son coin ?
 
WRInaute discret
c'est clair qu'on a tendance à l'oublier, on ne l'a pas toujours en local donc quand on bascule en ligne ca merde
 
WRInaute discret
D'où l'idée de faire un monitoring de ce qui est autorisé et disallow par ce fichier.
Y-t'il a une application qui le fait ?
 
WRInaute accro
MegaLooser a dit:
D'où l'idée de faire un monitoring de ce qui est autorisé et disallow par ce fichier.
Y-t'il a une application qui le fait ?
à la limite, tu fais un crawl avec httrack, il t'indiquera ce qui est bloqué avec robots.txt
 
WRInaute passionné
peut tu expliquer la boulette que t'as fait pour etre blacklisté? ca pourrait aider a pas refaire la meme erreur.
 
WRInaute accro
On ne disparaît pas de Google sans une méga-boulette, ou sans le vouloir.
C'est un black listing, ou "simplement" une chute colossale du trafic organique ?
C'est arrivé quand ?

Tu peux nous indiquer l'url du site ?

Merci.
 
WRInaute discret
au fête j'ai commencé le référencement de ce site un peut près 1mois, ce dernier progresse normalement puis tout a coup, il y a rien.
avant la chute il était dans la 27eme page pour le mot clé "location voiture marrakech", alors que maintenant il n'apparait même pas dans les résultats google.fr
sachez qu'il est positionné sur la 11eme page sur yahoo.fr pour le même mot clé.
bon voici l'url du site http://www.bourhim-car.com
Merci d'avance
 
WRInaute discret
mais comment expliquer l'apparition d'une page profond /hebergement-marrakech.html dans les résultats de recherche pour le même mot clé, alors que la page d'accueil qui est sensé apparaitre en premier!!!
 
WRInaute passionné
c'est faux ce que tu dit, la page d'accueil n'est pas censé arrivé en premier, c'est la page la plus pertinente qui arrive en premiere.
 
WRInaute discret
forummp3 a dit:
c'est faux ce que tu dit, la page d'accueil n'est pas censé arrivé en premier, c'est la page la plus pertinente qui arrive en premiere.
Bon je parle de mon cas, je ne généralise pas :roll: :roll:
d'ailleurs la page d'accueil est mieux optimisé pour ce mot clé que les autres pages
la plus part de mes backlink aillant le même mot clé en ancre et mène vers l'index
 
WRInaute accro
212communication a dit:
forummp3 a dit:
c'est faux ce que tu dit, la page d'accueil n'est pas censé arrivé en premier, c'est la page la plus pertinente qui arrive en premiere.
Bon je parle de mon cas, je ne généralise pas :roll: :roll:
d'ailleurs la page d'accueil est mieux optimisé pour ce mot clé que les autres pages
la plus part de mes backlink aillant le même mot clé en ancre et mène vers l'index
trop optimisée peut-être. L'étape suivante risquant d'être la disparition de la page d'accueil des serp
 
WRInaute impliqué
Le même site indexé avec 5 tld différents, soit 5 fois les mêmes pages sur Google, bonjour le DC... (faute partagée avec mon administrateur réseau).
Aperçu 2 semaines plus tard, suit à un déclassement massif, retour à peu près à la normale 3 mois plus tard.
Bon, j'avais du expliquer tout ça à mon boss... C'était pas la fête.

Abus d'ancre identique sur une requête ultra concurrentielle : la fête pendant 6 mois puis plus rien depuis :mrgreen:
 
WRInaute passionné
Bon, je sais pas si c'est une bonne chose pour moi mais tant pis, je serais élu "Boulet WRI de l'année"

En lisant le post, j'y est répondu
raljx a dit:
ou d'un htaccess qu'on peut pas louper ^^

Puis je suis aller voir mon www (j'y vais pas souvent) et voila ti pas que je vois :
Code:
user-agent *
Disallow /

ok ok je :arrow: par la petite porte ... personne ? pas de photographes ?
 
WRInaute accro
Un truc à savoir pour celles et ceux bossant avec Wordpress : quand on passe un site en production, faut ABSOLUMENT checker (forcer pour ma part) le robots.txt, surtout si auparavant vous aviez placé le site avec l'option "ne pas autoriser les moteurs de recherche"

Car là ça pardonne pas :)
 
Haut