Qui contacter chez google en cas de blacklistage présumé ?

WRInaute passionné
Je vient de constater avec effroi qu'un annuaire que j'administre viens de perdre l'intégralité de ses fiches indexées sur google. Hors il n'y a aucune technique obscure ou malhonnete en vue de tromper les bots ou les visiteurs sur les pages.
Je n'explique pas cette disparition des pages qui étaient pourtant bien indexées.
Je ne constate la chute que depuis quelques heures mais au risque que ça dure, j'aimerai savoir si vous avez constaté des faits similaires sur vos annuaires
 
WRInaute accro
Salut Oli,
A première vue aucun soucis niveau indexation par chez moi. Pour ce qui est de contacter Google, en dehors d'une demande de réexamen en expliquant ton cas via GWT, je ne vois pas. Envois toujours l'adresse ici, on trouvera peut-être quelque chose qui t'a échappé ;)
 
WRInaute passionné
Je viens d'envoyer une requete sur le GWT

Il s'agit de l'annuaire 1001 Commerces.

je ne comprends pas, GWT m'indique toujours le bon nb de page indexées, même la petite dizaine étant en dupplicate, simplement, les fiches de site ont disparues de l'index google. Seules restent l'accueil et quelques pages de catégories.
 
WRInaute accro
A oui c'est curieux cela, c'est le première fois que je vois que Google supprime de manière aussi précise une partie seulement d'un annuaire.
 
WRInaute passionné
c'est vrai que la commande https://www.google.fr/search?q=site:http://1001-commerces.amicarte.fr/ indique 5620 résultats mais n'en renvoie que... 23! donc il se passe clairement quelque chose.

as-tu soumis un sitemap dernièrement?

il faut aussi avouer que tes fiches sont bourrées de contenu dupliqué, et que de surcroît la part de contenu est très faible par rapport à la part des pubs... j'ai l'impression que Google fait un gros ménage ces temps-ci sur ce genre de pages "vides" et en fait désormais une priorité.

ce ne sont que des hypothèses bien sûr.
 
WRInaute passionné
Je suis revenu à une configuration des fiches ultra simple, en ne conservant que les maps pour les sites à geolocalisation, mais bon, du coup les fiches sont bien moins richent qu'avant.
Je n'ai plus qu'à attendre la reconsidération via la demmande effectuée sur le GWT, mais bon : "Please allow several weeks for the reconsideration request. We do review all requests, but unfortunately we can't reply individually to each request."

Franchement, ça me tue. Des heures et des heures passées à oeuvrer pour la qualité et la péreinité de l'oeuvre et zou, en un rien de temps, des miliers de visiteurs qui s'envollent, un référencement foutu et bien entendu une forte perte sèche en revenu également.
 
WRInaute passionné
as-tu soumis un sitemap dernièrement?
Le sitemap est fonctionnel et sans erreurs dixit le GWT

il faut aussi avouer que tes fiches sont bourrées de contenu dupliqué, et que de surcroît la part de contenu est très faible par rapport à la part des pubs... j'ai l'impression que Google fait un gros ménage ces temps-ci sur ce genre de pages "vides" et en fait désormais une priorité.
Justement MAINTENANT c'est vide, parce que j'ai viré il y a quelques heures tout le contenu complémentaire qui était pour chaque site inscrit, un apperçu des titres de quelques autres pages des sites avec un bref résumé !
de se fait, pa de du^licate avec des fiches classiques d'autres annuaires
 
WRInaute impliqué
Tu as fait des modifications sur combien de pages en tout ?

N'est ce pas à cause de ces modifications trop profondes des pages et SURTOUT en masse que GG n'apprécie pas ? (Comme lorsque l'on injecte un nouveau site avec trop de pages d'un coup)

Ton taux de modification dans GWt doit être trop important, ce qui ne doit pas plaire à GG.
 
WRInaute passionné
Bonjour Oli004,
Je pense que tu devrais patienter quelques jours avant de réagir,je sais que le temps va te paraitre long mais il se peut que les choses reviennent dans l'ordre naturellement.

D'autre part, je suis assez d'accord avec Guitel, trop de changements brutaux peuvent amener GG à reconsidérer le positionnement de ton site.

Patiente, recharge ton site comme il était avant, corrige tes problèmes de DC petit à petit, et regarde ce que cela donne.
 
WRInaute passionné
OK mais de quand date l'ajout du sitemap? récent ou pas?
Non, le site map est en place depuis de nombreux mois, et l'intégration de nouvelles pages est instantanément mentionnée dans le sitemap
de se fait, pa de duplicate avec des fiches classiques d'autres annuaires
euh tu es sûr?
Absolument.
On ne peut pas dire qu'une page est dupplicate juste parce q'une partie de la page est présente dans de nombreux autres sites.
en l'occurence, la description représentait environ 15 % du contenu texte des pages.

Ceci étant, il y avait tout de même quelques pages en dupplicate interne sur le site du à l'intégration de quelques sites dans deux catégories (8 sites seulement et identifiées dans le GWT)

Tu as fait des modifications sur combien de pages en tout ?

N'est ce pas à cause de ces modifications trop profondes des pages et SURTOUT en masse que GG n'apprécie pas ? (Comme lorsque l'on injecte un nouveau site avec trop de pages d'un coup)

Ton taux de modification dans GWt doit être trop important, ce qui ne doit pas plaire à GG.
Pas de grosses modifications et le site existe depuis 2005. il a connu une croissance lente et progressive, du à un référencement manuel propre. Il y a de cela un peu plus de 6 mois, l'annuaire à connu une augmentation de fréquentation importante et constante pour fonctionner en moyenne à 1500 visiteurs/j environ.

Certe le contenu à augmenté assez vite mais pas brutalement. et e n'ai fait aucune grosse modifs depuis pas mal de mois. J'allais intégrer un critère qualitatif mais ce n'était pas encore fonctionnel.
 
WRInaute passionné
saypee a dit:
Effectivement, c'est intriguant.
As tu fais des échanges de liens récemment ?
Absolument aucun !
Je ne suggère d'ailleurs même pas de lien de retour lors des inscriptions.

Apperçu de fiche avant et après modifs de ce matin, au cas ou le contenu "serait" impliqué dan sle blacklistage
 
WRInaute passionné
Dans le doute,remet comme c'était.
C'est vrai que la nouvelle version dispose de moins de contenu, donc tes pages se ressemblent plus mais c'est un peu rapide comme réaction de la part de GG...
 
WRInaute passionné
Effectivement, je précipite peut-être un peu ma réaction, mais il y a de quoi je pense. :?
Bref, je suis en train de remettre comme c'était et j'attends quelques jours voir l'évolution.
Au besoin, la nouvelle présentation est toujours faisable rapidement.

c'est vrai que la commande https://www.google.fr/search?q=site:http://1001-commerces.amicarte.fr/ indique 5620 résultats mais n'en renvoie que... 23! donc il se passe clairement quelque chose.
Et je n'ai encore jamais constaté pareil phénomène sur les sites que j'administre ni en cas similaire sur wri ou ailleurs :roll:
 
WRInaute accro
Tu n'est pas blacklisté, c'est juste que ton domaine est très fortement filtré. Blacklisté tu n'aurais plus une seule page dans l'index
oli004 a dit:
Franchement, ça me tue. Des heures et des heures passées à oeuvrer pour la qualité et la pérennité de l'oeuvre
qualité avec cette page -http://1001-commerces.amicarte.fr/site-282.html :roll: avec du contenu (récupéré des flux rss ?) que l'on retrouve 8 fois pour l'un et 2 fois pour l'autre.
Et le seul "contenu" est
Inscrit depuis le 2006-07-02
dans la catégorie 5 E-commerce
Situé à st etienne (42000)
Après, il est fortement probable que gg utilise les infos de adsense : si fort taux de rebond du visiteur en provenance de gg, alors le site n'est pas à sa place dans les SERP. Si ça se reproduit trop souvent, c'est tout le site qui sortira de l'index.
C'est le 1° site que j'ai testé sur ton annuaire et quand on suit ce lien, on arrive sur un site qui indique "Site en cours de modification" :roll:
Fort CTR sur la 1° page vue par un internaute qui vient directement de gg, cela veut dire que gg peut optimiser l'"expérience" de l'internaute en lui évitant un clic de plus : autant remonter l'annonceur sur ses adwords que de devoir payer une comm à un adsenseur. C'est sûr que si tes visiteurs ne viennent que de gg :cry:

De toutes façons, les annuaires orientés professionnels IRL c'est du has been : je ne sais pas si tu as remarqué, mais depuis plusieurs semaines, on voit de plus en plus apparaitre les cartes local business dans les SERP gg. C'est un marché très juteux (surtout avec les téléphones portables) et la manne se partagera entre gg, y! (118218) et les pagesjaunes.
Et avec les microformat qui vont fleurir sur les sites dans les mois qui viennent, ça deviendra on ne peut plus facile pour gg.

En clair : annuaires localisés et comparateurs de prix, ça sent le sapin
 
WRInaute passionné
Tu n'est pas blacklisté, c'est juste que ton domaine est très fortement filtré. Blacklisté tu n'aurais plus une seule page dans l'index
J'en convient. Peut-être devrais-je parler effectivement de filre. Mais ce genre de filtre, je n'en ai pas encore vu.

oli004 a dit:
Franchement, ça me tue. Des heures et des heures passées à oeuvrer pour la qualité et la pérennité de l'oeuvre
qualité avec cette page -http://1001-commerces.amicarte.fr/site-282.html :roll: avec du contenu (récupéré des flux rss ?) que l'on retrouve 8 fois pour l'un et 2 fois pour l'autre.
Et le seul "contenu" est
Inscrit depuis le 2006-07-02
dans la catégorie 5 E-commerce
Situé à st etienne (42000)
Ne généralise pas s'il te plait sur le résultat d'une fiche parmi plus de 5000. :wink:
Tout d'abord, le contenu n'est pas intégré de flux, puisque les flux sont, lorsqu'ils sont déclarés, en plus du texte. voir par exemple cette page : -http://1001-commerces.amicarte.fr/site-5300.html
Pour ce qui est des répétitions, cela vient que les titres et descriptions des autres pages du site inscrit (l'exemple que tu donnes) sont identiques.
Après, il est fortement probable que gg utilise les infos de adsense : si fort taux de rebond du visiteur en provenance de gg, alors le site n'est pas à sa place dans les SERP. Si ça se reproduit trop souvent, c'est tout le site qui sortira de l'index.
Le ctr des fiches est vraiment tout à fait raisonable puisque en moyenne sur juin par exemple il est de l'ordre de 3.5% seulement.
De toutes façons, les annuaires orientés professionnels IRL c'est du has been : je ne sais pas si tu as remarqué, mais depuis plusieurs semaines, on voit de plus en plus apparaitre les cartes local business dans les SERP gg. C'est un marché très juteux (surtout avec les téléphones portables) et la manne se partagera entre gg, y! (118218) et les pagesjaunes.
Et avec les microformat qui vont fleurir sur les sites dans les mois qui viennent, ça deviendra on ne peut plus facile pour gg.
L'intégration des coordonnées des cartes local business via une intégration sous forme microformat est dans la to-do list.
1001 Commerces à suivi tant que possible l'évolution des technologies mises à la disposition des webmasters depuis sa mise en ligne en 2005. Avec l'exploitation des apis, la geolocalisation, etc. et cela continuera. Le critère qualitatif devrait faire son apparition fin juillet.
 
WRInaute accro
oli004 a dit:
L'intégration des coordonnées des cartes local business via une intégration sous forme microformat est dans la to-do list.
oui, mais ce qui intéresse l'internaute (et donc google), c'est de ne pas passer par un intermédiaire : si le professionnel a un site, l'internaute souhaite arriver sur le site au 1° clic en sortant des SERP et s'il n'a pas de site web, ses coordonnées sont (ou seront) accessibles directement depuis local business.
En tous cas, j'ai remarqué depuis 2-3 mois que mes visiteurs ne venaient plus des mêmes requêtes en provenance de gg, car dès qu'on recherchait "profession" + ville ou département, hop on avait 50% de chances d'avoir une map. Ce qui dit glissement des résultats dans les SERP, car la map est souvent mise en haut et donc moins de visiteurs en provenance de ces recherches là, par contre, comme j'apparais sur des recherches de "profession" + localités proches, je récupère avec la map des visiteurs de requêtes que je ne pouvais obtenir auparavant, jusqu'au moment où gg aura assez de ce type de professionnel sur les communes considérées et n'aura plus besoin d'afficher celles avoisinantes :cry:
Mais c'est largement clair que de faire web 2.0 en affichant les coordonnées du professionnel sur la carte facilite grandement la tâche à gg pour l'inclure dans son local business :mrgreen: Sinon pourquoi gg continuerait de laisser ses api des google map gratuites alors que viamichelin ne s'y est essayé qu'un très très court moment ? 8)
 
WRInaute passionné
Aaarrrgggh a dit:
pourquoi le contenu de la rubrique "Quelques pages que comporte ce site :" comporte 36 000 fois la même phrase ?

pas 36 000, n'exagère pas. :wink: la répétition peut être de 10 fois au maximum dans le pire des cas, et j'ai expliqué pourquoi dans un de mes posts précédents, je te remets la partie concernée :
Pour ce qui est des répétitions, cela vient que les titres et descriptions des autres pages du site inscrit (l'exemple que tu donnes) sont identiques.
Cette duppliquation de lignes n'existerait pas si les webmasters des sites inscrits différenciaient les titres et descriptions de leurs pages.
 
WRInaute occasionnel
peut-être que ça peut pénaliser. Tu devrais peut-être faire une vérification pour éviter de reproduire plusieurs fois le même contenu ?
 
WRInaute passionné
peut-être que ça peut pénaliser. Tu devrais peut-être faire une vérification pour éviter de reproduire plusieurs fois le même contenu ?
Effectivement, cela peut-être une cause de pénalité, mais plutôt locale. Je ne pense pas que cela agisse à la hauteur de la pénalité actuellement infligée, c'est à dire la suppression pure et simple de toutes les fiches des sites inscrits.
 
WRInaute passionné
Je suis sur une piste potentielle : Peut-être l'utilisation de l'api (acienne version) couplé à la mise en cache des pages qui ne plait pas.
 
WRInaute passionné
Bon, dans l'hypothèse de ma piste sur l'utilisation de l'ancienne version d'api et de la mise en cache de mes pages, j'ai modifié le code pour utiliser la nouvelle version de l'api search (ajax).
pour l'utilisateur, il est possible d'acceder directement à des pages internes du site inscrit.
Pour google, pas de mémorisation du contenu fourni par leur api, donc me semble-t-il, en règle avec les guidelines.
 
WRInaute accro
oli004 a dit:
Je suis revenu à une configuration des fiches ultra simple, en ne conservant que les maps pour les sites à geolocalisation, mais bon, du coup les fiches sont bien moins richent qu'avant.

= suicide ! 8O

Déjà qu'à la base le schéma "annuaire" est décrié... si en plus tu ôtes la dimension "contenu" qui leur sauve la mise...
Très franchement, je te conseille de rechercher des méthodes te permettant justement d'avoir des fiches plus riches !

++
 
WRInaute passionné
HawkEye a dit:
oli004 a dit:
Je suis revenu à une configuration des fiches ultra simple, en ne conservant que les maps pour les sites à geolocalisation, mais bon, du coup les fiches sont bien moins richent qu'avant.

= suicide ! 8O

Déjà qu'à la base le schéma "annuaire" est décrié... si en plus tu ôtes la dimension "contenu" qui leur sauve la mise...
Très franchement, je te conseille de rechercher des méthodes te permettant justement d'avoir des fiches plus riches !

++
Je suis tout à fait conscient que de laisser un contenu pauvre est synonyme de suicide, c'est pourquoi mon choix de revenir à une page simple n'est que temporaire.
mais il faut bien qu'il y ai une raison pour que les fiches soient supprimées de l'index. Et après analyse personnelle (je n'ai pas reçu d'avis extérieurs) je ne vois comme cause que l'utilisation de l'api, qui permettait en partie à générer du contenu.
Maintenant ce contenu est discutable et la remarque en a été faite ici.

Pour qu'un contenu puisse être de qualité, il ne peut passer selon moi que par une équipe éditoriale qui ferait un résumé d'audit du site inscrit, litéral et d'une longueur non négligeable.
Je vais faire quelques essais demain dans la journée.
 
WRInaute accro
oli004 a dit:
mais il faut bien qu'il y ai une raison pour que les fiches soient supprimées de l'index. Et après analyse personnelle (je n'ai pas reçu d'avis extérieurs) je ne vois comme cause que l'utilisation de l'api, qui permettait en partie à générer du contenu.

Très franchement, dans le contexte actuel (depuis 1 an), le simple fait qu'on parle d'un annuaire couvre tous les risques... (je ne dis pas que c'est justifié... mais Google est les annuaires, c'est "je t'aime - moi non plus" ;) ).
 
WRInaute passionné
Leonick a dit:
visiblement, ça s'est étendu à tout le domaine, et pas juste au sous domaine 1001-commerces
https://www.google.fr/search?q=site:amicarte.fr&hl=fr&client=firefox-a& ... rt=90&sa=N
32 pages seulement sur 6290 pour l'intégralité du domaine 8O
Pas du tout !
L'annuaire est sur un sous domaine, totalement indépendant du domaine principal, qui lui n'a rien à voir avec l'annuaire. même si il ne comporte que quelques pages, celles-ci sont toujours très bien référencées.

en clair, c'est l'interpretation de ta requête qui n'est pas bonne. car site:domaine.tld ne correspond pas à l'annuaire, il faudrait que tu fasses site:sousdomaine.domaine.fr

à la rigueur, c'est peut etre le sous domaine qui est entierement filtré ou black listé, mais si c'est le cas, je ne vois aucune raison à cela !
 
WRInaute passionné
Tu ne m'as pas compris. Ce que je veux te dire, c'est que seul mon sous domaine est touché (disparition de pages). Mon domaine pricipal, lui est toujours bien référencé.
 
WRInaute accro
oli004 a dit:
Tu ne m'as pas compris. Ce que je veux te dire, c'est que seul mon sous domaine est touché (disparition de pages). Mon domaine pricipal, lui est toujours bien référencé.
ce qui est bizarre, c'est qu'en utilisant la commande site sur la racine du domaine, on obtienne moins de page qu'en faisant la somme de la même commande sur chacun des sous domaines. Mais bon, aujourd'hui on arrive à 34 pour tous les sous-domaines
 
WRInaute passionné
Leonick a dit:
oli004 a dit:
Tu ne m'as pas compris. Ce que je veux te dire, c'est que seul mon sous domaine est touché (disparition de pages). Mon domaine pricipal, lui est toujours bien référencé.
ce qui est bizarre, c'est qu'en utilisant la commande site sur la racine du domaine, on obtienne moins de page qu'en faisant la somme de la même commande sur chacun des sous domaines. Mais bon, aujourd'hui on arrive à 34 pour tous les sous-domaines
Il ne faut pas non plus se fier au chiffre exact retourné par la commande site: car il y a parfois (souvent) une différence entre ce qui est affiché et ce qui est réellement indexé. pourquoi, je ne sais as, mais je l'ai constaté plusieurs fois sur des sites à gros volume.

Ceci étant :
Mes pages sont à nouveau indexées :D

Seulement, maintenant je ne sais pas si les pages sont à nouveau indexées parce que j'ai effectué des modifications, ou si c'etait du à une erreur, test ou je ne sais quoi d'autre. :roll:
Dans le doute je laisse tel qu'à l'origine en enlevant les liens footer qui servaient de fil d'ariane.
 
Discussions similaires
Haut