Référencement des pages des résultats d'un moteur de recherche interne

WRInaute discret
Bonjour,

Ce sujet a certainement déjà été traité, mais il est difficile de tomber sur des résultats adéquats en tappant des mots clés comme "référencement moteur de recherche"... Merci de votre compréhension.

Je dispose d'un moteur de recherche multi-critères (seulement des choix fermés du genre catégorie, type, taille, couleur) qui permettent de faire un choix parmis 150 articles environ.
La combinaison des choix possibles donne environ 525 listes d'articles différents, avec en moyenne 30 résultats par liste, qui sont eux-même divisés en page de 10 articles soit au total plus de 1500 pages différentes pour seulement 525 listes au total, ce qui me semble énorme.

Je vous passe les fonctionnalités de tri et de changement de nombre de résultat par page qui auraient fait passer ce nombre de 1500 à plusieurs dizaines de milliers de page différentes. Le tri et le changement du nombre de résultat par page utilisent des liens nofollow.

Que faites-vous dans ce genre de cas ?

Merci d'avance pour vos conseils
Cordialement,
 
WRInaute discret
Merci pour ta réponse rapide.

Le soucis, c'est que c'est le principal accès à mes fiches articles.
A part une page qui contient tous les articles (donc 150 liens internes sur cette page...), tout est basé sur le moteur de recherche...
 
WRInaute impliqué
Je ne vois pas le probleme du tout. Peux tu re expliquer ce qui te derange dans le fait d'avoir 1500 pages de resultats de recherche indexées par google?

@HawkEye: tiens, une nouveauté? Sortie d'où?
 
WRInaute accro
VisitezMonSite a dit:
@HawkEye: tiens, une nouveauté? Sortie d'où?

Une nouveauté ? 8O

benjiiim a dit:
Le soucis, c'est que c'est le principal accès à mes fiches articles.

C'est effectivement un souci: ça signifie que ton site n'a pas de structure ?
Si tu disposes de critères pour fournir des résultats de recherche, tu dois pouvoir les exploiter pour développer une architecture efficace...
 
WRInaute accro
VisitezMonSite a dit:
@HawkEye: tiens, une nouveauté? Sortie d'où?

Une nouveauté qui a déjà plusieurs années. Indexer ses résultats de recherche = idéal pour se faire considérer comme un spam indexer

Sinon si le seul accès est le moteur, c'est qu'il y a un soucis dans le site. Il faut au minimum un lien vers chaque page.
 
WRInaute impliqué
OK j'ai compris, encore un truc Made In WRI qui n'est confirmé par rien, c'est bien ça?
D'accord j'ai eu peur d'avoir raté un truc important :)

En plus son moteur a un nombre limité de pages car il n'est pas basé sur une requete texte mais sur des criteres multiples. Et les pages de tags il faut aussi absolument ne pas qu'elles puissent etre indexées sous peine de grave truc mysterieux?
Ca serait pas plutot a google de voir ce qu'il veut conserver ou non de ce qu'il indexe?
Tant que cela n'est pas mentionné dans les google's webmaster guidelines, est-ce qu'on doit absolument vous croire sur parole? Vous n'avez pourtant rien pour confirmer/supporter ce que vous avancez? Ou alors vous allez me sortir un exemple extreme qui n'a rien a voir avec le cas présent? C'est pourtant à cette personne et pour son cas précis que vous faites cette réponse..

Je veux bien discuter de ca, mais la c'est sorti d'un chapeau d'un ton définitif, alors qu'il n'y a RIEN derrière. En plus je demande à HawkEye et sa réponse c'est des gros yeux pour en gros dire que mon questionnement ne vaut même pas la peine d'être considéré. Mais yen a qui délirent sérieusement ici, faudrait réapprendre à communiquer, non?
En gros vous croyez en quelque chose, et voilà c'est fini. Désolé mais dans ce cas précis c'est faux, HawkEye tu fais comme si le webmaster devait faire quelque chose pour empecher que google indexe ses resultats de recherche, mais c'est indiqué nulle part et donc google ne l'exige pas, ne le recommande même pas dans ces webmaster guidelines. C'est a google de voir ce qu'il veut faire des resultats d'un moteur de recherche qu'il indexe suite a un lien, si il veut les presenter ou pas dans ses resultats.

Donc je trouve ca plutot stupide d'expressemment ajouter une regle au robots.txt ou autre moyen pour que google n'indexe pas les resultats de recherche, alors que rien n'y oblige.. Quel intéret franchement?
 
WRInaute impliqué
VisitezMonSite a dit:
OK j'ai compris, encore un truc Made In WRI qui n'est confirmé par rien, c'est bien ça?
Bah, j'ai déjà fait des spam report à GG au sujet de site qui index leur resultats de moteur interne ... et pouff... toutes les pages désindexées...

Serait ce à dire que Google se plie à ce que les wrinautes décident ?
Non, juste que quelques wrinautes savent ce que Google n'aime pas.
 
WRInaute accro
Hawkeye a raison a 200 % ... je pourrais de citer pas mal de sites ou sous domaines blacklistés pour cela ! A commencer il y a quelques années par "recherche.yagoort.org" ! (je crois que hawk en a aussi dans les cartons du meme tonneau). C'est clairement expliqué quelque part dans les CGU google.

Sinon benjii, une solution a ta problématique est de mettre sur ton site quelque part une sorte de site map qui n'en est pas tout en jouant un rôle similaire. regarde par exemple cette page :

http://www.qui-est-le-meilleur.com/histo.php

Et du coup les moteurs découvrent chaque jour les nouvelles pages ajoutées au site ... Bon dans le cas de ce site il y a en plus du linking interne entre le spages mais déjà avec ce dispositif toit est couvert.
 
WRInaute accro
Bonjour

Euh juste pour modérer les propos des uns et des autres.

Il s'agit ici non pas "vraiment" d'un moteur de recherche stricto sensus, mais d'un moteur dit "à facettes" (si j'ai bien compris !) sauf qu'il fonctionne par formulaire (si j'ai encore bien compris)

Du coup, les pages de résultat sont dans un ensemble fini (mathématiquement parlant) : je ne vois donc pas de problèmes à ce niveau.

S'il s'agissait de "générer" des pages et des pages à partir des mots-clés utilisés pour les recherches, là oui on est en plein dans le spamdexing.

La problématique pour moi n'est pas d'indexer les résultats de recherche, mais de faire en sorte qu'ils soient indexables "naturellement" (du formulaire on passerait à des choix de critères par clic sur des liens), par exemple en faisant en sorte que chaque type de résultat ait une URL unique d'une part, et ne donne pas un contenu similaire à d'autres critères d'autre part.


Je dis ça, je dis rien :roll:

Après, à mettre en oeuvre, c'est pas toujours simple (j'y ai travaillé pour ma future photothèque professionnelle : j'ai abandonné l'idée !)
 
WRInaute accro
Zecat, quand tu lui conseilles de "mettre une sorte de site map".. on est bien d'accords: tu parles d'une page (site plan) et non d'un sitemap (xml ou autre..)?
Juste pour préciser ..
 
WRInaute accro
JanoLapin a dit:
Zecat, quand tu lui conseilles de "mettre une sorte de site map".. on est bien d'accords: tu parles d'une page (site plan) et non d'un sitemap (xml ou autre..)?
Juste pour préciser ..
Oui regarde la page que j'ai mis en lien dans mon post juste au dessus ...
 
WRInaute impliqué
Zecat, il met direct son système de stat à la dispo de GG, c'est à étudier... :)


Bah, à la base, GG, ila de quoi trouver les pages, non ?
Sitemap xml, rss, plan du site, mise en une sur l'accueil, linking interne... pas la peine d'aller se prendre le chou à trouver d'autre combine au risque de ce taper des pénalité pour DC, page sat, spam, etc...
 
Olivier Duffez (admin)
Membre du personnel
Juste histoire de faire la synthèse :
- si les pages de résultats de "recherche" sont en nombre fini, alors pas de problème. En fait ce n'est pas à proprement parler des recherches, c'est simplement un croisement de tous les critères de la base de données.
- sinon, alors il y a sans doute un problème et il faut ajouter une balise meta robots noindex. C'est le cas de toutes les pages de résultats de recherche par mots-clés.
 
WRInaute discret
Bonjour à tous,

Merci beaucoup pour votre aide.

Je pense avoir saisi vos différents points.

Quelques précisions et bilan
- Ce sont bien des liens et pas un formulaire qui permet de sélectionner les critères. On est bien dans le cadre de liens et de combinaisons de liens fixes pour arriver sur le xxx pages.
- Je dois travailler sur la structure, car aujourd'hui, c'est ce moteur qui fait office à la fois de catalogue et de moteur. Je vais essayer de clarifier la partie purement catalogue (sur laquelle seulement 1 ou 2 critères sera utilisé) et la partie recherche multi-critères plus complète, que je pourrai éventuellement cacher aux moteurs pour éviter une multiplication inutile (car 1500 pages de 10 produits pour un total de 150 produits différents, j'ai forcément des doublons ou des pages très ressemblantes).
- Je dois rajouter un sitemap xml, chose que j'aurai dû faire depuis bien longtemps...

Merci encore
Bonne journée
 
WRInaute impliqué
Après avoir lu la source de Madrileño qui est le seul lien donné, je ne vois toujours pas de problème à ne pas spécifier un noindex dans les pages de resultat de recherche. Le pire qu'il semble pouvoir arriver c'est que Google n'envoit personne sur ces pages :)
Qui peut apporter une source comme quoi le fait de ne rien faire pour indiquer noindex dans les pages de resultats de son moteur de recherche a pénalisé un site?
Bien sûr si le site n'a pas d'autre contenu que son moteur de recherche, il ne compte pas.

@benjiiim: tu peux donc laisser en l'état et faire confiance a google pour decider de ce qu'il fait avec les pages qu'il indexe sur ton site.
 
WRInaute impliqué
Nan, on ne laisse pas GG faire ce qu'il veut.
Le jour ou il intègre dans son algo le fait que les sites qui spam avec des résultats de recherche sont à déclasser, bong, c'est pour ta mouille.

Décidément, on ne sera jamais d'accord :)


Faut pas croire, mais au rythme ou vont les choses, il faudra trouver des moyens pour mettre en évidence les vrai site de qualité fait pour les internaute et là... il y aura de la casse chez beaucoup.
 
WRInaute impliqué
On pourrait être d'accord si vous apportiez des sources pour montrer que c'est pénalisant de ne pas mettre noindex ou un disallow dans le robots.txt

Tout ce que je dis c'est que ce que vous dites n'est, pour l'instant, basé sur rien de concret. En tous les cas rien de concret qui vous soit revenu en dur :)
 
WRInaute accro
VisitezMonSite a dit:
On pourrait être d'accord si vous apportiez des sources pour montrer que c'est pénalisant de ne pas mettre noindex ou un disallow dans le robots.txt
tout simplement parce que tant que le site n'a pas un minimum de contenu on peut ne pas avoir envie que les internautes viennent sur le site et le meilleur moyen pour qu'ils viennent c'est qu'ils puissent trouver des liens dans gg. En plus, autant profiter de la prime de fraicheur avec du vrai contenu qui intéresse les internautes au lieu de "bientôt ici un nouveau super mega site !!!"
Tout comme on ne permet pas aux clients de venir dans un magasin en travaux. Mais bon, vu les sites présentés par certains nouveaux wrinautes avec 0 contenu (surtout dans les annuaires), on voit que beaucoup n'ont pas ces scrupules
Dolph a dit:
mettre en évidence les vrai site de qualité fait pour les internaute et là... il y aura de la casse chez beaucoup.
le problème, c'est pour déterminer les vrais sites de qualité : quand on voit ce que lisent et regardent une grande partie de la population (presse people et télé réalité), un site de qualité serait quoi ? un site d'article et de photos people ou bien un site du cnrs ? un site sur comment s'améliorer dans les études ou un site sur comment tricher aux examens ? un site sur comment scrapper du contenu pour faire son mfa ou sur comment faire du contenu de qualité ? :mrgreen:
 
WRInaute discret
VisitezMonSite a dit:
On pourrait être d'accord si vous apportiez des sources pour montrer que c'est pénalisant de ne pas mettre noindex ou un disallow dans le robots.txt

Utilisez le fichier robots.txt pour empêcher l'exploration des pages de résultats de recherche ou d'autres pages générées automatiquement par les moteurs de recherche et qui n'offrent aucun intérêt particulier pour les internautes.

Src : https://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=35769
 
WRInaute impliqué
steph@ne a dit:
à la fin de cet article http://www.journaldunet.com/solutio..._medium=ML5&utm_campaign=E10195846&f_u=982778 il est évoqué ce référencement des pages

L'utopie et la démagogie du retour au tout naturel en référencement commence à me gonfler sérieusement... Ne pas sur-optimiser oui, mais penser qu'en créant un site pour l'internaute en oubliant totalement les moteurs de recherche et leurs règles c'est la meilleure façon de se voir référencer est d'une idiotie sans nom. Si demain j'écris, pour faire plaisir à mes internautes : "pour votre villégiature sur l'ile de beauté" je ne serai jamais référencé sur "vacances en Corse". Il faut respecter l'internaute, ne pas faire de site MFA, travailler un contenu original et unique : OK ! Mais l'optimisation est pour l'instant toujours de rigueur et pour de longues années. Je suis hors sujet mais c'est l'une des préconisations du lien ci-dessus. Voilà c'est dit. :arrow: Ca fait du bien.
 
WRInaute impliqué
Chrisbe a dit:
Utilisez le fichier robots.txt pour empêcher l'exploration des pages de résultats de recherche ou d'autres pages générées automatiquement par les moteurs de recherche et qui n'offrent aucun intérêt particulier pour les internautes.

Src : https://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=35769

En effet, merci Chrisbe, cela est un conseil technique pour permettre à Google de trouver, indexer et de classer plus facilement son site, cela n'est en aucun cas une obligation et dans les consignes de qualité il n'est pas mentionné les pages des résultats de recherche et c'est bien normal, Google ne va pas exiger de faire cela alors que beaucoup de webmasters/bloggers sont dépendants d'un CMS qu'on ne peut raisonnablement pas leur demander de modifier pour ajouter la mention noindex quelque part dans le code.

Mais je note qu'il y a en effet une source de google qui conseille d'utiliser robots.txt pour bloquer l'indexation des pages des resultats de recherche. Cela afin d'aider google à faire le tri (ne pas avoir à le faire surtout) entre les pages indexées dans le site pour les classer.

@Leonick: tu t'es trompé de discussion, ici c'est pour l'indexation des pages de resultats de recherche et non pour bloquer ou pas les robots sur un site en développement.
 
WRInaute accro
VisitezMonSite a dit:
@Leonick: tu t'es trompé de discussion, ici c'est pour l'indexation des pages de resultats de recherche et non pour bloquer ou pas les robots sur un site en développement.
:oops: effectivement
 
Olivier Duffez (admin)
Membre du personnel
Chrisbe a pourtant cité les recommandations très claires de Google.

Le boss de la lutte contre le spam, celui qui appuie sur le gros bouton rouge quand il se fâche, a très clairement expliqué que cette pratique était interdite par Google. Lisez par exemple cet article vieux de 4 ans : http://www.mattcutts.com/blog/search-results-in-search-results/

En tant qu'admin de ce forum, je ne peux pas laisser quelqu'un conseiller aux autres de laisser faire indexer des pages de résultats de recherche (on parle bien ici de recherches par mots-clés).
 
WRInaute impliqué
Olivier le lien de Chrisbe c'est des conseils pour faciliter le job de Google, il n'est pas question de pénalité. Ton lien de Matt Cutts non plus, il dit simplement que Google se réserve le droit de réduire les pages de résultats de recherche sur leur propres pages de résultats:
"but it’s still good to clarify that Google does reserve the right to take action to reduce search results in our own search results."

C'est tout ce qui est dit, laisser faire indexer des pages de résultats de recherche (par mots-clés puisque c'est le hors sujet qui nous concerne) n'est en aucun cas une source de pénalité, il ne le dit nulle part. Il dit simplement que Google se réserve le droit de ne pas envoyer de visiteurs sur ces pages. Et encore ce n'est pas systématique! :)
Donc ne pas laisser faire indexer ses pages de résultats de recherche n'apporte aucun avantage, seulement faciliter le boulot de Google pour bien indexer le site, ce qui est je l'admet une raison comme une autre, mais il ne faut pas agiter l'épouvantail d'une pénalisation alors qu'on ne peut trouver de source nulle part, pour l'instant.

J'espère que cela ne va pas nous emmener vers les exemples extremes, les sites qui n'ont pratiquement pas de contenu mis à part ces résultats de recherche. L'exemple extreme c'est par exemple le site qui utilise google search api ou celle de bing pour afficher des milliers de pages de resultats (style sites de recherche de PDF).
La oui bien sur le gros bouton rouge sera pressé pour penaliser l'ensemble du site a un moment ou un autre. Mais dans les autres cas "normaux" des sites classiques, pour moi je n'ai rien vu qui dit que c'est penalisant de laisser faire Google sans rien lui indiquer sur ces pages.
 
WRInaute impliqué
Je ne suis pas d'accord avec toi Olivier, quoique.

Officiellement c'est interdit, là pas de soucis. Mais dans la pratique c'est largement utilisé par de très gros sites, dont certains sont des acteurs majeurs de leur domaine.

J'ai un exemple tout bête, je connais personnellement un propriétaire de site (ou plutôt d'un réseau de site) qui se "contente" d'agréger des informations de sa thématique. Ses sites (un par pays) ne fonctionnent qu'avec un moteur de recherche en page d'accueil. Les seuls liens en page d'accueil pointent vers des listes de pages de résultats (bourrées d'expressions clés) de recherche du moteur interne. Ces pages de listes sont en noindex et follow, les pages des résultats de recherche sont en index et follow.

L'ensemble de ses sites fait aujourd'hui plus de 400 000 visiteurs jours.

Je raconte là l'exemple d'une personne que je connais, en cherchant un peu, on trouve quantité de sites utilisant les mêmes pratiques...

Alors quand je lis que c'est interdit, franchement je rigole bien !
 
WRInaute impliqué
hyadex a dit:
Officiellement c'est interdit, là pas de soucis. Officieusement c'est largement utilisé par de très gros sites, dont certains sont des acteurs majeurs de leur domaine.
Officiellement ce n'est pas interdit, ou alors as-tu une source?

L'exemple de ton copain est un exemple d'un site extreme, qui est donc susceptible bien sur de se faire penaliser un jour ou l'autre, mais cela n'est pas parce qu'il n'a pas mis de noindex sur ces pages de resultats. C'est parce qu'il est fait specifiquement pour du spamdexing, c'est donc un exemple extreme qui ne nous concerne pas pour la plupart des cas.
 
WRInaute impliqué
VisitezMonSite a dit:
Officiellement ce n'est pas interdit, ou alors as-tu une source?
D'après les propos de Matt Cuts.
VisitezMonSite a dit:
L'exemple de ton copain est un exemple d'un site extreme, qui est donc susceptible bien sur de se faire penaliser un jour ou l'autre, mais cela n'est pas parce qu'il n'a pas mis de noindex sur ces pages de resultats. C'est parce qu'il est fait specifiquement pour du spamdexing, c'est donc un exemple extreme qui ne nous concerne pas pour la plupart des cas.
Mais on est clairement dans l'indexation de pages de résultats !
 
WRInaute impliqué
Les propos de Matt Cutt ne disent pas que c'est interdit. Tu peux me citer le passage en anglais qui est à l'origine de ta confusion?

Oui l'exemple de ton copain est dans l'indexation de pages de résultats, mais puisque son site ne comporte majoritairement que cela, il tombe sur le coup de la règle sur les pages sattelites et autres manipulations.
"Proxied copies of websites and search results that don’t add much value already fall under our quality guidelines (e.g. “Don’t create multiple pages, subdomains, or domains with substantially duplicate content.” and “Avoid “doorway” pages created just for search engines, or other “cookie cutter” approaches…”), so Google does take action to reduce the impact of those pages in our index."

Cela n'est pas forcément la même chose pour les sites qui ont du contenu "normal" et proposent un moteur de recherche interne avec des pages de résultats indexables.
Dans ce dernier cas, c'est google qui se réserve le droit de proposer ou pas ces pages aux internautes, mais uniquement si ces pages ne sont pas bloquées pour son robot!

Je ne fais que lire les différentes sources proposées.
 
WRInaute impliqué
il y a effectivement une petite différence. Mais bon si google ne pénalise pas les sites dont je parle, il n'est pas près de pénaliser les autres...
 
WRInaute impliqué
Il ne pénalise pas les sites de ton copain POUR L'INSTANT, c'est très important car il est clair que Google pénalise ce genre de sites, il l'a déjà fait en tir groupé, un gros nettoyage pas plus tard que l'année dernière, il y a eu des retours affolés sur des forums webmaster anglophones de webmasters de tels sites qui ont vu leur traffic chuter du jour au lendemain une fois qu'il ne leur reste plus que les visiteurs de yahoo/bing. C'est donc une question de chance/temps pour ton copain, mais j'imagine qu'il en est conscient et profite bien du traffic tant qu'il dure.

Pour les autres sites "normaux" à mon avis, d'après ce que j'ai pu lire, la seule pénalité c'est que google peut décider de ne pas/plus envoyer de visiteurs sur nos pages de résultats de recherche.
 
WRInaute impliqué
De tout façon au final, si GG aimait, il n'aurait jamais désindexé des pages lorsque je lui ai fait un spam report pour ce type de procédé via un site qui pourrissait les resultats.

Un moteur qui accepterait l'indexation les résultats des moteurs... Quelle logique.
 
Olivier Duffez (admin)
Membre du personnel
VisitezMonSite a dit:
il est clair que Google pénalise ce genre de sites
c'est pourquoi je suis étonné de voir ton acharnement à défendre le fait que Google autorise de faire indexer des pages de résultats de recherche par mots-clés. Est-ce vraiment une bonne idée de laisser penser aux visiteurs du forum WRI que c'est une pratique sans risques ? Pour ma part je conseille dans 100% des cas de ne pas les faire indexer.

Leonick a dit:
je croirais à la pénalisation de tels référencement quand CCM sera pénalisé pour de telles pratiques
CCM met du noindex sur ses pages de résultats de recherche...
 
WRInaute impliqué
Haha oui meme avec le noindex, ces pages se retrouvent dans l'index de google, comme quoi il n'est pas aussi strict qu'on veut bien le dire à ce sujet :)

WebRankInfo a dit:
VisitezMonSite a dit:
il est clair que Google pénalise ce genre de sites
c'est pourquoi je suis étonné de voir ton acharnement à défendre le fait que Google autorise de faire indexer des pages de résultats de recherche par mots-clés.

Je ne m'acharne pas Olivier, Google l'autorise c'est un fait on est d'accord non?
Il conseille simplement de mettre un noindex sur ces pages, mais cela n'est en aucun cas une obligation.
Ensuite bien sûr il se réserve le droit de pénaliser un site qui ne serait que ça, un site destiné à se faire indexer et recevoir du traffic principalement voir exclusivement sur ses pages de résultats de recherche. Et donc si on lui report un tel site ou qu'il le découvre par algorithme ou intervention humaine, il peut décider de mettre une pénalité SUR CES PAGES, ou pas, comme dans le cas de CCM pour l'instant. Et sa décision à mon avis ne dépend pas de savoir si oui ou non ces pages ont un noindex. Il évalue plutôt l'intérêt de ces pages en elles-même pour les internautes, c'est à dire ce qu'elles contiennent comme résultats et les infos connexes qu'il peut y avoir sur la page, le taux de rebond et je ne sais quoi encore. :lol:
 
Olivier Duffez (admin)
Membre du personnel
j'abandonne ! :)

mais surtout, ne venez pas pleurer quand Google vous aura pénalisé. Et avec la race des pandas, parait-il que c'est TOUT LE SITE qui peut prendre. Mais après tout, ce n'est que pour Google... il vous restera les autres moteurs.
 
WRInaute accro
Je plussoie total avec olivier ! J'ai deja eu des sous domaines blaclistés pour ce motif ... désormais je joue plus à ce jeu !

Et c'ets bien ce motif because j'avais un sous domaine search.ledomaine.com qui ne reprenait que des infos des autres sous domaines ... et le sous domaine search a été blacklisté mais pas les autres ni le www (preuve que c'est pas le contenu qui était en cause mais la forme ... "indexation des recherches" ! CQFD)
 
WRInaute impliqué
Désolé je reviens dans le sujet... Pour une fois :)
VisitezMonSite a dit:
Haha oui meme avec le noindex, ces pages se retrouvent dans l'index de google, comme quoi il n'est pas aussi strict qu'on veut bien le dire à ce sujet :)
Le noindex a peut-être été mis après l'indexation des pages... dés qu'il ont eu vent de Panda, par exemple. ;-)
 
Nouveau WRInaute
Bonjour à tous,

Quels sont selon vous les éléments qui peuvent permettre à Google d'identifier une page moteur statique et réécrite?

A priori :
- case "recherche" pré-remplie
- phrase type "X résultats correspondent à votre recherche

En voyez-vous d'autres?

J'essaie, vous l'aurez compris, de comprendre s'il est possible que ces pages ne soient pas identifiées par le mangeur de bambous.

Merci beaucoup
 
WRInaute accro
le mangeur de bambous va balancer lui même des mots au hasard :) Si ces mots créent une page référencable... c'est mort :)
 
WRInaute impliqué
Sauf que certains ne sont pas aussi bêtes et ajoutent un noindex + nofollow si les mots au hasard ne sont pas dans une table...
 
Nouveau WRInaute
Exactement Hyadex. Technique à laquelle on peut ajouter un filtre pour ne générer des pages moteurs que sur les requêtes que l'on juge intéressantes et pour lesquelles nous n'avons pas de pages internes dédiées spécifiquement. Nous ne sommes donc pas ici dans un méthode massive de génération de pages (même pas 5% des requêtes tapées) mais plutôt dans une analyse d'opportunités. Le souci, c'est que cela reste de la page de résultats moteurs et qu'il y a donc un risque.

J'aurais tendance à croire que supprimer les 2 éléments que j'ai déjà évoqué dans mon premier post suffirait mais je me permets de poser la question sur ce forum pour avoir un avis extérieur.
 
WRInaute accro
hyadex a dit:
Sauf que certains ne sont pas aussi bêtes et ajoutent un noindex + nofollow si les mots au hasard ne sont pas dans une table...

Alors dans ces cas là, Google vérifie si le contenu de la page est réellement intéressant... c'est pas dur de savoir si les phrases se retrouvent ailleurs
 
WRInaute passionné
On parle de moteur de recherche, de liste fermé, vous en pensez quoi pour les tags entrés manuellement ? (donc "mot clé" finis)

Actuellement je met en NoIndex, et je comptais écrire des textes de 200/300 mots (ou plus selon le tag) quand le mot/groupe de mot a un intérêt particulier, dans quel cas j'avais pensé retirer le NoIndex (ces pages ayant un réel but en elle-même dans le contexte)

Vous faites/feriez quoi ?
 
WRInaute impliqué
Ce principe de classement est en effet à gérer très finement, des articles pouvant se retrouver dans plusieurs catégories.

Le mieux et de le gérer avec les url canonique.
 
WRInaute discret
VisitezMonSite a dit:
Après avoir lu la source de Madrileño qui est le seul lien donné, je ne vois toujours pas de problème à ne pas spécifier un noindex dans les pages de resultat de recherche. Le pire qu'il semble pouvoir arriver c'est que Google n'envoit personne sur ces pages :)

ça fait combien de temps que tu lis les forums SEO? Celui qui suit ça depuis quelques années a vu nombres de sites pénalisés pour avoir fait indexer leurs recherches internes.

Un exemple assez connu qui me vient à l'esprit:
http://blog.tcrouzet.com/2007/11/19/google-hegemonique/
 
WRInaute discret
Il y a longtemps que je ne voyais plus dans Google un site faisant à une grande échelle l'indexation des pages de résultats de recherches effectuées dans Google. Depuis quelques temps je vois de plus en plus un site dans les résultats de Google, un site qui apparemment est un moteur de recherche, mais dont les pages ne contiennent que des résultats de recherche faites dans Google. Et avec ça, ce site a plus de 8 millions de pages dans Google garnies d'AdSense.

Exemple de recherche : carte de France

1 - la page de résultats de cette requête dans Google
2 - la page du site en question pour la même requête : tout simplement les résultats de Google.
 
Discussions similaires
Haut