Eviter le duplicate content

Nouveau WRInaute
Bonjour !

je cherche à éviter l'indexation par les moteurs de recherche de duplicate content sur mon site. J'ai ainsi une page qui contient un moteur de recherche me permettant d'accéder à des résultats en fonction de la recherche de l'internaute, et des landing réécrites avec du url Rewriting qui conduisent vers ces mêmes résultats.

Je souhaite donc empêcher les moteurs de recherche d'indexer les pages de recherche et conserver donc uniquement les landing à l'indexation.

J'ai plusieurs pistes mais aucune certitude... Header PHP qui modifie le statut de la page en 301 quand ça vient du moteur de recherche ? utiliser le fichier robot.txt ? Les meta ? Il me semble que c'est déprécié... je ne sais pas trop.

Comment faire ?

Merci d'avance !
 
Membre Honoré
Bienvenue au forum.

Vous pouvez vous présenter :
https://www.webrankinfo.com/forum/t/forum-les-membres-qui-le-souhaitent-se-presentent.144221/ .

Sachant qu'il est mieux de ne pas indexer le moteur (complément : https://www.webrankinfo.com/forum/indexation-des-resultats-moteur-recherche ... 84113.html), vous pouvez interdire l'accès à celui-ci aux moteurs avec le fichier robots.txt et les balises meta.

Vous pouvez aussi présenter vos avis en tant qu'utilisateur des sites :
https://www.webrankinfo.com/forum/f/demandes-davis-et-de-conseils-sur-vos-sites.36/
pour aussi aider la communauté du forum.
 
Nouveau WRInaute
Merci pour votre réponse !

Oui, en excluant une page précisée dans le fichier robots.txt, mais cela ne risque t-il pas de désindexer également les pages de landing, que je souhaite conserver visibles par les robots ? En sachant que celles-ci sont créées depuis le même fichier PHP, leur URL étant différentes uniquement grâce au url rewriting.

Cdlt,
Jeremy
 
Membre Honoré
Ce que vous faites c'est interdire les pages du moteur, pas les pages de votre site qui doivent avoir une URL différente du moteur. Par exemple vous avez votre /search/ ou encore search.php?... vous interdisez ce type de pages. Ce sont des exemples mais il y en a beaucoup d'autres possibles.
 
Nouveau WRInaute
C'est bien ce qui me semblait. En posant un :

User-Agent: *
Disallow: search.php

j'empêche les urls contenant search.php et non pas tout ce qui est produit par le fichier search.php.

Si vous me confirmez cela, je peux considérer le problème comme résolu.
 
Nouveau WRInaute
Pour l'instant, tout va bien, mais si c'était - quand ce sera - le cas, je les poserai volontiers sur ce sympathique forum !

Merci encore,
Jeremy
 
Discussions similaires
Haut