Ne pas indexer les duplicate content, solution ou pas ?

Nouveau WRInaute
Bonjour, j'ai une simple question mais je n'ai absolument aucune idée de la réponse donc la voici :

Je travail actuellement sur un site web, qui disons est composé de deux grandes parties. La première : articles divers (et personnels) sur les films, quizs (personnels), jeux etc... Et la seconde (qui pose "problème") qui est composé des films (affiches, synopsys, acteurs, genres, bandes annonces etc..), données prises sur des sites tiers comme wikipédia, allociné etc...

Je souhaiterais évité de passé pour un site satellite a cause de cette seconde partie et ne pas etre pénalisé par le duplicate content. C'est pourquoi je me demande si le fait, de désindexer toutes ces pages (de la deuxième partie) serait bénéfique ou d'aucune utilité. C'est a dire, que si je les désindex, puis que je bloque leur accès au robots, avec le fichiers robots.txt ou bien que je bloque l'indexage avec la balise meta robots, est ce que Google, sera toujours au courant de ces informations et pourras me pénaliser pour Duplicate content, meme s'il n'indexe pas ces pages ?

Je vous remercie d'avance !!!
 
Nouveau WRInaute
Google ne sanctionne pas TOUS les cas de contenu dupliqué... par exemple, un synopsis de film est souvent repris sur de très nombreux sites, par conséquent il ne peut pas le sanctionner (ou alors il doit sanctionner Allocine, Senscritique...).
Bref je ne pense pas que ce soit gênant personnellement.
A noter qu'il n'existe pas vraiment de vraie sanction liée au duplicate content.
 
Discussions similaires
Haut