WRInaute occasionnel
un site me propose un partenariat comme cela:
il désire integrer sur son site les articles du mien. en echange d'un lien vers la page d'origine (sic)
je lui demande comment il procéde pour se proteger du duplicate content des robots de google
et me réponds
Bonjour,
Tout d'abord, nous vous remerçions pour votre coopération.
L'aspect technique, nos robots vont chercher chaque heure les nouveaux articles sur votre site en extrayant le texte contenu entre les balises HTML. Le texte extrait est alors "nettoyer" de toutes les balises html propres à votre site.
J'attend de vos nouvelles
comment se proteger de cela?
et si le mal est déjà fait y a t'il un moyen de netoyer google?
et pourquoi moi?
il désire integrer sur son site les articles du mien. en echange d'un lien vers la page d'origine (sic)
je lui demande comment il procéde pour se proteger du duplicate content des robots de google
et me réponds
Bonjour,
Tout d'abord, nous vous remerçions pour votre coopération.
L'aspect technique, nos robots vont chercher chaque heure les nouveaux articles sur votre site en extrayant le texte contenu entre les balises HTML. Le texte extrait est alors "nettoyer" de toutes les balises html propres à votre site.
J'attend de vos nouvelles
comment se proteger de cela?
et si le mal est déjà fait y a t'il un moyen de netoyer google?
et pourquoi moi?