Https et Duplicate content

WRInaute discret
Bonjour,

notre prestataire refait actuellement nos sites web en .NET (6 langues, donc 6 urls : www.monsite.fr / www.monsite.nl etc...).
Nous avons imposé l'utilisation du SSL dans le panier d'achat et le compte client.
Pour éviter d'acheter une clé SSL par langue, nous avons convenu d'acheter un seul nom de domaine pour sécuriser toutes les langues, soit https://www.secure-company.com

Le prestataire nous dit aujourd'hui qu'à partir du moment où un utilisateur entrera dans une partie sécurisée du site, il ne lui sera plus possible d'en sortir.
Soit concrètement : Si un utilisateur vient de http://www.monsite.fr/produitA.html et va vers le compte client https://www.secure-company.com/compte.html, s'il veut retourner voir la fiche produit A il restera en SSL, soit sur https://www.secure-company.com/produitA.html

Mes questions à ce sujet :
1> http://www.monsite.fr/produitA.html et https://www.secure-company.com/produitA.html sont des pages à contenu identique. Il s'agit de duplicate content ? Quels sont les risques ?

2> Peut-on inclure
Disallow:www.secure-company.com
dans le fichier robots.txt, si oui comment ? Si non y-a-t-il un autre moyen d'exclure www.secure-company.com du référencement ?

3> N'y-a-t-il vraiment aucun moyen de dire que seul le compte client et le panier sont en SSL, et que si on veut retourner sur une page produit, on revient sur l'URL classique ?

4> Est-ce du pinaillage ?

Merci beaucoup de vos réponses,

Vincent.
 
WRInaute discret
Je crois que ce n'est pas aussi simle que ça, à mon avis les liens sont fait en relatif, soit vers /rayon/produit/tonproduit.html, c'est pour ça qu'ils fontionnent avec les deux urls...
 
WRInaute passionné
heu... quand je vais sur hotmail par exemple, la page de login est en https ensuite on est redirigé vers http, donc on peut tres bien sortir d'une zone sécurisé. Je peux pas trop te conseillé là dessus car j'ai jamais utilisé https, mais il est possible de sortir de la zone sécurisé, faut juste changer d'administrateur reseau et d'en prendre un plus competant ...
 
WRInaute discret
Si jamais la web agency nous dit toujours que ce n'est pas possible, peut-on exclure www.secure-company.com du référencement ?
Par ex, Disallow:www.secure-company.com dans le fichier robots.txt, si oui comment ? Si non y-a-t-il un autre moyen d'exclure www.secure-company.com du référencement ?

Merci.

EDIT : Je viens de me rendre compte que www.secure-company.com était un vrai site, évidemment il ne s'agit que d'un exemple pour montrer que nous avions réserver une URL spécifique pour sécuriser les pages des sites de notre société :)
 
WRInaute passionné
vinset a dit:
Si jamais la web agency nous dit toujours que ce n'est pas possible, peut-on exclure www.secure-company.com du référencement ?
Par ex, Disallow:www.secure-company.com dans le fichier robots.txt, si oui comment ? Si non y-a-t-il un autre moyen d'exclure www.secure-company.com du référencement ?

Merci.

EDIT : Je viens de me rendre compte que www.secure-company.com était un vrai site, évidemment il ne s'agit que d'un exemple pour montrer que nous avions réserver une URL spécifique pour sécuriser les pages des sites de notre société :)


C'est pour ça que les domaines example.com / org / net existent...
 
WRInaute discret
Devant le foule de réponses, je me dis que la question est peut-être un peu trop toufue...
Pour simplifier, si je part du principe que 2 urls différentes pointent vers la même page (http://w ww.monsite.fr/produitA.html et https://w ww.secure-company.com/produitA.html) et qu'il s'agit de duplicate content.

Peut-on inclure
Disallow:www.secure-company.com
dans le fichier robots.txt pour exclure cette URL du référencement ?
 
Discussions similaires
C
Réponses
4
Affichages
1K
christele2
C
Haut