WRInaute occasionnel
Bonsoir,
Je propose la soumission d'url pour un moteur de sites. Partant du principe que je n'accepte qu'un site par tld, personne ne pourra ajouter plus d'une fois son site.
Donc.. a mon sens , il n'y a pas de raison d'utiliser un code captcha pour limiter la soumission, celui-ci est utile pour empêcher les robots a soumettre des pages multiples non ? Et comme il ne peux y avoir qu'une page, le robot ne devrait pas être un problème ?
A moins que je ne fasse gaffe à un point véritablement négatif de travailler sans captcha ? Dès lors, vos lumières me seront bien précieuses.
Merci d'avance pour vos avis
Cordialement
Yule
Je propose la soumission d'url pour un moteur de sites. Partant du principe que je n'accepte qu'un site par tld, personne ne pourra ajouter plus d'une fois son site.
Donc.. a mon sens , il n'y a pas de raison d'utiliser un code captcha pour limiter la soumission, celui-ci est utile pour empêcher les robots a soumettre des pages multiples non ? Et comme il ne peux y avoir qu'une page, le robot ne devrait pas être un problème ?
A moins que je ne fasse gaffe à un point véritablement négatif de travailler sans captcha ? Dès lors, vos lumières me seront bien précieuses.
Merci d'avance pour vos avis
Cordialement
Yule