Un bon moyen de fliquer les robots notamment ceux de Google

Nouveau WRInaute
Salut à tous,

je suis encore néophyte sur la question et souhaiterai poser une question peut-être stupide: :oops:

Connaissez-vous un bon moyen de logguer efficacement et uniquement les passages de robots sur vos pages?

Après un essai infructueux via une certaine application php/mysql, j'aurais voulu votre avis? :roll:
 
Nouveau WRInaute
Mumuri a dit:
robotstat
seowebanalyse

Bien joué Mumuri,

tu viens de répondre à 2 questions d'un coup. 8O
En effet, le problème que j'avais subi à mon dernier test était une lenteur flagrante du chargement de mes pages (certainement due à Mysql).
Or, tu sembles (seo webanalyse étant apparemment ta créature) avoir pensé à cette complication!!!
Je teste ça immédiatement...Chapeau l'Artiste! :roll:
 
Nouveau WRInaute
AIE!! :x
Je viens de lire cela au sujet de Seo Webanalyse :
[Le logiciel n'est pas adapté à un site qui fait plus de 300 visites par jours...]
C'est encore d'actualité?
 
WRInaute accro
Teste robotstats. Il a été développé par l'administrateur de WRI il y a quelques années de cela.
 
WRInaute accro
crawltrack est pas mal aussi, je le test actuellement et seuls les bots ainsi que les pages qu'ils ont crawlé sont enregistrées.
 
Nouveau WRInaute
Justement!
Je ne voulais pas lui faire de mauvaise publicité, vu l'effort du développeur!
Mais puisque tu en parles... :roll:
C'est celui que j'ai testé, il a l'air d'être assez complet et performant si on met de coté le fait qu'il multipliait mes temps de chargement de pages de manière affolante !

Un exemple sur ma page index:
0.084 secondes sans Crawltrack :D
2,820 secondes avec Crawltrack 8O

Peut-être lui faut-il une base de données supplémentaire et reservée!? :?: :!:
 
WRInaute accro
A bon, j'ai rien remarqué moi :s
Je suis en mutu chez ovh, et les chargements sont bien rapides ! Voir instantanés.

C'est peut-être parce que je n'ai pas encore beaucoup de visiteurs .
 
WRInaute passionné
nabonite a dit:
AIE!! :x
Je viens de lire cela au sujet de Seo Webanalyse :
[Le logiciel n'est pas adapté à un site qui fait plus de 300 visites par jours...]
C'est encore d'actualité?

en effet, j'ai eu la flemme de faire un affichage sur plusieurs pages dsl :), résultat a 300 visites ca plante, c'est dans ma liste des TODO ..
 
Nouveau WRInaute
YoyoS a dit:
A bon, j'ai rien remarqué moi :s
Je suis en mutu chez ovh, et les chargements sont bien rapides ! Voir instantanés.

C'est peut-être parce que je n'ai pas encore beaucoup de visiteurs .

Ne tenez, pour l'instant, pas compte de mes "médisances"!!!
J'ai peut-être dit du mal de Crawltrack trop vite :oops: ...j'ai vais quand même essayé d'insérer son code dans d'autres endroits de mes pages pour alléger leur chargement!
Je reteste!!!
 
Nouveau WRInaute
J'ai réinstallé et testé Crawltrack à nouveau!
Mes excuses les plus plates à son développeur...Je laisse tout ça sous observation, mais tout semble fonctionner parfaitement en insérant le code pour la détection au bons endroits (exemple : fin de page pour un chargement moins barbare!). :?

Cela dit, si vous utilisez d'autres bestioles similaires, je serai heureux de les mettre à l'épreuve! :D
 
Discussions similaires
Haut