Messages: 42

Enregistré le: 31 Déc 2006

Message le Mer Sep 07, 2016 10:43

Bonjour à tous,

comme nombre d'entre-vous je suppose, mon site a été modifié x fois et je me retrouve avec tout un tas de vieilles images ou autres fichiers inutilisés encore en ligne. Est-ce que vous connaissez un outil pour crawler le site (ex http://localhost) ainsi que le répertoire local et qui fait une comparaison pour indiquer les fichiers "orphelins"?
Haut
3 Réponses
Messages: 8559

Enregistré le: 14 Mai 2003

Message le Mer Sep 07, 2016 10:56

1) Déplacer toutes les images dans un répertoire temporaire.
2) Crawler le site avec Xenu
3) Vérifier les erreurs 404 sur les URLs correspondant aux images
4) Conserver toutes les images en 404
5) Remettre les images
Haut
Messages: 42

Enregistré le: 31 Déc 2006

Message le Mer Sep 07, 2016 14:41

ah ouais pas mal!!! :D
Haut
Messages: 2911

Enregistré le: 8 Avr 2011

Message le Mer Sep 07, 2016 19:19

spout, la fée du logis du web, hmm la fée du web en gros :mrgreen:
Haut