Bonjour,
En décembre, j'ai effectué un changement massif de fiches PDF liées à des pages web de mon site (sous spip 2.1) . Depuis lors, lorsque Googlebot crawle mon site, il semble chercher systématiquement l'ancienne version du PDF (avec un autre nom, et donc une autre adresse URL) et non la nouvelle. Résultat: une augmentation fulgurante du nombre d'erreur 404 liées à la suppression de ces anciens fichiers joints et à leur remplacement.
Pour moi, il n'y a pourtant pas de lien brisé dans ces pages puisque les anciennes fiches n'y sont plus référencées, contrairement à ce que signale GWT.
Je ne comprends pas vraiment quoi faire: faut-il faire une redirection dans le htaccess pour chaque changement de PDF, mais dans ce cas, c'est un peu rude car il y en a plus de 150, dois-je signaler toutes les anciennes url comme supprimées dans le GWT ou y a-t-il une autre alternative, plus simple et rapide, qu'en bonne novice, je ne connaîtrais pas?
Merci d'avance de tous les conseils que vous pourrez m'apporter.
En décembre, j'ai effectué un changement massif de fiches PDF liées à des pages web de mon site (sous spip 2.1) . Depuis lors, lorsque Googlebot crawle mon site, il semble chercher systématiquement l'ancienne version du PDF (avec un autre nom, et donc une autre adresse URL) et non la nouvelle. Résultat: une augmentation fulgurante du nombre d'erreur 404 liées à la suppression de ces anciens fichiers joints et à leur remplacement.
Pour moi, il n'y a pourtant pas de lien brisé dans ces pages puisque les anciennes fiches n'y sont plus référencées, contrairement à ce que signale GWT.
Je ne comprends pas vraiment quoi faire: faut-il faire une redirection dans le htaccess pour chaque changement de PDF, mais dans ce cas, c'est un peu rude car il y en a plus de 150, dois-je signaler toutes les anciennes url comme supprimées dans le GWT ou y a-t-il une autre alternative, plus simple et rapide, qu'en bonne novice, je ne connaîtrais pas?
Merci d'avance de tous les conseils que vous pourrez m'apporter.