WRInaute discret
Bonjour,
Google dit:
Par contre, quand je vais sur le "système de suppression automatique d'URL", j'ai ce message:
Pourtant, Google dit ceci:
Pensez vous que c'est seulement le système de suppression automatique d'URL qui ne prend pas les caractères génériques? Googlebot vat-il en tenir compte?
Merci.
Google dit:
Google a dit:Pour supprimer les pages générées dynamiquement, utilisez l'entrée robots.txt
suivante :
User-agent: Googlebot
Disallow: /*?
Par contre, quand je vais sur le "système de suppression automatique d'URL", j'ai ce message:
Google a dit:Les URL ne doivent pas comporter de caractères génériques (« * », par
exemple). La ligne suivante comporte un caractère générique :
DISALLOW /annuaire/*?
Pourtant, Google dit ceci:
Google a dit:Google a en outre renforcé la souplesse d'utilisation du protocole robots.txt
grâce à la prise en charge des astérisques. Les formats d'interdiction peuvent
inclure le signe « * » pour remplacer toute séquence de caractères et se
terminer par le symbole « $ » pour indiquer la fin d'un nom.
Pensez vous que c'est seulement le système de suppression automatique d'URL qui ne prend pas les caractères génériques? Googlebot vat-il en tenir compte?
Merci.