Erreur dans google webmaster tools

WRInaute impliqué
j'ai des erreurs dans mon compte webmaster tools
img.jpg


google indexee tous les pages de mon site . mais moi je veut seulement indexee 4 page pour sela je cree un fichie robots.txt pour interdire l'indexation des pages mais google reste indexee tous les pages et affiche aussi des erreurs dans GWT
.

est ce que ses erreurs sera un mauvise affection sur la referencement de mon site ?

et comment faire pour corriger ?

merci
 
WRInaute occasionnel
si tu veux être tranquille, fais croire a Google que les pages que tu ne veux pas voir sur l'index sont des erreurs 404.

Il suffit pour ca de detecter le userage (googlebot ou mediapartner) et de lui renvoyer un header 404. il désindexera alors les pages en question rapidement.
 
WRInaute impliqué
Kaliiii a dit:
si tu veux être tranquille, fais croire a Google que les pages que tu ne veux pas voir sur l'index sont des erreurs 404.

Il suffit pour ca de detecter le userage (googlebot ou mediapartner) et de lui renvoyer un header 404. il désindexera alors les pages en question rapidement.

merci pour votre reponse mais vraiment je comprend rien ????
 
WRInaute occasionnel
ton robots.txt doit normalement fonctionner, mais si tu l'as mis en place récemment, tu as le temps avant que les pages ne disparaissent (perso, j'ai des pages dans un robots.txt qui ne sont toujours pas désindexées depuis 2 mois).

Lorsque tu consultes une page avec ton navigateur, le serveur web envoie des codes d'entête HTTP qui constituent l'information de disponibilité de la page :
404 : Page introuvable
301 : Redirection permanente
302 : redirection temporaire
200 : Ok
etc...

Le navigateur, lui, envoie au serveur certaines informations, comme le User Agent :
MSIE : Internet Explorer
GoogleBot : Robot Google
Mediapartners-google : Google adsense

En php, tu peux simplement tester ces deux paramètres pour renvoyer le code qui t'interresse :

<?php
if (ereg("googlebot", $_SERVER['HTTP_USER_AGENT'])) {
header("HTTP/1.0 404 Not Found");
}
?>

avec ce code en début de page, Google considérera ta page comme n'existant pas, et la supprimera donc de son index.

Ai-je été plus clair ?
 
WRInaute impliqué
merci bqqqqqqqq

alors la seul solution est de insiree le code <?php
if (ereg("googlebot", $_SERVER['HTTP_USER_AGENT'])) {
header("HTTP/1.0 404 Not Found");
}
?>
dans plus de 30 pages

si diffiile ????

merci encore
 
WRInaute occasionnel
attention, tes pages doivent être en php, pas en html ! (et donc il doit y avoir un serveur php derrière)
 
WRInaute occasionnel
tu as quoi comme hébergement ? si c'est du mutualisé, il te suffit de renommer tes pages en remplacant .html en .php.

(Ne pas oublier de changer les liens en conséquence, avec Dreamweaver, ca devrait être rapide).

Allez, moi jvé dodo
 
WRInaute accro
A partir du moment où tes pages sont bloquées par le robots.txt tu peux demander la supression de l'url des résultats Google.
 
WRInaute impliqué
merci Marie-Aude
mes pages sont bloquées par le robots.txt plus de 3 semaine

et pour suppression il est defecile de supprimer plus de 30 pages dans google ( les noms des pages )

est ce que seulement robots.txt peut desindexee mes pages ???

merci
 
Discussions similaires
Haut