[Désavouer des liens] Une technique viable?

Nouveau WRInaute
Bonjour,

comme l'a soulevé beaucoup d'articles sur le sujet aujourd'hui, l'outil GWT permettant aux webmasters de désavouer des liens est tout de même un sujet périlleux, car il montre à Google que nous faisons attention aux BackLinks et que donc, le travail que nous effectuons sur notre site internet n'est pas si naturel que cela.

J'ai donc eu une idée (je ne dois pas être le premier à l'avoir eu), c'était de faire un espèce de "cloaking" pour le netlinking.
Je m'explique : on créé un script PHP, et imaginons que je veuille désavouer le lien fait par le site "piratemoisi.com", dans mon script je dis que s'il s'agit du site référent en question (autrement dit, si le robot a suivi le lien de ce site) et qu'il s'agit également du robot de Google, alors je fais une redirection 301 vers une adresse 404 (on pourrait même être encore plus vicieux et rediriger vers un concurrent si cela marchait).

Du coup, si ce principe de fonctionnement marchait, il serait possible et très facile de désavouer des liens pour tous les moteurs de recherche, en masse et très facilement.

Le seul problème est de savoir si le moteur de recherche considère un BackLink a partir du moment où il le voit sur le site internet du référent ou s'il le considère à partir du moment où il suit le lien et arrive sur le site internet.

J'espère avoir été assez clair, qu'en pensez-vous?
 
Olivier Duffez (admin)
Membre du personnel
NetRef a dit:
dans mon script je dis que s'il s'agit du site référent en question (autrement dit, si le robot a suivi le lien de ce site) et qu'il s'agit également du robot de Google, alors je fais une redirection 301 vers une adresse 404 (on pourrait même être encore plus vicieux et rediriger vers un concurrent si cela marchait)
tu devrais savoir que les robots viennent crawler directement la page qu'ils cherchent, il n'y a jamais de referrer pour un crawler
 
Nouveau WRInaute
WebRankInfo a dit:
NetRef a dit:
dans mon script je dis que s'il s'agit du site référent en question (autrement dit, si le robot a suivi le lien de ce site) et qu'il s'agit également du robot de Google, alors je fais une redirection 301 vers une adresse 404 (on pourrait même être encore plus vicieux et rediriger vers un concurrent si cela marchait)
tu devrais savoir que les robots viennent crawler directement la page qu'ils cherchent, il n'y a jamais de referrer pour un crawler

Bah il y a là quelque chose dans le fonctionnement de Google qui m'échappe.

Imaginons que mon site soit tout neuf et ne soit donc pas du tout indexé. Si je fais un bon BackLink sur un bon site web, il va pop dans les SERP dans les jours qui suivent (au lieu des 3 semaines minimales pour la soumission directe à Google).
Il y a donc dans ce cas là deux choix :

1) Soit le crawler de Google détecte le lien, le garde en mémoire et repasse directement sur la page comme tu dis.
2) Soit le robot de Google suit directement les liens pour tomber sur les pages

Dans la logique d'un humain (qui n'est pas forcément la bonne, je le conçois), je pense qu'il serait mieux de directement suivre les liens pour conserver un historique (permettant ensuite de faire les calculs nécessaires en rapport avec l'algorithme mis en place) ou même pour voir s'il ne s'agit pas d'une 404 etc...
Mais il est vrai que le traitement des backlinks peut être fait par le biais de la première technique, car il est probable que ce soit plus simple pour un robot de crawl d'abord tout un site avant de passer à un suivant.

Quelqu'un aurait-il une source fiable permettant de connaître le comportement des crawlers svp?
 
WRInaute accro
c'est délirant le comportement humain qu'on tente de donner a un script à la c*n qui se contente de charger une page pour la donner en pâture a différents systèmes qui vont en tirer des données qui seront alors rangées là ou il faut.

Un bot c'est pas une entité "pensante" ni un système "expert" ou "intelligent" c'est juste un script qui contacte une url et enregistre le retour du serveur.

L'url crawlée fait bien sur partie d'une liste donc quand un lien est découvert sur une page crawlée il est ajouté ou pas a la liste (connu ou pas) et cette url fera l'objet d'un traitement quand ça sera son tour.

Dans tous les cas les bots ne "surfent" pas il ne cherchent pas a comprendre ce qu'il y a dans la page, ils pompent, ils stockent et passent a la suite.

Derrière tout ça tu as bien sur une logique qui va en extraire des liens, des contenus, des formes, des images etc etc ... pour alimenter une base de connaissance qui fera l'objet de base de recherche par la suite mais ça ne va pas plus loin.

L'idée de renvoyer une 404 ou je sais pas quoi car un bot viendrait d'on ne sais où est la plus rigolote que j'ai vu depuis des siècles. Quoi qu'il en soit si cela était possible (par de referer pour un bot donc impossible) ce serait du cloacking car un contenu serait servi spécialement pour les bots et ça ....
 
Nouveau WRInaute
Je ne comprends pas ce que vient faire cette pointe d'énervement ici. J'ai posé une question qui m'a semblé logique, je n'ai rien affirmé.
Si votre activité consiste en être actif sur un forum pour faire passer ceux qui posent des questions pour des cons juste pour éliminer votre frustration quotidienne, alors c'est la dernière fois que je post ici.
 
WRInaute accro
8O C'est pas ton intervention qui m'a fait répondre mais la première ... ensuite tu peut te sentir "mal" avec ma réponse mais je ne vois pas trop où je te stigmatise ni ce qui sous entend que tu sois c*n (le seul truc que j'ai qualifié ainsi est le script de "pompage de page" :D (cf : curl bête et méchant)).

Ce qui est un fait c'est qu'il ressort qu'on prête un "comportement" aux bots alors qu'il n'en est rien la suite de mon message est une succession d’affirmations qui donnent des détails sur leur possible fonctionnement. Ensuite mon activité sur le forum me permet de savoir que ce type de pensé (bot qui "suivent les liens") commence a se répéter d'où le détail que je donne ...

Si tu relis d'ailleurs le premier message tu verra qu'il y a plein de concepts qui se télescopent (cloaking, robot qui suivent les liens, désaveux de liens etc ...) ce qui montre bien que l'auteur est en train de faire des mélanges de folie avec des trucs très simples.

Pour finir si tu décide de revenir évite les citations intégrales pour répondre au message du dessus c'est lourd a lire et on comprend bien ce qui se passe dans l'ensemble ... :wink: (tu te sentira mieux si je te dis bonsoir et merci en plus ?)
 
Discussions similaires
Haut