Messages: 3050

Enregistré le: 27 Oct 2006

Message le Jeu Nov 07, 2013 1:24

Je me rends compte qu'on s'écarte complètement de la question initiale, donc dernière intervention pour moi hors sujet.

Concernant les déclassements, c'est honnête de le dire. Personnellement, ce "jeu" ne m'amuse plus, mais ça n'engage que moi.

Tiens, tu cites l'exemple des portails de jeux flash. Globalement, la plupart de ces sites sont des MFA sans réel intérêt où on retrouve toujours les mêmes jeux ? Non ? Parlons honnêtement.
Je précise que j'ai moi même un site de jeux flash. Ce type de site fonctionnait bien avant. Par contre, est-ce que ce type de site a beaucoup d'avenir ?
Haut
Messages: 66

Enregistré le: 23 Nov 2012

Message le Jeu Nov 07, 2013 1:27

lecouti a écrit:Il me semble que Marie Aude t'a glissé une solution pour trouver tes BL, non ?


Sage conseil. Des agences web, il y doit y en avoir plusieurs par jour qui se créent, il y a donc l'embarras du choix.
La difficulté c'est de savoir sélectionner la bonne.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Jeu Nov 07, 2013 20:24

Pour relativer. Je suis une "agence web", mon boulôt consiste à faire monter le site: pas à donner mes techniques (y compris les liens qui sont envoyés vers le site): y compris ceux que j'envoie de mes propres sites.

Je prend délibérément une position "pas très correctes" peut-être mais le but d'un prestataire est finalement le résultat.
Dans le même style, j'engage une entreprise de maçonnerie pour un bâtiment, je lui demande pas les proportions de ciment dans le béton.
Dans le commerce entre entreprises, il doit toujours y avoir une partie confiance. Le prestataire demande pas non plus à un site de vente en ligne le % de bénéfices supplémentaire du site (pour en demander une partie?). Et la majorité des entreprises sont généralement honnêtes:
. un passage aux tribunaux (gagné ou perdu) c'est des frais.
. un client mécontent, c'est au minimum un client perdu et au pire une très mauvaise publicité mais au milieu, il a pas de nouveaux clients envoyés par le premier.

... (pseudo) agence web ou pas!
Haut
Messages: 18372

Enregistré le: 5 Juin 2006

Message le Jeu Nov 07, 2013 23:59

ybet a écrit:Je prend délibérément une position "pas très correctes" peut-être mais le but d'un prestataire est finalement le résultat.

Si tu es rémunéré uniquement au résultat ça peut se concevoir.

ybet a écrit:Dans le commerce entre entreprises, il doit toujours y avoir une partie confiance.

La confiance vient sur des bases :) pour moi les liens faits en font partie.

ybet a écrit: Le prestataire demande pas non plus à un site de vente en ligne le % de bénéfices supplémentaire du site (pour en demander une partie?).

Pourtant, de nombreux contrats prévoient ce genre de choses, dès qu'on sort du monde de l'autoentrepreneur et de la TPME ...

ybet a écrit:Et la majorité des entreprises sont généralement honnêtes:

Mais parfois incompétentes, quand on parle d'agences de ref.

Par ailleurs, et toujours dans ce "thème", au moins une grosse agence française est connue pour "défaire" les liens des clients qui la quittent. Beaucoup plus difficile quand on a indiqué les publications au client...
Haut
Messages: 13572

Enregistré le: 5 Déc 2004

Message le Ven Nov 08, 2013 0:12

forummp3 a écrit:je suis sur le net depuis 2000, ça fait 13 ans que je me fais classer/déclasser, ça fait partit du "jeu" ma pauvre lucette.

:lol: triste réalité ....
Haut
Messages: 3050

Enregistré le: 27 Oct 2006

Message le Ven Nov 08, 2013 1:21

Personnellement, à mes clients, je vends mes prestations de service et mon expérience, pas mes secrets !
Haut
Messages: 1966

Enregistré le: 15 Jan 2012

Message le Ven Nov 08, 2013 11:36

Seul un contrat avec garantie de résultats peut justifier la non divulgation des soumissions de BL, CP, etc...

Un contrat de ref sérieux et honnête spécifie à date fixée par avance l'avancé des travaux et les travaux réalisés.

Les outils comme majestic et autres fourniront une idée du netlinking sans apporter de réelle preuve du travail réalisé par la dite agence.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Ven Nov 08, 2013 21:54

Koxin-L.fr a écrit:Seul un contrat avec garantie de résultats peut justifier la non divulgation des soumissions de BL, CP, etc...

Un contrat de ref sérieux et honnête spécifie à date fixée par avance l'avancé des travaux et les travaux réalisés.

Les outils comme majestic et autres fourniront une idée du netlinking sans apporter de réelle preuve du travail réalisé par la dite agence.


OK, il y a deux classes de réponses:
1. les gros pros qui jouent les ténors pour des sites de 50.000 VU par jours (c'est un minimum dans ce cas) qui travaillent au doité ....
2. les petits qui proposent de petites solutions rentables pour des PME (j'en récupère actuellement ... 100 € par mois pour le site et pas de visiteurs ... OU quelques centaines d'EURO pour un vrai travail: (pas forcément le design, c'est pas mon fort mais je m'améliore :mrgreen: mais des visiteurs et des retombées économiques pour la PME)

Je travaille pas pour la première catégorie. Et dans la deuxième, ... ce sont les clients qui me remercient.
Ca explique aussi les remarques de "Marie-Aude"

PS: gentil pour majestic .... je le suivais de loins, mais maintenant, je sais qu'il va se prendre des erreur 403 sur mes sites (raz le bole de tous ces visiteurs inutiles)
Haut
Messages: 1966

Enregistré le: 15 Jan 2012

Message le Sam Nov 09, 2013 7:20

Je ne bosse jamais avec garantie de résultat, j'explique la démarche, sans entrer dans le coté technique non par protection d'un secret, mais parce que les clients de captent rien, j'informe régulièrement du boulot effectué, comment il a été fait et quand, j'informe régulièrement des résultats, tout ca en fonction de ce qui est spécifié sur le contrat.

Aucun client n'a pour le moment été déçu.
Il ne comprennent pas forcément l'intérêt de certains travaux, mais sont content du bénéfice qu'ils en tirent.
Haut
Messages: 309

Enregistré le: 9 Fév 2007

Message le Sam Nov 09, 2013 10:46

Merci pour ce débat !! Je pense que cela m'a été très utile
Afin de me faire vraiment une opinion sur ce référenceur, je vais faire appel a un outil comme majestic pour voir si de nouveaux liens apparaissent comme par magie !
Voyons voir...
Merci
Haut
Messages: 13572

Enregistré le: 5 Déc 2004

Message le Sam Nov 09, 2013 12:27

ybet a écrit:raz le bol de tous ces visiteurs inutiles

+1 quand je regarde le "traf serveur" je me fait des cheveux blanc .... c'est allucinant la quantité de pages boufées par des automates ... Je ne parle même pas de tous les tocard du web qui te font un crawl pour avoir la liste de tes urls, les dindons qui pondent des site SEO de m*rd* en affichant leur calculs savant sur ton site etc ... Si on ajoute le spam dans le trafic réseau on arrive a ce paradox que c'est les machines qui causent entre elles et que de temps en temps il y a un humain qui consulte un site ....

Le top du top ça reste (chez moi) Google et bing qui se tapent la part du lion ... si je peux pas les virer, je peux en tous cas dire que ce sont les plus gros pollueurs de la planète web.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Sam Nov 09, 2013 13:43

zeb a écrit:on arrive a ce paradox que c'est les machines qui causent entre elles et que de temps en temps il y a un humain qui consulte un site ....

Le top du top ça reste (chez moi) Google et bing qui se tapent la part du lion ... si je peux pas les virer, je peux en tous cas dire que ce sont les plus gros pollueurs de la planète web.


:D

Depuis quelques semaines, j'envoie à fait en 403 tout ce qui ressemble à une plage de serveurs (+ tout ce qui vient de Chine, Ukraine et Russie: à eux trois, c'était 1/3 des pages "vues" il y a seulement quelques semaines).

PS: tu as oublié le bot de voila.orange.fr: 1 visiteur par mois du "moteur" et plus de 1000 pages vues par jour par le bot.
Haut
Messages: 13572

Enregistré le: 5 Déc 2004

Message le Sam Nov 09, 2013 21:58

ybet a écrit:PS: tu as oublié le bot de voila.orange.fr: 1 visiteur par mois du "moteur" et plus de 1000 pages vues par jour par le bot.

Lol non je ne l'ai pas oublié celui là il arrive en position 3/4 pour les "moteurs" mais je n'en parle pas car il est tellement a la ramasse de connerie que je fais comme si il existait pas :D
Le bot en question crawl péniblement mes pages il me pompe 50 pages par ip et par jour, utilise une tétrachié d'IPs différente la ou GG n'en use que deux, bref il donne l'impression d'un rom qui fait la manche dans son coin du coup je l'ai pris en pitié et je le laisse errer dans les couloirs :lol:

J'ai jamais compris pourquoi il y a pas un système de soumission international d'URLs nouvelles ou updatées qui permettrait de dégrossir un peu ce traf de fou inutile a 90% chez moi. Mon profil c'est surtout des updates de pages et 3/4 nouvelle pages par jour donc au mieux 10/20 pages a revoir, il serait beaucoup plus "green" d'être crawlé uniquement pour ces pages que de se taper ses pointes de conso électrique pour des clou.

J'en discutait avec un ami cet après midi, il me disait qu'un degré de température en moins en France par rapport aux normale saisonnières c'était deux centrales nucléaires en plus qui tournent. Si on crawlait intelligent ça serait surement pas loin de 5/6 en moins (voir beaucoup plus) ...
Haut
Messages: 18372

Enregistré le: 5 Juin 2006

Message le Sam Nov 09, 2013 23:21

Juste deux questions :)

1- vous vous plaignez de Google, et vous interdisez les bots qui permettent de voir les backlinks, ce qui veut dire que vous contribuez peu à peu à faire en sorte que Google soit une des seules sources possibles pour voir ses BLs. Et le jour où les BL disparaitront de GWT, comme les mots clés ont disparu d'Analytics, vous ferez quoi ?

2-est-ce que vos sitemaps donnent une information correcte sur la dernière mise à jour, la priorité et la fréquence de crawl recommandée ? ça contribue généralement à orienter le crawl des bots
Haut
Messages: 13572

Enregistré le: 5 Déc 2004

Message le Sam Nov 09, 2013 23:54

1/ je m'en moque des BL mis a part ceux que je fais aux endroits de qualité et ceux qui m'envoient du trafic (que je connais parfaitement > referer) les autres me sont d'une indifférence totale :D
A décharge, bien que je sache que c'est important pour toi et que pour certains c'est un "art de vivre", on aurait pas moyen de connaitre les BL je ne suis pas certains qu'on s'en porterai plus mal (toute façon j'ai arrêté de les regarder comme la télé :D ).

2/ je ne fait pas de sitemap mais je ping ... si GG et cie n'écoute pas au bout de la ligne j'en suis navré mais c'est déjà un signal très clair je pense que je prend le temps de faire (manuellement). Pour ce qui est de la fréquence de crawl GG me dit d'un ton péremptoire qu'il n'en a rien a faire de ma demande
GWT a écrit:Ligne 2 : Crawl-delay > Règle ignorée par Googlebot

Je vois pas pourquoi je me casserait la nenette a remonter les urls fraiches a l'accueil si en plus je dois lui faire un sitemap. Les internautes eux ils trouvent (et ils ont pas tous un algo interne à 1000 milliards de dollars :D ) ...

Je comprend ton point de vu mais même si tes arguments sont vrais c'est pas pour autant que le problème est gérable avec simplicité en l'état et c'est pas moi qui le gère c'est GG avec ses impératif, Bing avec d'autre, Orange qui lui comprend rien, si t'ajoute baidu (il passe chez mois de temps en temps c'est pas un sushi), le russe don j'ai oublié le nom, alexa la belle brune slave, Qwant qu'on attend encore, webarchive et tout je saint-frusquin, je persiste a penser qu'un "sitemap mondial" serait plus adapté. Après j'ai pas de chiffres mais j'ai besoin de 15/20 pages crawlé par jour au max là le serveur en prend 15000 dans la vue pour quedal, alors je pense surement que je peux améliorer les chose mais il faut qu'ils fouillent de leur côté car c'est pas très cohérent et c'est pas que de mon fait..
Haut
Messages: 18372

Enregistré le: 5 Juin 2006

Message le Dim Nov 10, 2013 2:00

zeb a écrit:1/ je m'en moque des BL mis a part ceux que je fais aux endroits de qualité et ceux qui m'envoient du trafic (que je connais parfaitement > referer) les autres me sont d'une indifférence totale :D

Ce en quoi tu as tort :)

zeb a écrit:2/ je ne fait pas de sitemap mais je ping ... si GG et cie n'écoute pas au bout de la ligne j'en suis navré mais c'est déjà un signal très clair je pense que je prend le temps de faire (manuellement). Pour ce qui est de la fréquence de crawl GG me dit d'un ton péremptoire qu'il n'en a rien a faire de ma demande
GWT a écrit:Ligne 2 : Crawl-delay > Règle ignorée par Googlebot

Encore une fpis, on ne parle pas de Google, mais des autres robots :)

zeb a écrit:je persiste a penser qu'un "sitemap mondial" serait plus adapté.

Mais le protocole sitemap n'est pas propriétaire, il n'y a pas que Google qui l'utilise :)
Haut
Messages: 13572

Enregistré le: 5 Déc 2004

Message le Dim Nov 10, 2013 14:38

Ce en quoi tu as tort

Oui je veux bien te croire car ce n'est pas n'importe qui qui me le dit et que tu est fortement trustranké chez moi, mais sincèrement je le prend ou le temps ? Dans les priorités que je dois me fixer le linking et sa surveillance n'a pas de place. Et pour ce qui est des outils perfo pour ça c'est trop cher ...

Encore une fois, on ne parle pas de Google, mais des autres robots :)
Mais le protocole sitemap n'est pas propriétaire, il n'y a pas que Google qui l'utilise

Oui d'accord avec ça mais ça devrait s'organiser autrement et a un niveau moins individuel. A titre perso pour extraire des bases toutes les urls du site c'est un travail de fou car pour beaucoup il faut que je calcule la profondeur des données afin de déterminer les URLs "suite" (qui obéissent pas toutes aux mêmes règles), j'ai des scripts frontaux qui gèrent des centaines voir milliers d'url (tout n'est pas en base clairement identifié sous forme de page), il n'est de plus pas question de faire ça en crawlant le site ... Si tu ajoute les maj a faire via cron (pour le moins) ça deviens de la conso pure délire de temps machine (si c'était une seule fois passe encore mais là c'est tous les jours).

Mais on est d'accord sur un point je ne suis pas contre "faire en sorte que" mais pas de cette façon c'est absolument inadapté a mon cas perso (et je ne dois pas être le seul je pense tous ceux qui dev sur du code proprio doivent avoir a se creuser dur pour cette problématique). En attendant le seul premier "gros consommateur" ignore toujours les règles internationales de crawl définies simplement dans le robots.txt ... les autres ne pèsent pas assez pour que je face du cas individuel de google une priorité car ils respectent le "crawl delay" qui fixe une fois pour toute l'abus qui peut être fait des ressources.

Bing a ce sujet fourni un outils graphique simplissime (en supplément) qui permet de fixer les quantités heure par heure ... ça me prend une minute de l'informer je le fais.
GG lui :roll: (lui faut son petit sitemap a celui là qu'il aille au diable)
Les autres respectent le robots txt car ils n'ont pas les moyens de faire autrement.
ce qui reste ensuite ne sort que difficilement du lot trafic humain donc difficile de dire.

Si le bot entre dans la catégorie "ne respecte pas le robots txt" et qu'en plus c'est de l'observation de BL ou de l'extraction auto de data pour un usage inconnu ils se prend une forbiden ...

C'est ma façon de voir comme je te l'explique le sitemap s’imposerait chez moi que pour google et même si il est compris ailleurs les règles standard règlent le problème ce qui fait du sitemap un truc uniquement pour Google au final.
Haut
Messages: 9031

Enregistré le: 22 Nov 2003

Message le Lun Nov 11, 2013 15:23

Marie-Aude a écrit:Juste deux questions :)

1- vous vous plaignez de Google, et vous interdisez les bots qui permettent de voir les backlinks, ce qui veut dire que vous contribuez peu à peu à faire en sorte que Google soit une des seules sources possibles pour voir ses BLs. Et le jour où les BL disparaitront de GWT, comme les mots clés ont disparu d'Analytics, vous ferez quoi ?

2-est-ce que vos sitemaps donnent une information correcte sur la dernière mise à jour, la priorité et la fréquence de crawl recommandée ? ça contribue généralement à orienter le crawl des bots


On va commencer par le début (personnellement mes blocages sont pires que ceux de Zeb): les robots
1. les vrais moteurs de recherche comme Google, MSN, quant ... on va dire baidu et yandex ou même Exalead ou voila. Plus quelques rares je re rencontre dans mes suivi. Aujourd'hui sur un petit site, +http://law.di.unimi.it/BUbiNG.html (une unif italienne qui vient une fois tous les 3 mois visiter une ou deux pages), http://help.coccoc.com/vi (apparement un petit moteur turc en cours d'élaboration) ou même http://www.botje.com/plukkie.htm (de nouveau un petit nouveau qui "essaye" Belgique France, Netherlands ou allemagne. Tu remarquera que si je les vois dans mes logs visiteurs c'est qu'ils sont authorisés à passer.
2. les pseudos moteurs (qu'ils acceptent ou non le robhot.txt d'aillieurs). Je viens justement d'interdire un de tes copain (sans doute) 199.187.122.91 qui était en train sur un site de bouffer 20 pages à la minute. Petite analyse: Sheer explore (il ne s'en cache pas, la page est directement accessible par l'adresse IP). Header: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727) (ca ressemble furieusement à un simple Windows) .... Tu demande une analyse de site et à la troisième page, il te demande ta carte de crédit (c'est valable pour les autres aussi).
Chezz moi, ca donne http://myip.ms/view/ip_addresses/3350952448/199.187.122.0_199.187.122.255
et en htaccess: toute les plages de l'hébergeur:
#
----------- databasebydesignllc.com (complet)
# bloque toutes les ip de 76.72.160.0 à 76.72.175.255
Deny from 76.72.160.0/255.255.240.0
# bloque toutes les ip de 162.208.48.0 à 162.208.51.255
Deny from 162.208.48.0/255.255.252.0
# bloque toutes les ip de 199.187.120.0 à 199.187.127.255
Deny from 199.187.120.0/255.255.248.0
# ---- fin databasebydesignllc.com


C'est idem pour un paquet de ces "sites": mystic visite AUSSI avec un Header bricolé.
3. Tout ce qui essaye de te piquer ton contenu pour analyse ou reproduction sur leurs sites. (en tout ou en partie).
La catégorie 2 fait pprobablement la même chose: sauf que pour l'instant, il ne l'on pas encore monayé.
Dès que je vois un bricolage sur un de mes sites: je vire la plage! Tout ce qui vient d'un serveur est une source de nuisance pour le contenu
Et j'utilise pas de sitemap .....
1/3 de la production d'électricité mondiale est utilisée par Internett (et je suis pas ecolo) maiss ca suffit.
Haut