Google Knowledge Graph : quel impact sur le référencement ?

Olivier Duffez (admin)
Membre du personnel
Google continue son chemin vers davantage d'analyse sémantique dans son moteur de recherche en annonçant aujourd'hui les début du Google Knowledge Graph (le graphe de la connaissance).
En attendant d'avoir le temps de détailler, je vous envoie directement sur l'annonce officielle de Google, par le boss Amit Singhal. Ou l'excellent article de Danny Sullivan.

J'ai fait une courte brève sur Google Knowledge Graph faute de temps, je complèterai la semaine prochaine...

Vous pouvez aussi relire mon point de vue sur cette évolution de Google (et son impact pour le référencement).

Que pensez-vous de cette évolution de Google ? Quel impact pour le SEO ? Pour en avoir parlé avec Google, sachez que ce n'est que le début...

Une vidéo sur le sujet :
 
WRInaute occasionnel
Bonjour,

Bases stratégiques.
Merci énormément pour ces indications.
On va pouvoir réfléchir tout le week-end
même si au final et google le dit lui aussi ' google ne comprend pas grand chose à nos pages '
Alain
 
Nouveau WRInaute
Pour en avoir parlé avec Google, sachez que ce n'est que le début...

Merci de tenir informé, vraiment, cette phrase est un genre de faux suspense qui est tout à fait supportable et pas du tout énervant en plus d'être très utile.
 
WRInaute discret
On dirait que tout est dans les guidelines depuis le début... celui qui brasse sa thématique de façon large ne fera que bénéficier de telles innovations et c'est tant mieux.

Je suis juste déçu du timing. Si seulement la technologie (et les bons filtres) sortaient plus vite, on aurait des pages résultats clean bien en avance. Le problème du décalage, c'est que parfois s'écoulent des années entre la déclaration d'intention et l'application. Entre temps le black hat reste efficace et certains restent enterrés des années derrière ceux qui usent de tous les moyens "bons tant qu'ils sont efficaces".

Merci pour l'info.
 
WRInaute impliqué
Merci pour ces infos et ces liens.

Niveau SEO, il paraît de plus en plus important d'intégrer les microdata sur les pages. Pour un nombre croissant de sites, il faudra également repenser le niveau de contenus et de services fournis pour continuer à recevoir du trafic... car de plus en plus d'informations seront directement lisibles sur les SERP.

Au travail donc :)
 
Nouveau WRInaute
bonjour,
parfois il faut prendre le temps de répondre, mais avant tout excusez mon ortographe.

@Winsiders : le black hate est le moteur de perfectionnement de google.
C’est même une des caractéristiques de l'homme que de chercher des solutions face à des règles établies, en exemple les lois sont faites pour créer de la jurisprudence, ou pour être contourné, ce qui mènent à de nouvelles lois.
Mais c'est la masse d'informations fiables qui permet la distinction du vrai du faux, le black hate est un mal nécessaire tel le point noir dans le blanc, mais la contre partie est que le black hate est forcé de jouer dans les règles en apparence et joue aux mêmes jeux, tel le point blanc dans le noir.

Je vous conseille cette magnifique conférence sur la triche.
http://www.dailymotion.com/video/xp...richer-nouveau-festival-3eme-edition_creation

ce que fait Google est du même type que http://www.pearltrees.com, ou que http://gephi.org/

Depuis toujours le but de Google est la création d'une intelligence ubiquitaire (et non artificiel) qui émergerait de l'ensemble de la connaissance partagée de l'humanité, ils ont une vision globale de l'homme dans l'évolution, pas mal issu de la formation Montessori de certains des dirigeants. mais la ou les algo sont les plus puissant, ce n'est pas chez google, mais dans la finance...

L’intelligence, est l’interaction entre des connaissances stockés dans de la mémoire, fessant émerger des concepts, qui eux mêmes s’insèrent alors dans la mémoire de façon exponentiel. Aujourd’hui le web est mémoire, et tente l’interaction, mais ne craie pas encore de concepts.

D’un point de vue référencement c’est alors l’interaction qui compte le plus, et ce qui interagie le plus dans un site, ce sont les mots clef.
En tant qu’artiste (ou chercheur) je recherche les interactions entre mes propres travaux pour les comprendre, dans le but de voir des liens que je ne percevais pas au départ, et constater ce qui à le plus d’impotence dans mes travaux par leur interaction afin que ces interactions deviennent sujet de travail.
La sélection par multi mots clefs est primordiale, car permet une recherche affiné, en exemple mon site ou le seul menu est fait de mot clef http://www.jeromepierre.com
(je fais ca pour moi, pas spécialement orienté référencement.)
je cherche d’ailleur quelqu'un qui connais http://gephi.org/

j'avais écrit une suite sur les concepts potentiels que google ferait émerger, mais ça me fatiguai moi même.

bonne journée.
 
WRInaute passionné
Ca y est, je viens de voir le knowledge graph sur les résultats de gg.fr ! Sur 2 infos vues (sur 2 requêtes), les deux comportaient des erreurs : ça commence bien... mais ça va sacrément impacter les recherches, c'est obligatoire.

edit :a près plusieurs essais de recherche, vous remarquerez que 0% des photos jointes à l'encadré ne mène à des sites français mais 100% anglais.
 
WRInaute passionné
Oui, sur le .fr en français et sans être connecté à mon compte (en anonyme théorique, FF avec quelques add-on Google).

Exemple (pris le 12/11) :

knowledge-graph-pr-small.jpg


J'ai cet affichage très régulièrement (hier par exemple), je reprendrais d'autres copies écran de temps en temps.

De plus, la fiabilité des informations est mauvaise dans mon domaine de prédilection (le poisson rouge n'est pas UNE espèce mais regroupe tout un ensemble de poissons, il ne vient pas du Lac Utah mais de Chine depuis l'an 265 : cf. la page poisson rouge sur aquaportail).

knowledge-graph-mr-small.jpg


Les cartes sont en anglais, les liens sont vers des sites anglais, etc. Bonjour le respect de la langue!!! :?

Bref, tout est en anglais hormis le résumé Wiki (pas vu autre chose que Wiki).
 
Discussions similaires
Haut