API Wikipedia?

Consultez la formation SEO spéciale Wordpress
par WebRankInfo / Ranking Metrics


cprail
WRInaute passionné
WRInaute passionné
 
Messages: 1564
Inscription: 5 Mar 2006

API Wikipedia?

Message le Ven Juil 07, 2006 0:15

Bonjour,
j'ai vu souvent des sites intégrant le contenu de Wikipedia de façon systématique (du genre -http://www.answers.com/main/ntquery;jsessionid=67idokp2s4hur?tname=mike-portnoy&sbid=lc06b)
Est-ce que Wikipedia offre une API ou un outil pour intégrer automatiquement son contenu à d'autres sites ou s'il s'agit de rapports particuliers entre ces sites et la fondation?

Merci!

Zim'
WRInaute impliqué
WRInaute impliqué
 
Messages: 804
Inscription: 27 Avr 2006

Message le Ven Juil 07, 2006 3:27

il y a de forte chance pour que les mecs parsent directement wikipedia...


medium69
WRInaute passionné
WRInaute passionné
 
Messages: 2485
Inscription: 7 Mai 2005

Message le Ven Juil 07, 2006 6:08

Le contenu de Wikipédia est libre de droit et réutilisable pr tout le monde, à condition d'indiquer la source de l'article, en y faisant un lien par exemple, la liste des auteurs de cet articles et un lien vers la licence GFDL.

Perso, je reprend du contenu pour les article en rapport avec les sciences.

Comme l'à dit Zim', tu prend le contenu brut, et tu le met en forme selon ta volonté.

Pour ma part, je me suis créer un script pour automatiser une grande partie de la tâche.

spidetra
WRInaute passionné
WRInaute passionné
 
Messages: 1500
Inscription: 7 Juil 2003

Message le Ven Juil 07, 2006 9:00

un truc du style WebService basé sur SOAP et qui permettrait de faire des requêtes du type :
GetWikipediaArticle
GetWikipediaPageInfo
GetWikipediaPageLinks

accord KDE wikipedia

par contre je n'ai rien trouvé directement sur le site wikipedia. si tu trouve tient moi au courant ça m'intéresse aussi


dd32
Modérateur
Modérateur
 
Messages: 3419
Inscription: 9 Sep 2005

Message le Ven Juil 07, 2006 9:42

PARSING :
Class: Wiki Parser
-http://www.phpclasses.org/browse/package/3111.html

Class: HTML SAX Parser :
-http://www.phpclasses.org/browse/package/2140.html

Parse Wikipedia pages in Python using BeautifulSoup :
-http://nkour.blogspot.com/2005/06/parse-wikipedia-pages-in-python-using.html


RSS Wikipedia : -http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Syndication


Ca devait se faire (wikipedia API) :
-http://www.micropersuasion.com/2005/12/wikipedia_plans.html
-http://typolis.net/sumaato/stories/227/ (cf. les liens de Spidetra)

spidetra
WRInaute passionné
WRInaute passionné
 
Messages: 1500
Inscription: 7 Juil 2003

Message le Ven Juil 07, 2006 10:10

Juste pour information, wikipedia autorise la reproduction et la diffusionde son contenu, mais il n'autorise pas à crawler son site dans n'importe qu'elle condition.

http://fr.wikipedia.org/robots.txt
wget, larbin, lwp sont interdit sur le site.


La page sur les bot de Wikipedia. Cette page concerne essentiellement les bots interne à Wikipedia Fr, les bots d'administration de wikipedia.

Comme toujours quand vous développez vos bots externes toujour crawler mode poli, voire en mode très poli pour Wikipedia qui doit être très sollicité
Le Crawl-Delai minimum du robots.txt est positionné à 1s, et il est même gentiment demandé de mettre un délai plus grand.


cprail
WRInaute passionné
WRInaute passionné
 
Messages: 1564
Inscription: 5 Mar 2006

Message le Ven Juil 07, 2006 11:43

C'est ce que je pensais aussi, les solutions ne sont pas - pour l'instant - des solutions "officielles".
Merci spidetra et dd32 pour les liens.


Si vous avez aimé cette discussion, partagez-la sur vos réseaux sociaux préférés :

Formation recommandée sur ce thème :

Formation SEO spéciale Wordpress : apprenez à optimiser le référencement naturel d'un site fait avec Wordpress... Formation Ranking Metrics animée par un expert SEO / Wordpress.

Tous les détails sur le site Ranking Metrics : programme, prix, dates et lieux, inscription en ligne.

Lectures recommandées sur ce thème :