Depuis 2005, il existe un débat autour des liens "affinitaires" existant entre l'encyclopédie collaborative et les moteurs de recherche (Google notamment). Ce débat a d'abord consisté à étudier la place de Wikipedia dans les SERP (Search Engine Results Pages), puis, avec les lancements de Knol (1ère version du projet encyclopédique de Google, qui fut un échec) et du Knowledge Graph, à se demander si cette concurrence encyclopédique pouvait, à terme, impacter durablement le trafic de l'encyclopédie au profit de la seule consultation du moteur.
Rapide retour en arrière.
C'est d'abord Jean Véronis qui dès décembre 2005 soulignait un certain nombre de "liens d'affection", certains moteurs (notamment Yahoo! et Google à l'époque) privilégiant, pour certains types de requêtes, les résultats en provenance de Wikipédia.
Neuf mois plus tard je m'y collais à mon tour plus modestement en rappelant et confirmant l'existence de liens affinitaires :
"Wikipedia obtient 54% de son traffic via Google. La majorité des visiteurs de Wikipedia se rendent ensuite sur MySpace ou Blogger, qui utilisent tous deux Google comme service de recherche." Et là ... la logique affinitaire se met en place. L'article qui rend compte de l'étude (Nota Bene : je n'ai pas lu l'étude originale) indique que BigDaddy (nouvelle mise à jour de l'algorithme de Google), pour éviter le spam et autres linkfarming, étudie de près et pondère davantage les "bons et mauvais voisinages Internet".
En 2008, Google lance Knol, un projet d'encyclopédie "marchande" qui sera un échec cuisant.
Et en Juin 2012, la guerre du sens est déclarée avec le lancement du "Knowledge Graph" qui permet d'afficher pour un grand nombre des catégories de requêtes les plus fréquentes, une "capsule sémantique" reprenant et affichant directement sur la page de résultat les informations "sémantisées" pouvant éviter d'avoir recours à Wikipédia, alors même que l'essentiel des informations de cette "capsule" est généré à partir de Wikipédia (mais aussi à partir de Freebase ou du CIA World Factbook comme je l'expliquais dans ce billet).
La question posée est alors de savoir si ces capsules feront baisser la consultation de Wikipédia, et, pour le cas où cette baisse deviendrait effective, si cela pourrait à terme remettre en cause le modèle même et la survie de l'encyclopédie.
De nombreux blogs et articles de presse spécialisée (ici par exemple ou très récemment ici avec une courbe dont nous verrons qu'elle est trompeuse) semblent attester de cette baisse du nombre de pages vues dans Wikipédia suite au lancement du Knowledge Graph et établissent un lien de causalité direct quand il ne faut probablement y voir qu'une simple corrélation (classique effet cigogne).
En effet lorsque l'on regarde en détail les statistiques fournies par Wikipédia (ici et là) on s'aperçoit que même s'il y a eu effectivement un effet de "décrochage" sur l'année 2013, le nombre de pages vues a depuis recommencé d'augmenter pour atteindre un seuil légèrement supérieur à celui qu'il avait avant le lancement du Knowledge Graph, et ce sur la très grande majorité des différentes versions linguistiques de l'encyclopédie.
Ci-après les courbes pour la Wikipedia anglophone et francophone à titre d'exemple (les autres sont sur cette page)
Observation confirmée par l'analyse des chiffres détaillés disponibles sur cette page :
(Oui bon là d'accord on n'y voit rien, z'avez qu'à suivre le lien et vérifier vous-mêmes si vous ne me croyez pas)
De tout cela nous pouvons déduire 2 choses : d'abord qu'il existe 2 débats distincts, le premier portant sur la "visibilité" de Wikipedia dans les pages de résultats (SERP), et le second sur le trafic et la consultation de l'encyclopédie elle-même.
Résistance Wikipédienne.
Sur le premier débat, je n'ai pas eu le temps de faire le travail que Jean avait à l'époque effectué avec ses étudiants, mais de manière totalement empirique et subjective je n'ai pas observé de désamour particulier entre Google et Wikipédia dans la manière dont le premier offrait une visibilité à la seconde dans ses pages de résultats. Wikipedia semble ainsi bien "résister" aux tendances des moteurs en général et de Google en particulier de déployer l'essentiel de leurs résultats dans un environnement "fermé" tentant à tout coup / coût d'empêcher l'utilisateur d'éprouver le besoin d'en sortir.
Résilience Wikipédienne.
Sur le second débat, les chiffres présentés ci-dessus prouvent qu'il est ... difficile de prouver une relation de causalité entre le lancement du Knowledge Graph (Juin 2012) et la baisse de consultation ressentie globalement sur l'année 2013 (notamment 1er semestre), et qu'il serait plus prudent et plus juste de parler de simple corrélation. Les chiffres prouvent également, puisqu'ils repartent ensuite globalement à la hausse et dépassent souvent le seuil qu'ils avaient atteint avant le lancement du Knowledge Graph, les chiffres prouvent également la capacité de résilience de l'encyclopédie et de son écosystème. S'il est un fait que chaque nouveau changement dans l'algorithme de Google peut-être vécu de manière traumatique par l'encyclopédie, susceptible à tout moment de "perdre" des consultations et du trafic au profit du moteur, Wikipedia fait montre d'une grande capacité de résilience, c'est à dire d'une "capacité à récupérer un fonctionnement ou un développement normal après avoir subi une perturbation." Et la relative "stagnation" ou la croissance beaucoup plus modérée des dernières années ne doit pas être associée à l'impact négatif des SERP mais plutôt au fait que l'écosystème encyclopédique a atteint un pallier, un seuil de croissance qui tend à se stabiliser et qui est nécessairement moins important que lors des premières années après son lancement.
Plus d'un quart de siècle après la naissance du web, cet écosystème complexe semble aujourd'hui se stabiliser autour de 4 piliers que sont Google, Wikipedia, Facebook et Twitter.
FaTwiGoWi
Frédéric Cavazza dans l'un de ses derniers billets décrit très bien les spécificités des 2 derniers : Facebook est un portail et Twitter "le nouvel email" :
Facebook est un portail : "L’analogie avec un portail se justifie par le fait que Facebook ne produit aucun des contenus qu’il diffuse, ce sont les autres qui produisent et qui se servent de Facebook pour diffuser ou pour augmenter la visibilité de leurs publications, comme Yahoo! ou MSN le font. La comparaison avec un portail va plus loin dans la mesure où Facebook propose également des chaines : Jeux (dans l’onglet « Jeux »), photos (avec Instagram ou Scrapbook), vidéos (avec Slingshot ou le tout nouveau Riff), messages (avec WhatsApp ou Messenger), forums de discussion (avec Groups et Rooms)… Bref, Facebook fournit une liste complète de services pour couvrir l’ensemble des besoins des internautes (...) Là où Facebook a une approche moderne, par rapport à Yahoo, c’est qu’ils ont morcelé ces différents services en une série d’applications mobiles. Le but de la manoeuvre étant de dominer à la fois sur les ordinateurs ET les smartphones."
Twitter est le nouvel email : "c’est une plateforme qui se rapproche beaucoup plus d’un outil de communication que d’un réseau social (...) Contrairement à Facebook, on trouve sur Twitter des contenus originaux, les tweets, qui sont produits spécifiquement pour cette plateforme. Sa simplicité d’usage et son efficacité en ont fait un canal privilégié pour les journalistes, figures politiques, people et professionnels des médias. (...) Twitter a beau être 10 fois plus petit que Facebook, c’est un média indispensable pour les producteurs de contenu, car c’est un canal de diffusion en (quasi) temps réel qui ne les concurrence pas, contrairement à vous-savez-qui. Au final, la force Twitter est d’être une source de trafic très importante, mais qui ne cherche pas à rentrer en concurrence avec les producteurs de contenu, les autres médias, Google, Apple… Une position beaucoup plus sereine, et surtout moins compliquée à tenir, car Twitter n’est impliqué dans aucun rapport de force."
Si je devais résumer en caricaturant, je dirais que l'on va sur Google dès qu'on a besoin d'un truc, que l'on va sur Facebook dès que l'on a 5 minutes à perdre, que l'on va sur Twitter dès que l'on a un truc à dire, et que l'on va sur Wikipédia dès que l'on veut vérifier quelque chose.
Economie de l'attention pour Google, économie de la publication pour Twitter, économie de l'occupation et de la consultation (au sens trivial de "trouver de quoi s'occuper" et non dans le sens plus construit que je proposais ici) pour Facebook et économie de la vérification pour Wikipédia.
Chercher, publier, consulter, vérifier.
Les 4 mamelles des usages connectés : chercher, publier, consulter et vérifier (fact-checking). De la part de nécessité dévolue à chacun de ces usages ainsi que de leur hiérarchisation, dépendra probablement en grande partie l'avenir du web-media et des plateformes ou acteurs économiques associés.
Une situation qui peut poser question car seul 2 de ces 4 écosystèmes (Google et Facebook) sont aujourd'hui "rentables" : si Wikipédia repose sur une fondation, il faut se souvenir que Twitter continue fin 2014 à dégager plus de pertes que de bénéfices. Une situation qui n'est d'ailleurs ni réellement alarmante ni historiquement inédite puisqu'à l'échelle de la presse, nombre de titres sont également en dessous du seuil de rentabilité et survivent principalement grâce à des subventions publiques (d'ailleurs attribuées n'importe comment et en dépit du plus élémentaire bon sens mais c'est un autre débat).
Ce quarteron de tête, ces 4 piliers de l'écologie cognitive et informationnelle du web actuel ont tendance à s'apparier.
Facebook souhaite devenir un "moteur", ou à tout le moins développer son propre moteur pour favoriser une nouvelle fois ses internalités et les faire vivre.
Google souhaite devenir à terme et parmi tant d'autres choses qu'il est déjà, une base de connaissance. A ce titre il concurrence directement Wikipédia, tant sur le fond que sur la forme (puisqu'il est l'un de ses principaux pourvoyeurs de trafic).
Twitter est - presque paradoxalement - en quête de visibilité et ne cesse de tenter différents partenariats avec les moteurs pour mieux faire remonter les échanges de son écosystème. Après avoir déjà essayé en 2009, Twitter retente le coup avec Google en 2015.
Wikipedia est le colosse au pieds d'argile. Argile de son modèle économique (reposant en grande partie sur des dons), mais "colosse cognitif et informationnel" aux pieds duquel il est - même pour Google - encore nécessaire de se prosterner.
L'avantage "concurrentiel" de Wikipedia est qu'à la différence de Google ou de Facebook, son "économie de l'attention" n'est pas subordonnée aux grands acteurs de la presse et de l'infotainment, acteurs avec lesquels Google et Facebook sont dans une situation de dépendance croisée qui se confirme à chaque nouveau débat autour de l'indexation - de la presse - dans Google News ou de la publication "native" de certains articles directement depuis Facebook. Il est d'ailleurs assez logique (et réconfortant) qu'un projet de nature encyclopédique ne soit pas soumis à ces différents aléas.
Mais revenons au couple de l'encyclopédie et du moteur et à leurs rapports complexes.
L'encyclopédie vérifiable et l'algorithme "fiable".
Au coeur des processus éditoriaux qui régissent Wikipédia se trouve la notion ambigüe de "notoriété" et surtout celle de "vérifiabilité" qui permet de désambigüiser un peu la première. Je cite ici ce qui est dit sur la page des critères d'admissibilité des articles :
"Wikipédia recherche la neutralité de point de vue, qui est assurée par la vérifiabilité, l'exigence de sources secondaires de qualité (donc une certaine notoriété) et par conséquent elle déconseille les autobiographies et interdit les travaux inédits".
Cette approche pose d'ailleurs un certain nombre de questions "épistémologiques" sur lesquelles je revenais dans cet article de 2008, y compris chez les plus fervents partisans de l'encyclopédie :
"A la différence des lois mathématiques ou scientifiques, la vérité wikipédienne n'est pas basée sur des principes de cohérence ou d'observabilité. Pas davantage qu'elle n'est basée sur le bon sens ou l'expérimentation. Wikipedia a construit un ensemble de standards épistémologiques radicalement différents (...) qui doivent interroger ceux qui sont concernés par le sens traditionnel des notions de vérité et de précision. Sur Wikipedia, la vérité objective n'est pas la plus importante. Ce qui fait qu'un fait ou une information peut être intégrée dans l'encyclopédie est qu'il apparaisse dans une autre publication -- idéalement en Anglais et qui soit disponible en ligne. La ligne officielle de Wikipédia est d'ailleurs la suivante : "La condition d'inclusion d'un article dans Wikipédia est la vérifiabilité, et non sa vérité." (...) "Alors qu'est-ce que la vérité ? (...) En pratique, le standard d'inclusion des articles mis en place par Wikipedia est devenu, de facto, le standard pour la vérité, et depuis que Wikipédia est la source en ligne la plus lue sur la planète, c'est également le standard de vérité que la plupart des gens utilisent quand ils font une recherche sur Google ou Yahoo. Sur Wikipédia, la valeur de vérité de la vérité est la vue concensuelle d'un sujet. (On Wikipedia, truth is received truth: the consensus view of a subject.)" Simson Garfinkel dans la MIT Tech Review cité par moi dans le Affordance Tech Blog ;-)
Vérifiabilité donc.
Or voici qu'il y a moins de 2 mois (le 12 février 2015), 8 chercheurs de chez Google publient un article intitulé : "Kowledge-Based Trust : Estimating the Trustworthiness of web pages". Trustworthiness = fiabilité.
L'enjeu décrit par cet article - et souligné par les billets qui s'en sont fait l'écho (Hubert Guillaud et le Newscientist notamment) - est celui d'une nouvelle révolution copernicienne pour le moteur de recherche : il s'agit de compléter l'algorithmie de base fondée sur la notoriété (Pagerank, nombre de liens pointant vers une page) par une algorithmie reposant sur la "vérifiabilité" qui introduirait une pondération nouvelle directement liée aux nombres de faits inexacts d’une page, l'inexactitude en question étant établie d'après les mêmes sources que celles lui permettant de faire fonctionner le Knowledge Graph.
Voici le résumé de l'article en question :
"The quality of web sources has been traditionally evaluated using exogenous signals such as the hyperlink structure of the graph. We propose a new approach that relies on endogenous signals, namely, the correctness of factual information provided by the source. A source that has few false facts is considered to be trustworthy. The facts are automatically extracted from each source by information extraction methods commonly used to construct knowledge bases. We propose a way to distinguish errors made in the extraction process from factual errors in the web source per se, by using joint inference in a novel multi-layer probabilistic model. We call the trustworthiness score we computed Knowledge-Based Trust (KBT). On synthetic data, we show that our method can reliably compute the true trustworthiness levels of the sources. We then apply it to a database of 2.8B facts extracted from the web, and thereby estimate the trustworthiness of 119M webpages. Manual evaluation of a subset of the results confirms the effectiveness of the method."
Donc on passe d'une évaluation "exogène" (= les backlinks) à une évaluation "endogène". Et ce faisant on ne cherche pas à vérifier sir les "faits" présents dans une page sont fiables mais, la nuance est d'importance, si une page contient peu de fausses informations. Et on postule que si la page contient peu de "faux faits", elle est "fiable". Et donc on la fait remonter dans les SERP. Pour ce faire on extrait "automatiquement" les faits de différentes sources (comme on en extrayait les "entités nommées" pour le Knowledge Graph), on fait tourner un modèle mathématique probabiliste à plusieurs couches, et on calcule un "score de fiabilité" pour chaque page : le "KBT" (le Knowledge-Based Trust). On teste ça sur une base de donnée composée de près de 3 milliards de "faits" extraits du web et on l'applique à un corpus de 119 millions de pages. Dans ce corpus on effectue une série de vérifications '"manuelles", et on s'aperçoit - c'est en tout cas ce que dit l'article - que ça marche très bien, que le modèle fonctionne.
OK. Dans cette annonce et dans cet article, il y a ce qui relève de l'accessoire : Google et ses ingénieurs font évoluer l'algorithme du Pagerank, et y adjoignent, comme c'est le cas chaque année, de nouveaux critères, en leur accordant plus ou moins d'importance. Et ces nouveaux critères peuvent de plus en plus s'appuyer sur des processus d'analyse "sémantique", grâce à l'avancée des techniques issues du champ de la linguistique de corpus (ou ingénierie linguistique). Bien.
Mais dans cette annonce il y a aussi ce qui relève de l'essentiel. Et l'essentiel est invisible pour les yeux. Et la vérité est ailleurs. Je m'égare. L'essentiel c'est que, en lui-même, ce critère de fiabilité ou de vérifiabilité, s'il est entendable, opérable et admissible à l'échelle d'un projet encyclopédique (tout en étant profondément discutable comme je le faisais remarquer plus haut) l'est en revanche beaucoup moins au niveau d'un média (Google) dont je rappelle tout de même que le projet d'origine était "simplement" de donner accès, de manière la plus neutre possible, au maximum d'information disponible à l'échelle de la planète. Naturellement il y a longtemps que nous avons fait le deuil de la neutralité des algorithmes en général et de celui de Google en particulier. Mais le principe originel du Pagerank fut et demeure un principe neutre et objectivable (ce qui ne veut pas dire qu'il ne pouvait pas être parfois biaisé ou détourné - Google Bombing). Avec ce nouveau critère de "fiabilité", même si celui-ci n'a pas vocation - en tout cas pour l'instant - à se substituer à la critériologie première du Pagerank (les facteurs exogènes), c'est un nouveau cycle d'internalités qui se met en place :
- internalités de l'écosystème des services Google et de leur place au sein des SERP de ... Google
- et internalités des bases de données qui permettront, "d'algorithme à algorithme", "de Databank à Database" de calculer ce fameux "score de fiabilité".
Ce "score de fiabilité" est lui-même d'autant plus problématique qu'il reposera en grande partie sur l'analyse et l'extraction de faits issus de Wikipedia, qui dispose, comme nous l'avons vu plus haut, de sa propre épistémologie, de sa propre "vision" de la notion de "vérifiabilité".
En caricaturant à peine on se trouve donc dans la situation suivante : un algorithme va déterminer la fiabilité d'une page en s'appuyant sur une base de donnée au sein de laquelle la critère premier d'admissibilité d'un fait n'est pas celui de sa "véracité" mais celui de sa "notoriété" et celui de sa "vérifiabilité".
Et c'est parti pour le point Goodwin. Mais j'assume.
Je prends un exemple - volontairement - caricatural et polémique : comment l'algorithme de Google à la sauce "Trustworthiness" traitera-t-il et organisera-t-il les pages traitant du "fait" révisionniste ou négationniste ?
Nier l'existence des chambres à gaz est un fait. Ce fait est documenté dans Wikipédia (et c'est tout à fait normal) puisqu'il est vérifiable et - malheureusement - de notoriété publique. Mais - c'est le premier axiome de Wikipédia - il y est présenté dans la page qui lui est consacré en respectant une neutralité de point de vue. Neutralité de point de vue à laquelle des milliers de contributeurs humains veillent en permanence (et au sujet de laquelle ils s'écharpent souvent, mais c'est une autre histoire). Ce fait est-il pour autant ... fiable ?
La vérifiabilité d'un fait ne postule aucun engagement sur sa fiabilité. Et c'est tout l'enjeu autour des critères d'admissibilité de l'encyclopédie. La "fiabilité" de son côté, postule nécessairement un indice de confiance, de "crédit", qui se doit d'être très élevé. La "fiabilité" postule qu'un fait puisse faire autorité. C'est l'un des enjeux de la partie "documentaire" (au sens de documentation) du web, et de "l'ordre documentaire" qu'ont inauguré Google (à l'échelle des pages) puis Facebook (à l'échelle des profils). Dans ce cadre "documentaire" et "documenté", l'un des aspects essentiels du document est sa valeur de preuve (qui peut elle-même être falsifiée, mais c'est déjà suffisamment compliqué comme ça). Une valeur de preuve sur laquelle se construisent précisément les logiques d'autorité, logiques qui pourront, en feedback, venir à leur tour documenter et renforcer cette valeur de preuve ou la diminuer.
Et à ce titre, l'exemple du révisionnisme ou du négationnisme est le bon. Le fait négationniste est vérifiable. Il ne saurait en aucun cas être considéré comme "fiable". Il ne dispose précisément d'aucune valeur de preuve, ou, pour être plus précis, sa valeur de preuve est - heureusement - trop faible pour permettre de lui conférer une quelconque "autorité". Je répète. Le fait négationniste est vérifiable. Il ne saurait en aucun cas être considéré comme "fiable". Sauf par un algorithme qui inféoderait cette fiabilité à une critériologie triviale de simple "vérifiabilité".
Et nous voilà revenus au débat sur le rôle que jouent les algorithmes, sur le rôle de prescripteurs qu'assurent les moteurs au travers de ces mêmes algorithmes. En faisant en sorte, il y a déjà longtemps de cela, de limiter puis d'interdire le Google Bombing comme détournement algorithmique, Google avait permis que l'on ne puisse plus jamais, au sein en tout cas de ses SERPs, associer le nom de Georges W. Bush à celui d'un "miserable failure", ni celui de Nicolas Sarkozy à un trou du cul. Il avait empêché que Mein Kampf ne se trouve classé subitement au rayon jeunesse.
Juste un algorithme.
A l’échelle d’un graphe décentralisé de pages Google s’était, dès 1998, fixé pour mission d’en organiser la pertinence. A l’échelle de logiques d’audience qu’il a façonné au travers de son écosystème de services, Google a tenté d’organiser l’autorité (Authorship et Author Rank) avant d’y renoncer partiellement. A l’échelle d’un web désormais uniquement entretenu par des logiques attentionnelles qu’il a lui-même contribué à créer et qu’il contrôle pour l’essentiel, Google semble aujourd’hui se fixer pour mission d’organiser la confiance en l'assimilant à la "fiabilité". A notre échelle, la contrepartie est trop évidente et cruciale pour être laissée sous silence : elle nécessite que nous lui fassions ... aveuglément confiance.
Si ce nouveau classement "endogène" reposant sur la fiabilité est un jour mis en place, Google devra alors prendre d'infinies précautions pour que, par contamination, la valeur de preuve ("fiabilité") de certains faits uniquement vérifiables ne s'étende pas à des requêtes documentaires relevant en premier lieu de logiques "d'autorités confiantes".
Mais vous me direz, et vous aurez raison, que c'est un problème qui s'est déjà posé ; qui se pose à chaque fois que l'on tente de répondre avant que les gens n'aient le temps de poser leurs questions ; que c'est ce qui arrive à chaque fois que l'on croit pouvoir faire confiance à un algorithme.
Les Justes sont ceux qui ont eu le courage de cacher des juifs pendant le seconde guerre mondiale. Que l'algorithme de Google soit également capable de cacher des juifs ne fera jamais de lui un algorithme juste, mais juste un algorithme.
Hubert et Bruce avaient raison, on ne sait plus trop à qui se fier ...
Merci pour cet article éclairant à divers égards.
Toutefois assimiler Wikipédia à du fact-checking paraît bien réducteur. Du point de vue documentaire on pourrait certes, si j'ai bien compris l'article, le réduire à un ensemble de connaissances référencées socialement consensuelles dans une économie de la vérification. Oui, mais quand même
Cela semble une vision assez figée de Wikipédia en un site cloisonné et d'un écosystème documentaire en réalité plus large est qui est déjà rentré dans une logique de flux, dont le site Wikipédia constitue la principale facette. WikiCommons nourrit directement les métamoteurs d'images par exemple. Surtout l'émergence de Wikidata marque un tournant important, à la fois par la structuration documentaire des contenus de Wikimédia, leur exposition et aussi par son autonomie de Wikipédia. Wikidata n'a que pour but d'être réutilisé et si ces réutilisations, hors des projets Wikimédia, sont encore bien rares, Google en abandonnant Freebase, qui nourissait -parmi d'autres ressources- le Knowledge Graph, y a clairement manifesté son intérêt. Cette logique de flux pour les contenus Wikimedia qui prennent consistance en symbiose avec d'autres ressources ou même en création algorithmique, se développe : informations contextuelles, néo-documents, outils de traduction, génération automatique de contenus ( https://tools.wmflabs.org/reasonator/?q=Q1339 ) avec la constitution d'un gigantesque hub libre des connaissances ( https://www.wikidata.org/wiki/Wikidata:List_of_properties/all#Authority_control ), réédition des contenus avec externalisation des catégorisations documentaires ( http://blog.wikimedia.de/2013/09/12/a-categorical-imperative/ ) ou tout récemment même insertion brute dans un projet de loi (ce qui est bien plus un aboutissement qu'un scandale ; manquait juste la référence). Amha, ni résistance, ni résilience mais plutôt dilution volontaire.
Rédigé par : Shonagon | 03 avr 2015 à 00:57
Bonjour Shonagon,
je vous accorde qu'assimiler WKP a du fact-checking est réducteur. Il s'agissait simplement de pointer la logique d'usage principale de l'encyclopédie auprès d'un grand nombre de ses utilisateurs. Merci pour les liens et pour la "dilution volontaire" qui me semble, en effet, être un beau projet et parfaitement raccord avec la notion de "bien commun" dans laquelle s'inscrit l'encyclopédie.
Rédigé par : ertzscheid olivier | 03 avr 2015 à 10:52