Le mouvement Wikimédia

Le mouvement Wikimédia
Derrière la planète Wikipédia se cache toute une galaxie !

De Lionel Scheepmans avec l’aide de la communauté Wikimédia.


Dans l’ombre du projet Wikipédia et depuis un peu plus de vingt-et-un ans déjà, s’est développé un mouvement social pratiquement inconnu que l'on nomme Wikimédia. Sa vision du futur est celle d' « un monde dans lequel chaque être humain peut librement prendre part au partage de la totalité des connaissances ». Responsable de près d’un millier de sites web dont Wikipédia et rassemblant plusieurs centaines de groupes et d’associations réparties dans le monde, ce mouvement est aujourd'hui le seul acteur à but non lucratif du top 50 des sites Web les plus fréquentés au monde. Un simple fait qui à lui seul permet d'affirmer que Wikimédia représente la face la plus visible d'une contre-culture héritée des pionniers du Net et du mouvement des logiciels libres, opposée à la marchandisation du monde au profit d'une poignée d'acteurs politiques et économiques.

Découvrir le mouvement Wikimédia, c'est donc découvrir à plus petite échelle les enjeux auxquels doit faire face notre monde global et numérique en pleine mutation. Pour permettre cette découverte, ce livre, le premier à offrir une présentation complète de ce mouvement, se base sur les premiers chapitres d'une thèse de doctorat en science politique et sociale rédigée « en temps réel » sur le site Wikiversité. Une démarche tout à fait originale donc, de laquelle découle la production d'un livre augmenté qui combine le confort du papier avec la puissance du numérique grâce à l'usage de QR codes.

Avant-proposModifier

Ce travail de recherche se destine à être lu sur support papier, au format numérique ou directement départ d'un site Wiki où il fut initialement écrit. Dans l'idée d'augmenter les capacités des versions imprimées, des Codes QR lisibles au départ d'un smartphone, d'une tablette ou autres types d'appareils mobiles connectés, sont placés tout au long de l'ouvrage. Ces codes ont pour but d'accéder à des fichiers audios ou vidéos qu'il serait impossible d'imprimer., mais aussi à des pages Web mises à jour qui comprennent les images en couleur que l'on peut agrandir ainsi que de nombreux hyperliens qui permettent l'accès à d'autres contenus accessibles via le Net.

Pour ne pas encombrer les versions papier avec la présence d'hyperliens inutiles, tout en permettant de faire une économie de papier, les notes et références, expressément escamotables avant impression au niveau des pages Web, sont alors accessibles au départ de QR codes. Grâce aux indices de renvoi présents dans le texte imprimé, il est alors facile de consulter, via son smart phone ou tout autre appareil connecté, les notes et références habituellement situées en bas de page et qui auront pour avantage en format numérique de contenir de multiples hyperliens actifs.

Produire un travail de recherche sur un Wiki permet ensuite d'offrir à ses lecteurs la possibilité de commenter son contenu, de poser d'éventuelles questions, ou encore de signaler certaines erreurs sur des pages de discussions spécialement conçues à cet effet. Il suffit pour cela d'utiliser le QR Code repris ci-contre et, sans même devoir créer un compte utilisateur, modifier la page auquel il donne accès en écrivant le titre d'un message dans le cadre [Démarrer un nouveau sujet] pour écrire ensuite son contenu dans le cadre situé juste en dessous avant de cliquer sur le bouton [Ajouter un sujet de manière anonyme].

Pour les personnes qui voudraient profiter d'un fond sonore agréable et original durant leur lecture, ce nouveau QR code, que je place ci-contre, permet d'accéder à une page web paramétrable, qui diffuse une musique mélodieuse composée de sons spécifiques à chaque modification apportée à un projet Wikimédia et lors de chaque création d'un nouveau compte utilisateur. Cette ambiance sonore relaxante constitue ainsi une dernière dimension immersive à cet ouvrage augmenté que je vous souhaite de découvrir avec beaucoup de plaisirs.Pour les personnes qui voudraient profiter d'un fond sonore agréable et original durant leur lecture, ce nouveau QR code, que je place ci-contre, permet d'accéder à une page web paramétrable, qui diffuse une musique mélodieuse composée de sons spécifiques à chaque modification apportée à un projet Wikimédia et lors de chaque création d'un nouveau compte utilisateur. Cette ambiance sonore relaxante constitue ainsi une dernière dimension immersive à cet ouvrage augmenté que je vous souhaite de découvrir avec beaucoup de plaisirs.

Introduction : Wikipédia n’est pas WikimédiaModifier

Modèle:Le mouvement Wikimédia/Introduction

La naissance du mouvement WikimédiaModifier

Il existe dans l’espace Web, d’innombrables archives à partir desquelles il est possible de revivre les événements qui ont conduit à la naissance du mouvement Wikimédia. Toute cette « préhistoire », je l'ai découverte, pour ma part, dès 2005 et en grande partie grâce au site Framasoft[1] qui fut créé par un réseau d’éducation populaire plus ou moins un an avant la version francophone de Wikipédia. En parcourant les pages de ce site web, je partis ainsi à la découverte de tous les épisodes du développement des systèmes informatiques, d’Internet et de leurs applications, qui finirent par constituer aujourd'hui les racines du mouvement Wikimédia. C’était lors de mes premiers pas sur le Net et peu de temps après la démocratisation de l’ADSL dans mon pays. Désireux de découvrir ce nouvel espace qui s'offrait à nous, je venais de faire l’acquisition d’un ordinateur d’occasion équipé d’un microprocesseur Pentium tournant sur le système d’exploitation Windows XP.

Dans ma situation, le site Framasoft avait retenu toute mon attention, puisqu’il répertoriait une liste de logiciels librement et légalement téléchargeables, alors que dans mon entourage mes connaissances utilisaient généralement des versions « craquées » de logiciels commerciaux. Après avoir profité de cette gratuité de manière légitime, je me suis ensuite intéressé à la philosophie de partage qui en était à l’origine. Au fil de mes lectures, j’ai fini par découvrir l’existence du mouvement du logiciel libre, ainsi que la philosophie de Richard Stallman qui en fut l’initiateur. En reprenant des études sur le tard, j'ai ensuite approfondi mes recherches en rédigeant un premier travail sur le management dans la création de produits numériques[2]. C'était en première année de bachelier et cinq ans avant que je réalise une ethnographie du projet Wikipédia en français en tant que travail de fin de Master en anthropologie[3].

C’est donc sur base de ces premiers travaux de recherche, et bien d’autres réalisés à la suite de mon parcours universitaire[4], que repose cette présentation de la préhistoire du mouvement Wikimédia. Au travers de cette petite traversée historique, nous allons découvrir les origines d’une révolution culturelle, ou plutôt « contre-culturelle », puisqu'elle s'oppose à ce que Karl Polaniy[5] décrivait déjà en son temps comme un « libéralisme de marché qui subordonne les objectifs humains à la logique d’un mécanisme de marché impersonnel »[6]. Ce voyage remonte jusqu'à la contre-culture des années 1960 afin de redécouvrir des évènements souvent oubliés, tels que la naissance du mouvement du logiciel libre, sans lesquels pourtant, le mouvement Wikimédia, qui en est l'héritier direct, n'aurait jamais vu le jour.

L’écoumène numériqueModifier

Toutes les archives numériques consultées pour cet ouvrage font partie d’un espace informatique bien plus vaste qu'il me plaît d'intituler « écoumène numérique ». Je vois cet espace situé à l'intérieur de tout le matériel informatique produit sur terre et dont la croissance est phénoménale, puisqu'à chaque seconde de cette fin d’année 2021, treize nouveaux ordinateurs sont vendus sur le marché mondial[7]. Parler d’écoumène numérique, n'est rien d'autre que de faire référence à l'écoumène terrestre ou géographique dans le but de désigner la partie « anthropisée » de l'espace informatique mondial. Un espace numérique dans lequel prirent naissance des interactions entre les êtres humains, mais également, entre les êtres humains et des programmes informatiques[8].

Certains voient dans le Système d’information géographique numérique (SIG) une représentation numérique de l’écoumène[9]. Mais « l'écoumène numérique » est tout autre, puisqu'il représente un prolongement de l'écoumène terrestre au sein de l'espace informatique. Un espace qui se situe en fin de compte à l’intersection de deux espaces répertoriés par Vladimir Vernadski que sont la noosphère, réputée sphère de la pensée et la technosphère, définie comme sphère résultante des activités humaines. À cela, devrait-on peut-être ajouter l’atmosphère qui est parcourue par des ondes communicationnelles électromagnétiques. Sans oublier non plus que c'est de la lithosphère que proviennent la plupart des matières nécessaires à la fabrication des composants informatiques. Et en gardant aussi à l'esprit qu'avec l'apparition du génie génétique et des sciences qui lui sont apparentées, la frontière qui sépare la biosphère de la technosphère devient de plus en plus ténue.

Jusqu’à ce jour, l’écoumène numérique ne pourrait donc être considéré comme quelque chose de vivant au sens biologique du terme, mais peut l’être pleinement au niveau socio-historique. Comment le voir autrement d’ailleurs, puisque dans ce nouvel écoumène se déroule une part toujours plus grande des activités sociales humaines qui, une fois archivées, se transforment en documents historiques. De plus, l’écoumène numérique est aujourd’hui devenu un lieu privilégié pour le stockage et le partage des anciennes archives, mais également tout type d’artefacts pouvant être numérisés. Ce stockage et ce partage des « traces numériques »[10] produites par l’humanité semblent d’ailleurs ne pas avoir de limite théorique.

Selon Arjun Appadurai, pour qui « la mondialisation de la connaissance » appelle à « la connaissance de la mondialisation »[11], cette révolution simultanément technique et sociale que constitue l’émergence d’un écoumène numérique, nécessite tout un travail d’analyse et de réflexion[12]. Une chose qui me semble déjà avoir été entamée par le géographe Boris Beaude si l’on en juge par cet extrait d’ouvrage[13] :

Internet est le seul espace que nous ayons toujours en commun ! Bien qu’il se limite à des relations informationnelles, cette qualité suffit à lui conférer une efficacité considérable. On a longtemps commis l’erreur de ne pas le considérer comme un espace, mais comme une simple technologie de communication. Or, l’espace est une composante fondamentale de notre existence. Il ne sert pas de cadre ou de support à notre relation au Monde, il est notre relation au Monde. Souvent, nous pensons l’espace comme ce qui est là, autour de nous. Mais, ce qui est autour de nous (les objets, les individus, notre environnement biophysique ou social) est situé, tout comme nous. L’espace ne commence pas hors de nous, car nous serions dès lors toujours l’espace de quelqu’un d’autre. L’espace, ce n’est que l’ordre des choses, leurs relations et leur agencement. Internet est un espace en ce sens, le plus fort, le plus puissant, celui qui conditionne notre expérience du Monde, notre capacité à agir. C’est en relation avec ce qui nous entoure que nous existons, que nous nous projetons et que nous vivons. Internet est en cela l’un des plus puissants espaces qui organisent le monde contemporain.

Ceci étant dit, utiliser le terme « Internet » de façon générique pour décrire l’écoumène numérique ne me semblerait pas approprié. Selon ma vision des choses, l’écoumène numérique rassemble tous les systèmes informatiques et non seulement ceux qui sont connectés à Internet. Pourquoi en effet les ordinateurs personnels, smartphones, ou autres types d’ordinateurs ou terminaux non connectés au réseau Internet, ne feraient-ils pas partie de l’écoumène numérique ? Ceci alors que le mot Internet à lui seul, ne désigne qu’un réseau informatique parmi de nombreux autres de type intranet ou même extranet si l’on met à part la partie non publique du réseau Internet. Au même titre que tout autre réseau informatique, Internet ne représente en fait qu'un lieu de transit de l'information, composé uniquement de câbles et d’ondes, d’émetteurs et de récepteurs, de nœuds, de commutateurs, de routeurs, de points d'échange, etc., mais pas réellement selon moi, un espace de vie à proprement parler.

 
Fig. 2.1. Photo prise en mars 1957 au Centre de recherche Langley sur laquelle apparaissent une femme et un homme actifs sur une machine de traitement électronique de données IBM type 704 utilisée dans la recherche aéronautique (Source : https://w.wiki/377h).

Dans les faits, il me semble évident que cette espace de vie se situe au sein de la mémoire de masse informatique composée de tous types de supports dit non volatiles, disques durs internes ou externes, CD et DVD, clefs USB, etc. Il suffit d'ailleurs d'en imaginer une destruction complète pour s'apercevoir à quel point l'écoumène numérique est devenu important de nos jours. Imaginons un instant. Si une immense partie des informations bancaires et administratives disparaissait, combien de défaillances paralyseraient le monde industrialisé ? Comment fonctionneraient les armées, les transports, les industries, la communication et tous les autres secteurs dépendants des systèmes informatiques ?

Ce serait une panne généralisée, un grand vide, et peut-être même, pour les plus nostalgiques d'entre nous, un retour salvateur aux sources, à la simplicité heureuse. Mais pour ceux qui voudraient le reconstruire, il faudrait alors rassembler tout ce qui aurait pu être sauvegardé dans les mémoires humaines et leurs extensions analogiques. Dans une première étape, réécrire tous les codes informatiques qui font tourner le hardware informatique mondial, pour ensuite remettre en place, si cela s'avère possible, tout ce que l'humain y avait sauvegardé.

À l'inverse, la destruction d’un réseau informatique quelconque n’entraînerait aucune perte d’information. Cela créerait juste une interruption du transfert des données, comme cela peut arriver lors d’une panne de courant. Dans ce cas précis et pour tout ordinateur qui fonctionne sans batteries et sans système de sauvegarde automatique, le risque réel de perte d’information se situe alors au niveau de la mémoire vive (RAM). Celle-ci n'a effectivement pas pour but de stocker de l'information à long terme, mais bien de rendre celle-ci plus rapidement accessible et transformable. D'où sa qualification de mémoire volatile.

On comprend donc que l’écoumène numérique s'est progressivement développé à la suite de l'apparition de cette nouvelle forme d'écriture que constitue le code informatique. Ce fut comme un nouveau début d'histoire pour notre humanité, mais dont l'évolution sociale à proprement parler mit du temps à se développer, puisque rappelons-le, les systèmes informatiques étaient initialement conçus pour résoudre des calculs mathématiques de grande envergure. Dans ce cadre, l'activité des informaticiens se limitait donc à communiquer en langage informatique avec les supercalculateurs.

Mais apparurent ensuite les premiers commentaires informatiques en langage naturel placé entre des balises, afin qu’il ne soit pas interprété par les machines. Ils constituèrent sans doute les premiers échanges entre êtres humains au cœur même de l'écoumène numérique. Avec l’arrivée des réseaux et de nouveaux protocoles de communication, l'échange de codes informatiques mais aussi de messages en langages naturels purent alors se faire entre différents postes informatiques situés à distance. C'était la naissance du courrier électronique, qui au niveau de son fonctionnement et en dehors des affichages en HTML et du cryptage, n'aura pas beaucoup évolué jusqu'à ce jour.

Grâce aux premiers logiciels de gestion de versions, sont ensuite apparus dans les entreprises, centres de recherche et universités, des projets collaboratifs entre informaticiens situés au quatre coins du monde. Dans la foulée du Web 2.0, cette pratique s'est alors développée dans des domaines qui n'étaient plus strictement liés à la production de code informatique. Le projet Wikipédia en est sans doute l'exemple le plus connu à ce jour, bien qu'il cohabite avec de nombreux autres projets collaboratifs moins connus. C'était au début des années 2000 et bien avant l'arrivée des réseaux sociaux et autres espaces numériques entièrement dédiés aux activités sociales et commerciales qui monopolisent l'espace Web de nos jours.

 
Fig 2.2. Personne équipée d’un visiocasque, d’un gant de données et d’une manette de jeux (source : https://w.wiki/4k5E).

De manière assez précoce, les jeux prirent une place importante dans l’espace numérique. Les premiers d'entre eux apparurent dans les labos d'informatique pour rejoindre ensuite les chambres d'ados qui avaient découvert cette nouvelle forme de loisir en fréquentant les salles d’arcade[14]. Vinrent ensuite les jeux en ligne massivement multijoueurs qui ont apporté une dimension sociale inédite à l'écoumène numérique en y créant des mondes virtuels dans lesquels des groupes d'autochtones digitaux se forment sur simple base d'affinités[15]. Plus tard encore arriva la réalité virtuelle, les centres qui lui sont dédiés, et ses mondes en réseaux accessibles et modifiables au départ d'une simple connexion Internet et les communautés qui s'y forment[16].

Tout cet univers du jeu fut ainsi particulièrement propice à la transformation de l’écoumène numérique en un espace de vie audiovisuel de plus en plus modulable à la suite de l'apparition de nouvelles interfaces qui rendent la communication entre les êtres humains et les machines informatiques de plus en plus naturelle. La notion même de Métavers finit par voir le jour en tant qu'univers parallèle à l'espace physique[17], tandis que le développement de la réalité augmentée laisse présager une frontière sensitive toujours plus ténue entre l'écoumène géographique et l'écoumène terrestre.

Certaines productions cinématographiques ont remarquablement illustré, voire anticipé, l'évolution de l'écoumène numérique. Comme premier exemple, il y a le film Tron, de Steven Lisgerger, qui fut le premier en 1982 à mettre en scène, au sein même du système informatique, des êtres humains en relations sociales avec des programmes informatiques et même, dans sa version de 2011, avec des êtres vivant uniquement au sein de l'écoumène numérique. Dans un autre style bien plus réaliste, le film Ready Player One de Steven Spielberg, illustre quant à lui, un espace de vie en réseau accessible à partir des technologies de réalité virtuelle. Au cœur de ce territoire numérique appelé « Oasis », une grande partie de l'humanité s'y retrouve connectée pour y vivre des expériences fantastiques en se « déconnectant » d'un monde géographique complètement chaotique. Sans compter que dans le registre du social, le cinéma n'aura pas hésité non plus à mettre en scène des sentiments amoureux entre êtres humains et intelligences artificielles dans des films tels que Her ou encore Free Guy.

Malheureusement, la description de l'écoumène numérique, telle qu’elle est offerte par le cinéma, est souvent beaucoup plus proche de l'univers du jeu[18] que de nos réalités quotidiennes. L'approche cinématographique n'offre donc pas selon moi une « re-description heuristique de la réalité »[19] qui permettrait d'instruire les spectateurs plutôt que de les divertir. Elle ne permet pas non plus d'aider ceux qui n'ont pas assimilé un minimum de jargon informatique, à comprendre l'enjeu que constitue le développement de l'écoumène numérique. Voici donc pourquoi j'ai opté pour ma part de repartir de l'image de la ville comme métaphore de l’écoumène numérique inspiré de l'écoumène géographique dont les enjeux sont mieux connu par le grand public.

Le village et la ville électronumériqueModifier

Dans le but d'aider les gens à mieux comprendre l'espace numérique qu'ils utilisent régulièrement, j’ai un jour eu l’idée de comparer à l'aide d’une « métaphore vive », le fonctionnement de l’informatique mondiale en réseau à une « ville électronumérique ». Cette expression me vint à l'esprit après avoir réalisé qu'il y avait d'importantes similitudes entre les deux concepts. La première d'entre elles est le fait que les deux espaces sont de purs produits de l’imagination humaine. La seconde réside dans cette compression du temps et de l'espace qu'autorise un accès, quasi instantané dans le cas du numérique, aux différents lieux et services. Tandis que la troisième enfin, tient au fait que les deux espaces ne connaissent pas réellement d'autre frontière que celle qui distingue l'espace privé de l'espace public.

Dans l'écoumène numérique, une infrastructure informatique modeste connectée à un réseau privé peut se comparer à un village. Dans celui-ci se retrouve un petit nombre de maisons ou bâtiments (ordinateurs) reliés par un réseau routier (réseaux intranet) fait de routes, chemins, sentiers, etc. (câble Ethernet, Wi-Fi, Bluetooth, etc.). Quand certains accès routiers permettent une connexion avec l'extérieur du village (Internet notamment), il est alors bon d'installer un poste de contrôle qui restreindra le transit aux visiteurs de confiance (pare-feu informatique). À l'intérieur d'un village (infrastructure informatique locale d'une entreprise ou autre organisme), tout le monde se connaît et se fait confiance. Toutefois, il est toujours possible de fermer à clef sa propriété (protéger l'accès à son ordinateur par un mot de passe) et même de fermer les rideaux de sa maison (chiffrer le contenu du disque dur). Si quelqu'un vient à forcer la grille d’entrée (forçage d’un mot de passe), il pourrait alors découvrir tout votre intérieur (disque dur) pour y détruire des choses, ou les prendre en photo (suppression ou copie des fichiers informatiques).

Une fois rentrée chez vous, une personne malveillante peut aussi installer certains systèmes discrets, dans le but de détruire vos biens ou d’espionner vos activités (Virus informatique). Il arrive même parfois que ces systèmes se trouvent cachés dans de nouveaux mobiliers (Cheval de Troie) ou qu'ils s'installent grâce à d'autres systèmes qui paralyseront votre système d'alarme (Bombe de décompression). Dans d'autres cas enfin, un système malveillant déjà en place peut aussi ouvrir les portes de chez vous (porte dérobée) pour permettre l'entrée de personnes ou d'autres systèmes malveillants. C'est pour cela que dans les maisons qui possèdent moins de portes munies de serrures (Windows en comparaison à GNU/Linux), il faut prendre le soin de détecter l'arrivée ou la présence de systèmes malveillants afin de les bloquer ou les éliminer (antivirus). Sans cela, et si l'on ne respecte pas certaines pratiques élémentaires de sécurité (Nétiquette), il est alors possible de transmettre ces systèmes malveillants lors de communications avec des voisins de confiance.

Utiliser la métaphore du « village planétaire », comme d'autres l'ont fait avant nous en référence à une certaine « Utopie de la communication »[20], permet donc de mieux comprendre le fonctionnement d'un réseau informatique privé. Mais, si l'on change d'échelle au niveau de cette infrastructure informatique mondiale, il devient alors plus pratique de mobiliser la métaphore d'une ville. Celle-ci serait donc une ville électronumérique (Infrastructure informatique mondiale interconnectée), dont l’accès, ne l’oublions pas, doit être négocié au niveau de ceux qui en ouvrent les portes (fournisseur d’accès à Internet). Un espace citadin, dans lequel il est bien sûr impossible de connaître tout le monde et encore moins, tout ce qui s’y passe.

Tout comme au village électronumérique, mais ici à une plus grande échelle, on trouve en ville toute une série d’objets qui communiquent entre eux (Internet des objets). Lorsque ces objets fonctionnent avec des systèmes propriétaires (logiciels propriétaires), il est bien souvent difficile, voire impossible, de connaître les informations qu'ils s'échangent. Mais, il existe aussi des objets qui fonctionnent avec des systèmes transparents (logiciels libres), dont les citadins les plus prudents font usage. Pour le reste, fort heureusement, une grande partie de ce qui se passe dans cette ville est conçu pour être humainement compréhensible (l'espace Web). Ce dernier espace se compose principalement de bâtiments publics (sites Web), composé de locaux divers (pages Web) que l’on peut répartir par étages (répertoires). À l'exception de constructions isolées (serveur domestique), ces bâtiments cohabitent bien souvent dans des rues (serveurs informatiques) regroupées par quartiers (hébergeur web).

Les bâtiments de l'espace public de la ville sont fabriqués grâce à des engins de construction (éditeur HTML). Tous ces travaux doivent être réalisés dans le respect de normes et d'une réglementation (hypertext Transfer Protocol) pour permettre une insertion harmonieuse et produire des adresses, soit en chiffre (adresse IP), soit en lettre (Uniform Resource Locator ou URL). Dans ce second cas de figure, cette adresse (URL absolue) indique la zone de la ville dans laquelle se situe le lieu (nom de domaine de premier niveau), ainsi que le nom du bâtiment (domaine de deuxième niveau). Elle indique ensuite le chemin à suivre (URL relative) pour rejoindre les différentes pièces (page web), en se rappelant que parfois elles peuvent être regroupées par étage (espaces de noms). Pour circuler d'un quartier à l'autre, on utilise un « réseau routier » (Internet) et un « véhicule » (navigateur Web) que l'on peut utiliser avec un assistant de navigation GPS (moteur de recherche). Lorsqu’un bâtiment est inconnu par les GPS, c’est qu’il se situe alors dans un quartier sombre ou profond de la ville (dark Web ou deep Web). Pour le joindre, il faut alors impérativement connaître son adresse exacte (IP ou URL) pour s'y rendre sans l'aide d'un GPS.

 
Fig. 2.3. Paysage urbain nocturne de Taipei, ville intelligente et capitale de Taïwan (source : https://w.wiki/4k5G)

Les GPS (moteurs de recherche), nous indiquent le chemin (nom de domaine) des lieux ou locaux que l’on recherche (sites web ou pages Web). Ils sont comparables à des taxis dont certains dépendent de grandes firmes commerciales (Google, Yahoo !, Microsoft Bing, etc.). Quand tel est le cas, le GPS n’hésite alors pas à diriger les voyageurs vers certains lieux (pages Web) qui appartiennent à des propriétaires qui ont rétribué les compagnies GPS pour qu'elles attirent vers eux la clientèle. Tant qu’à faire, les sociétés de GPS les moins scrupuleuses n’hésitent pas non plus à enregistrer la provenance, la destination et d’autres types d’informations personnelles en provenance de leurs clients. À la suite de quoi elles pourront ensuite vendre ces informations à des personnes ou organismes désireux de les utiliser à des fins commerciales, politiques ou autres.

Grâce à cette métaphore de la ville informatique, on peut aussi mieux comprendre comment certains changements urbanistiques peuvent directement affecter la vie des habitants (internautes). La construction d'une simple barrière fermée à clef (espace informatique privé), ou l'installation d’un Mosquito (contrôle parental) sont deux exemples bien connus. Ce qui l'est moins par contre, c'est l'installation de nombreuses caméras de surveillance dans les espaces publics par des entreprises ou des états (Économie de la surveillance). Pas besoin de se rendre dans une boite de nuit (site de rencontres) ou de fréquenter des réseaux sociaux pour être filmé et enregistré. Les caméras sont partout là où la récolte d'informations peut faire l'objet d'une vente ou d'un intérêt gouvernemental quelconque. Sans compter que dans l'écoumène numérique, au même titre que dans son homologue terrestre, on y parle aussi de cyberterrorisme ou de cyberguerre[21], et que cela suscite des mesures mises en place par les autorités telles que la création en France d'une cyber-armée[22].

Pendant que la surveillance s'organise discrètement, ce sont les systèmes d'échanges entre citadins qui sont pointés du doigt (Partage de fichiers en pair-à-pair). Échanger des choses entre voisins est évidemment mal vu et même condamnable pour peu qu'elles soient soumises à un copyright qui en interdit la pratique. D'où l'invention de nouveau systèmes qui empêchent l'utilisation de biens par des personnes autres que les acheteurs (Gestion des droits numériques). Pour le reste, il existe ensuite de nombreux services d'entreposage (cloud computing) de biens (fichiers informatiques). Chacun peut aussi disposer d'une boite postale (adresse électronique) que les plus grandes entreprises commerciales de la ville (géants du web) offrent gratuitement. Sauf que cette gratuité a un prix, car tout ce qui transite ou est stocké dans les quartiers et les immeubles de ces entreprises commerciales (serveurs informatiques) est susceptible d'être inspecté selon les conditions générales d'utilisation des services. Ce qui est enregistré lors de ces inspections (traces numériques) peut ensuite être traité de manière « synchronisée »[23] par des robots (algorithmes) ou des humains dans le but d'en tirer un profit quelconque.

À l’image du monde géographique, le monde numérique n’est donc pas parfait. Toutefois, il est rassurant de savoir que l'on peut y distinguer certaines zones dont l’indicateur routier (domaine de premier niveau) permet plus ou moins de savoir à quel type de bâtiment on a affaire. L’indication « .com » nous informera que l'on se trouve plutôt dans une zone plutôt réservée aux bâtiments commerciaux, alors que le « .org » sera plutôt réservé aux organisations et « .info » aux services d’informations. Avec le « .net », toutes ces zones de la cité sont ouvertes à qui veut s’y installer (domaine générique ouvert). À côté d’elles se trouvent par contre d’autres zones soumises à des restrictions d’installation sans pour autant faire l'objet d'une validation d'identité (domaine générique restreint). Parmi ces zones, on retrouve la « .biz » réservée au business, la « .name » réservée aux particuliers et la « .pro » réservée aux professionnels.

D’autres zones enfin, font l'objet d'un contrôle avant installation, comme c'est le cas pour la zone « .edu » réservée à l'éducation, « .gov » aux gouvernements, et « .mil » aux militaires. Ceci sans oublier finalement, les zones les plus connues qui sont aussi liées aux pays d'origine (domaine de premier niveau national), avec pour exemple le « .fr » pour la France, le « .ch » pour la Suisse, etc. À l'intérieur de l'écoumène numérique, ces derniers indicateurs routiers sont en fait les seuls qui permettent de faire référence aux frontières étatiques présentes dans l’écoumène terrestre. Quant aux zones les plus techniques et pseudo-domaines, je préfère ne pas en parler ici pour ne pas compliquer les choses d'avantage.

Il faut ensuite rester conscient que certaines zones, quartiers ou bâtiments de la ville électronumérique peuvent être bloqués à partir des infrastructures terrestres qui constituent le réseau d'accès (Censure d'Internet). Alors que pour rentrer dans certains bâtiments, il faut d'abord s'identifier et fournir un mot de passe (login). Cependant, par-delà ces quelques cas de figure, la ville électronumérique apparait comme un lieu extrêmement cosmopolite et intrinsèquement transnational. C’est d'ailleurs là une des raisons pour lesquelles il n’est pas aisé de situer, au niveau terrestre, le serveur informatique ou le siège social d’une entreprise avec laquelle on traite. De nos jours, il est devenu fréquent de confier son carnet d'adresses électroniques ainsi que ses identifiants, mots de passe ou fichiers divers, sans savoir dans quelle partie du monde ils sont stockés. En cas de litige, il devient donc difficile de savoir à quelle juridiction nationale il faut s'adresser pour déposer une plainte, qui par ailleurs, pourra être traitée très différemment selon les pays concernés.

Audio 2.1. Lecture de l'article 10 trucs que j’ignorais sur Internet et mon ordi (source : https://w.wiki/4eCw)

Voici donc à peu de chose près, comment il est possible de décrire le système informatique en réseau au départ de la métaphore d'une ville. Mais gardons bien à l'esprit toutefois qu'il ne s'agit là que d'une métaphore, car dans la réalité ce n'est pas nous qui allons vers un site web (le bâtiment numérique), mais c'est bien une copie de ce site qui vient à nous pour s'enregistrer sur notre ordinateur et s'afficher au fur et à mesure qu'on le parcourt. Ce qui explique donc pourquoi un site web peut réagir différemment en fonction du navigateur que l'on utilise pour y accéder.

Pour parfaire sa compréhension du réseau Internet et du Web au départ de ce qui vient d'être dit, il est donc intéressant de poursuivre son apprentissage pour arriver finalement à se passer de l'usage de métaphores. Plusieurs associations existent d'ailleurs pour aider les personnes qui veulent se lancer dans cette démarche avec par exemple l'association Framasoft déjà présentée en début de chapitre. En laissant le soin à celle-ci de poursuivre le travail de vulgarisation et de sensibilisation aux enjeux de l'espace numérique (audio 2.1), repartons à présent de la métaphore de l'écoumène numérique pour comprendre les particularités des sites web hébergés par le mouvement Wikimédia. Car comme nous allons le voir, le quartier numérique Wikimédia, a peu de choses comparables aux autres quartiers de tailles similaires.

L'espace numérique WikimédiaModifier

Imaginons seulement un immense quartier (serveurs informatiques de la Fondation Wikimedia[24]), dans lequel sont rassemblés près d’un millier de bâtiments (sites web) que l’on peut visiter librement et gratuitement. Et, imaginons ensuite qu’à l’exception de quelques bâtiments administratifs (Wikimedia Foundation Governance Wiki, Wikimedia VRT), on peut aussi modifier tout ce qui se trouve à l'intérieur de chaque pièce de ces bâtiments. On peut soit apporter des choses nouvelles telles que des informations, photos, vidéos, documents sonores, mais également ranger ces choses, de manière plus esthétique ou plus compréhensible. On peut même tout effacer ! À la suite de quoi, par un tour de passe-passe, un robot informatique remettra tout comme avant, en vous demandant poliment, d'éviter ce genre de vandalisme. La prochaine fois peut-être ou dans le cas de dérangements plus subtils, ce sera sans doute un autre visiteur qui aura enrichi la pièce ou participé à son rangement qui pourrait faire la leçon.

Sachant ceci, il est évident que toutes les richesses partagées dans les bâtiments Wikimédia doivent être surveillées et chose des plus surprenantes, tout le monde peut le faire. Il suffit pour cela de rejoindre le mouvement Wikimédia, en créant un compte utilisateur. Grâce à cela, on peut alors s’abonner à un système de notification qui nous envoie un message ou un courriel à chaque fois qu'une des pièces reprises dans notre liste de suivi se trouve modifiée. Pas même besoin de fournir une adresse ou un numéro de téléphone. Les seules informations personnelles récoltées pour permettre le bon fonctionnement du quartier Wikimédia, en dehors de votre adresse de provenance (adresse IP) qui de toute façon devient secrète une fois enregistrée, sont celles affichées publiquement par les bénévoles. Comme elles sont librement accessibles, aucune de ces informations ne peut donc faire l'objet d'une commercialisation quelconque.

Pour les personnes qui ont la chance de pouvoir rejoindre l’écoumène numérique, le quartier Wikimédia apparait donc comme le plus grand des quartiers libres dédié au partage de la connaissance. Sa partie la plus connue aujourd'hui est composée de centaines de bâtiments encyclopédiques répertoriés par langues (Wikipédia). Derrière ceux-ci et toujours classées par langues, se situent ensuite de nombreuses bibliothèques générales (wikilivres et wikisource). D'autres versions linguistiques de bibliothèques thématiques composent ensuite le quartier. Chacune d'entre elles ont leur spécialité : traitement lexical (wiktionnaire), actualité (wikinews), pédagogie et recherche (wikiversité), voyages (wikivoyage), êtres vivants (wikispecies) et citations d'auteurs (wikiquote). Sans oublier non plus, que tous ces bâtiments sont enrichis à partir d'un énorme musée d’archives visuelles et sonores (Wikimedia commons) et d'une immense banque d'informations factuelles (wikidata).

Chose plus exceptionnelle encore, il est permis à chacun, sans même en demander l'autorisation, de passer du statut de lecteur à celui d'auteur. Comme il est de la même manière possible de devenir bibliothécaire bénévole. Il suffit pour cela de passer les portes qui mènent aux coulisses et réserves des bâtiments en changeant d'étage (espace de noms) pour découvrir toutes les activités de la communauté bénévoles et y prendre part. Dans d'autres bâtiments, on peut même s'improviser chercheur ou technicien en rejoignant des centres de recherche et de gestion logistique (MediaWiki, Wikitech, Phabricator, etc.). Ou pourquoi pas, rejoindre le centre administratif et de gouvernance du quartier Wikimédia (Meta-Wiki), ou le centre de traitement et de tri postal (Wikimedia VRT), ou même l'espace d'informations pour le recrutement de nouveaux bénévoles (Wikimedia outreach).

Tout ceci explique donc pourquoi le mouvement Wikimédia apparait comme l'une des plus grandes utopies[25][26] du début du XXIᵉ siècle. Un mouvement social qui a permis la création du plus grand espace libre de la cité électronumérique, sur une base complètement bénévole par rapport à son contenu. Face à ce qui peut être considéré comme l'une des plus grandes organisations mondiales bénévoles et non marchandes, si pas la plus grande, de l'histoire d'Internet, une question qui nous vient tout naturellement à l'esprit. Comment tout cela fut-il rendu possible ?

Les logiciels libresModifier

Les épisodes qui se succédèrent dans le développement de l'écoumène numérique sont complètement passionnants pour peu que l'on se place dans la peau d'une personne qui vivait il y a quarante ans. L'histoire de Wikimédia fait bien sûr partie de ces épisodes, mais avant cela, il y en eut bien d'autres sans lesquels le mouvement n'aurait jamais pu voir le jour. L'un d'entre eux débuta en septembre 1983, lorsqu'un programmeur du Massachsetts Institute of Technology (MIT) appelé Richard Stallman, déposa un message original dans la newsletter net.unix-wizards destinée aux utilisateurs du système d'exploitation Unix. C'était un appel à soutien pour la création d'un nouveau système d'exploitation intitulé GNU qui consistait à produire une suite de programmes à installer sur un ordinateur et dans le but de les offrir, librement et gratuitement, à tous ceux qui voudraient les utiliser[27]. Dans son message transmis via ARPANET, le premier réseau informatique de longue distance qui précéda Internet, Stallman mobilise la règle d'or pour décrire sa motivation[28]. Il s'exprime en ces termes :

Je considère comme une règle d'or que si j'apprécie un programme je dois le partager avec d'autres personnes qui l'apprécient. Je ne peux pas en bonne conscience signer un accord de non-divulgation ni un accord de licence de logiciel. Afin de pouvoir continuer à utiliser les ordinateurs sans violer mes principes, j'ai décidé de rassembler une quantité suffisante de logiciels libres, de manière à pouvoir m'en tirer sans aucun logiciel qui ne soit pas libre.

Le projet de Stallman, qui reçut rapidement le soutien nécessaire à son accomplissement, était en fait une réaction à l'arrivée des logiciels propriétaires qui, selon le projet GNU[29], ne respectaient pas les quatre libertés fondamentales de leurs utilisateurs :

La liberté d'exécuter le programme, pour tous les usages (liberté 0).

La liberté d'étudier le fonctionnement du programme, et de l'adapter à vos besoins (liberté 1). Pour ceci l'accès au code source est une condition requise.

La liberté de redistribuer des copies, donc d'aider votre voisin, (liberté 2).

La liberté d'améliorer le programme, et de publier vos améliorations, pour en faire profiter toute la communauté (liberté 3). Pour ceci l'accès au code source est une condition requise.

Il faut en effet savoir qu'à cette époque, le marché de l'informatique était en pleine mutation, et que le partage habituel des programmes et codes informatiques entre les rares étudiants ou chercheurs qui bénéficiaient d'un accès à un ordinateur était en train de disparaitre. Cette disparition était liée à la commercialisation croissante des logiciels informatiques couplée à l'apparition de nouveaux brevets, copyright et autres moyens techniques et juridiques destinés à privatiser leurs codes sources. Les clauses de non-divulgation firent alors leur apparition dans les contrats des employés des firmes commerciales et eurent pour effet de remplacer le climat de solidarité et d'entraide qui existait précédemment dans le monde de la recherche en informatique par une nouvelle ambiance faite de concurrence et de compétitivité.

 
Fig. 2.4. Commodore 64 avec disquette et lecteur (Source : https://w.wiki/377 g)

Cette mutation était sans aucun doute liée à l'émergence d'un nouveau marché, créé par l'essor des premiers ordinateurs domestiques. En 1982, le commodore 64, fut et resta le modèle le plus vendu au monde selon le livre Guiness des records, avec plus de 17 millions d'exemplaires[30]. Juste avant cela, en 1981, l'IBM Personal computer avait déjà fait son apparition en offrant une architecture ouverte qui servit de modèle pour toute une gamme d'ordinateurs que l'on nomme encore de nos jours PC. Ces nouveaux types d'ordinateurs de taille réduite répondaient au besoin d'embarquer du matériel informatique à l'intérieur des engins de l'industrie aérospatiale. Leur mise au point ne put cependant se faire qu'après l'arrivée des premiers circuits intégrés. Inaccessibles au niveau des particuliers lors de leur apparition en raison de leur prix exorbitant, leurs coûts se réduisirent progressivement tout au long des années 70, jusqu'à finalement permettre la fabrication d'ordinateurs domestiques en début d'année 80.

Durant l'année 1975, une société répondant au nom de Microsoft fut créée dans une optique diamétralement opposée à celle du projet GNU. Sa recherche obstinée d'un monopole commercial fut identifiée comme « hold-up planétaire » dans un ouvrage rédigé en 1998 dans lequel la journaliste Dominique Nora interroge le maître de conférences en informatique Roberto Di Cosmo. À la lecture de celui-ci, on découvre qu'à cette époque, « 41 % des bénéfices des dix premiers mondiaux du logiciel » étaient réalisés par cette société et que les systèmes d'exploitation de Microsoft équipaient plus de 85 % des micro-ordinateurs de la planète »[31]. Plus de 20 ans plus tard, cette situation de quasi-monopole reste toujours d'actualité avec 76.56 % des ordinateurs de bureau fonctionnant sur Windows[32] et 70 % de la fréquentation du Web en provenance des systèmes Microsoft[33].

Ce monopole fut rendu possible grâce à la signature d'un contrat entre IBM, constructeur des premiers ordinateurs personnels (PC) et la compagnie Microsoft, choisie pour fournir le système d'exploitation nécessaire au fonctionnement de ces ordinateurs. Le programme installé par Microsoft provenait du Q-DOS, un acronyme humoristique de « Quick and Dirty Operating System »[34] préalablement racheté à la PME Seattle Computer, pour la somme de 50 000 dollars avant d'être rebaptisé MS-DOS à la suite de quelques modifications qui auront permis d'honorer le contrat avec IBM. Comme l'explique très bien Di Cosmo[31] :

IBM n'a jamais pris cette affaire de PC au sérieux : le mammouth n'a pas pris la peine d'acheter MS-DOS, ni même de s'en assurer l'exclusivité. Résultat : Microsoft a ensuite pu vendre MS-DOS – puis son successeur Windows – à tous les concurrents de « Big Blue », comme on surnommait alors IBM. À l'époque, les constructeurs de machines dominaient l'industrie. Personne ne se doutait qu'avec la standardisation autour des produits Intel et Microsoft et l'apparition des cloneurs asiatiques, tous les profits – et le pouvoir – de la micro-informatique se concentreraient dans les puces et les systèmes d'exploitation.

En parlant de puces, Di Cosmo fait ici allusion à un autre monopole, moins connu peut-être, apparu cette fois sur le marché des circuits intégrés. Il s'agit de celui de la société Intel Corporation le premier fabricant mondial de semi-conducteurs destinés à la production de matériel informatique (microprocesseurs, mémoires flash, etc.). À titre indicatif, cette entreprise a atteint un record de 96.6 % sur le marché des serveurs informatiques en 2015[35]. Tout comme celui de Microsoft, ce monopole fera l'objet de contentieux portant sur des pratiques anticoncurrentielles. Une situation face à laquelle Intel n'hésitera pas en 2009, à verser 1.25 milliard de dollars à la société Advanced Micro Devices (AMD) pour qu'elle abandonne ses poursuites[36].

Mais, pendant que Microsoft et Intel développaient leurs monopoles économiques, un nouvel évènement majeur allait marquer l'histoire du logiciel libre. Son déclenchement fut à nouveau un appel à contribution, posté cette fois le 25 août 1991 par Linus Torvalds, un jeune étudiant en informatique de 21 ans. Le message fut cette fois envoyé via le système de messagerie Usenet, par la liste de diffusion du système d'exploitation MInix, une sorte de UNIX simplifiée dans un but didactique par Andrew Tanenbaum. Loin d'imaginer que cela ferait de lui une nouvelle célébrité dans le monde du Libre[37], Linus avait posté un modeste message qui commençait par le paragraphe suivant[38] :

Je fais un système d'exploitation (gratuit) (juste un hobby, ne sera pas grand et professionnel comme gnu) pour les clones 386(486) AT. Ce projet est en cours depuis avril et commence à se préparer. J'aimerais avoir un retour sur ce que les gens aiment ou n'aiment pas dans minix, car mon système d'exploitation lui ressemble un peu (même disposition physique du système de fichiers (pour des raisons pratiques) entre autres choses).[39]

 
Fig. 2.5. À gauche la mascotte du projet GNU ; à droite celle du projet Linux, appelée Tux (source : https://w.wiki/377i)

Bien qu'il fût présenté comme un passe-temps, le projet répondant au nom de « Linux », fut rapidement soutenu par des milliers de programmeurs de par le monde, pour devenir bientôt la pièce manquante du projet GNU. Le système d'exploitation développé par Richard Stallman n'avait effectivement pas encore terminé la mise au point de Hurd, son noyau de système d'exploitation. Cette partie du code informatique responsable de la communication entre les logiciels et le matériel informatique fut donc fournie par le projet Linux. La fusion du code produit par le projet GNU et celui du projet Linux permit donc rapidement de mettre au point un système d'exploitation complet, stable et entièrement libre intitulé GNU/Linux.

À partir du code issu de l'union des deux projets, la communauté des développeurs aura ensuite vite fait de personnaliser les choses en créant de nombreuses variantes au système d'exploitation original que l'on appelle communément distributions. L'une de toutes ces distributions s'appelle Debian. Elle est la seule gratuite sans être produite par une entité commerciale[40] et elle fut aussi choisie pour activer les serveurs qui hébergent les projets Wikimédia[41]. En ayant pris connaissance de tout ceci, on comprend donc mieux comment le mouvement Wikimédia apparait comme héritier direct au niveau logistique et économique de certains produits issus du mouvement des logiciels libres.

Et à ce premier héritage s' en ajoute un autre, méthodologique cette fois, que j'ai découvert en lisant un article intitulé « La Cathédrale et le bazar »[42]. Dans cet écrit, Éric S. Raymond compare une organisation du travail telle que celle utilisée lors de la construction d'une « cathédrale », à l'organisation des marchés de type « bazar ». D'un côté se trouve une organisation pyramidale, rigide et statutairement hiérarchisée, comme on la voit souvent apparaître dans les entreprises. De l'autre côté se trouve une organisation horizontale, flexible et peu hiérarchisée statutairement, que Raymond a expérimentée lui-même dans le développement d'un logiciel libre. Dans la description de son expérience, il prétend ainsi s'être rallié au « style de développement de Linus Torvalds – distribuez vite et souvent, déléguez tout ce que vous pouvez déléguer, soyez ouvert jusqu'à la promiscuité »[43].

C'est donc ce dernier mode d'organisation qui m'apparut correspondre au mieux à ce que j'avais observé de la communauté des éditeurs actifs sur le projet Wikipédia francophone lors de la réalisation d'un travail de fin de master. Qualifié de « bazar libertaire » par le journal Le soir durant l'année 2012[44], le projet Wikipédia avait donc aussi hérité du mode organisationnel des logiciels libres. L'un des cinq principes fondateurs qui servit de base à la construction de l'encyclopédie semble d'ailleurs témoigner[45] en ce sens :

N'hésitez pas à contribuer même si vous ne connaissez pas l'ensemble des règles, et si vous en rencontrez une qui, dans votre situation, semble gêner à l'élaboration de l'encyclopédie, ignorez-la ou, mieux, corrigez-la.

Le mouvement Wikipédia est donc bel et bien l'héritier des valeurs d'universalité, de liberté, de décentralisation, de partage, de collaboration et de mérite décrites par Steven Levy dans son ouvrage L'Éthique des hackers[46]. Quant aux liens avec les logiciels libres, la venue de Richard Stallman en qualité d'invité de prestige lors de la première rencontre mondiale du mouvement Wikimédia de 2005, suffît à confirmer le rapprochement identitaire entre le mouvement Wikimédia et celui des logiciels libres. Cependant, les valeurs fondamentales défendues par les hackers et le mouvement des logiciels libres ne pouvaient suffire, techniquement parlant, à la création d'une encyclopédie libre par des millions de contributeurs éparpillés dans le monde. Pour qu'un tel projet puisse voir le jour, il faillait encore attendre qu'un réseau de communication mondial et gratuit d'utilisation se développe de telle sorte à rendre possible à moindres frais, une participation à l'échelle planétaire.

Le réseau mondial InternetModifier

Au départ d'une perspective purement technique, on peut considérer qu'Internet est né avec la suite des protocoles (TCP/IP) mis au point par Bob Kahn et Winton Cerf et dont la première mise en pratique fut réalisée en 1977[47], soit près de cinq ans après sa présentation en 1973, lors de la conférence sur les communications informatiques de l'International Network Working Group. Pour la suite, et contrairement à certaines idées reçues, le réseau Internet ne fut donc pas produit par les forces armées américaines, même s'il est vrai que celles-ci ont participé au financement de la Defense Advanced Research Projects Agency (DARPA)[47] qui fut à l'origine du réseau ⁣ARPANET, considéré aujourd'hui comme l’ancêtre d'Internet. Mais ce réseau pionnier fonctionnait avec le Network Control Protocol (NCP), un protocole différent de celui utilisé par Internet, qui fut élaboré en décembre 1970 par le Network Working Group, un groupe informel d'universitaires[48]. Ceci en soulignant au passage que les acteurs qui développèrent ARPANET, mirent au point une procédure de gestion des décisions intitulée Request For Comments (RFC ou appels à commentaires en français), qui est toujours aujourd'hui utilisée par le mouvement Wikimédia. Il s'agit là, d'un héritage important puisque les RFC représentaient « incontestablement l’un des symboles forts de la « culture technique » de l’Internet, marquée par l’égalitarisme, l’autogestion et la recherche collective de l’efficience. »[48]

Pendant que ces universitaires développaient leur propre façon de faire, l'armée américaine pour sa part fit le choix de développer son propre réseau appelé MILNET, en le séparant du réseau ARPANET qui, lui, restera un « réseau pour la recherche et le développement »[49]. Cette séparation s'effectua en 1983, précisément l'année où Richard Stallman lança le projet GNU via ARPANET à l'époque ou le réseau comprenait moins de 600 machines connectées[50]. C'est donc par la suite seulement, qu'Internet se sera développé jusqu'à produire ce vaste réseau mondial que l'on connaît aujourd'hui. Une tâche qui aura été accomplie en partie par l'Internet Society, une ONG créée en 1992, dans le but d'assurer l'entretien technique des réseaux informatiques et du respect des valeurs fondamentales du réseau[51].

Au vu de l'histoire d'Internet, le logiciel libre est donc apparu avant la naissance du réseau Internet mondial. Passer des centaines d'appareils connectés sur ARPANET aux milliards connectés à Internet à ce jour, ne put être réellement possible que lorsque le réseau mondial devint simultanément neutre, indépendant et ouvert à tout type d'utilisateurs et d'utilisations y compris commerciales. Pour rendre ce rêve possible, il fallut attendre que soient installées, à la fin des années 80, les premières Dorsales Internets transnationales. Celles-ci permirent notamment de franchir les océans pendant que le protocole TCP/IP finissait d'être adopté dans le monde entier. Michel Elie, pionnier de l'informatique et responsable de l'Observatoire des Usages de l'Internet, témoigne de cette époque dans un article intitulé « Quarante ans après : mais qui donc créa l'internet ? »[52] dont voici un extrait :

Le succès de l'internet, nous le devons aux bons choix initiaux et à la dynamique qui en est résultée : la collaboration de dizaine de milliers d'étudiants, ou de bénévoles apportant leur expertise, tels par exemple ces centaines de personnes qui enrichissent continuellement des encyclopédies en ligne telles que Wikipédia.

 
Fig. 2.6. Carte partielle d'Internet, créée sur base des données d’opte.org en date du 15 juin 2005 (source : https://w.wiki/377ᵉ)

Cette comparaison entre Internet et le projet Wikipédia est bien sûr très interpellante compte tenu du sujet abordé par cette présente recherche. Elle invite à interroger la manière dont la culture du logiciel libre et des développeurs d'Internet ont influencé le mouvement Wikimédia pour y faire ressurgir une nouvelle forme de la contre-culture des années 60. Ce mouvement social apparu aux États-Unis dans le contexte de la guerre du Viêt Nam, fut défini de la sorte par Théodore Roszak dans son ouvrage[53] titré : « Vers une contre-culture : Réflexions sur la société technocratique et l'opposition de la jeunesse »[54] :

Le projet essentiel de notre contre-culture : proclamer un nouveau ciel et une nouvelle terre, si vastes, si merveilleux que les prétentions démesurées de la technique soient réduites à n'occuper dans la vie humaine qu'une place inférieure et marginale. Créer et répandre une telle conception de la vie n'implique rien de moins que l'acceptation de nous ouvrir à l'imagination visionnaire. Nous devons être prêts à soutenir ce qu'affirment des personnes telles que Blake, à savoir que certains yeux ne voient pas le monde comme le voient le regard banal ou l'œil scientifique, mais le voient transformer, dans une lumière éclatante et, ce faisant, le voient tel qu'il est vraiment.

À la lecture de ce texte datant de 1970, il est intéressant de constater que cette contre-culture et le mouvement Wikimédia abordent tous deux dans leur vision cette idée d'« imaginer un monde »[55]. D'un autre côté, il semble complètement paradoxal qu'une contre-culture qui voit dans la technique une chose « inférieure et marginale » et qui porte sur la science un regard « banal », puisse avoir un quelconque lien avec la création d'Internet.

Pour résoudre ce paradoxe, il faut alors s'intéresser à l'ouvrage intitulé :« Aux sources de l'utopie numérique : De la contre-culture à la cyberculture, Stewart Brand, un homme d'influence »[56]. Dans ce livre qui retrace la vie de Steward Brand, on y découvre comment ce designer compréhensif observe les technologies qui se voient développées et converties en outils dédiés au bonheur humain[57]. À travers cet exemple, on voit alors comment le mouvement Hippie « utilisera tout ce qui était à sa disposition à l’époque pour parvenir à ses fins : LSD, spiritualités alternatives, mais également objets technologiques les plus en pointe grâce à l’influent Steward Brand, génial créateur d’un catalogue interactif, ancêtre analogique des groupes de discussions numérique qui émergeront des années plus tard. »[58]

En complément de cet ouvrage, on peut aussi se référer aux propos de David D. Clark qui, à mon sens, illustrent parfaitement la présence des schèmes de la contre-culture dans les pensées de ceux qui furent les précurseurs d'Internet. Lors d'une plénière de la 24ᵉ réunion du groupe de travail sur l'ingénierie Internet, David Clark prononça effectivement cette phase, qui restera inscrite dans les valeurs techniques et politiques des ingénieurs à qui il s'adressait[59] : « Nous récusons rois, présidents et votes. Nous croyons au consensus et aux programmes qui tournent »[60]. De ces deux phrases, on peut donc supposer que le mépris de la contre-culture des années 60 envers la technique et la science, se sera transformé en un refus d'autorité.

Il est par la suite évident que cette quête d'indépendance aura été transmise à la communauté Wikimédia qui comme cela a déjà été vu en introduction de ce travail de recherche, n'hésite pas un seul instant à s'opposer aux décisions prises par la Fondation au sujet de son changement de nom. Et alors que certaines associations telle la Quadrature du Net continue de lutter pour conserver la neutralité du réseau Internet, du côté Wikimédia, c'est un autre combat qui se joue pour préserver les projets éditoriaux de toute forme de contrôle élitiste ou gouvernemental. Suite à l'arrivée d'Internet ensuite, et bien avant l'apparition du projet Wikipédia, ce fut aussi au niveau de la création de l'espace Web en tant qu'application reposant sur le réseau Informatique que se déroula une nouvelle quête d'autonomie.

L’espace webModifier

 
Fig. 2.7. Photo de Tim Berners-Lee en 2014 (source : https://w.wiki/4LKE)

Une autre figure importante dans la préhistoire du mouvement Wikimédia est celle de Tim Berners-Lee l'inventeur du World Wide Web que l'on désigne souvent par l'expression « Web » ou « toile » en français. Actif au Conseil Européen pour la Recherche Nucléaire (CERN), ce chercheur eut la bonne idée de créer un espace d'échange public au cœur du réseau Internet. Pour cela, il mit au point un logiciel intitulé « WorldWideWeb » capable comme cela fut déjà décrit précédemment, de produire et de visiter des espaces numériques intitulés sites Web. Composés de pages Web, ces sites Web sont alors hébergés sur des ordinateurs séparés, mais tous reliés entre eux grâce au réseau Internet. Son programme fut rebaptisé Nexus par la suite, pour éviter la confusion avec l'expression World Wide Web[61].

Sur le Web et grâce à un système intitulé hypertexte, les pages Web peuvent indexer des informations présentes dans une même page, un même site, mais également sur des pages et des sites situés sur des ordinateurs distants. Pour permettre ce référencement d'information d'un ordinateur à un autre, Berners-Lee mit au point un protocole appelé Hypertext Transfer Protocol ou HTTP. Ce principe relativement simple en soi, permit ainsi la création de l'espace Web. Soit un espace global et numérique formé par l'ensemble de pages et sites Web interconnectés via le réseau Internet mais localisés sur de multiples ordinateurs répartis dans le monde.

Pour veiller au bon usage de l'espace web et au respect des règles et des protocoles de standardisation qui lui furent dédiés, Berners-Lee fonda alors l'association Internet Society. Celle-ci poursuivit ensuite son rôle de consortium international sous le sigle W3C. Ayant la Fondation Wikimedia parmi ses membres depuis 2019[62], cette organisation a pour devise : « un seul Web partout et pour tous »[63]. Si celle-ci semble bien naturelle à ce jour, il s'en est cependant fallu de peu pour que le premier éditeur de site WorldWideWeb et par conséquent, l'idée même du World Wide Web, ne devienne un produit commercial. À partir du 30 avril 1993, ce risque était effectivement très élevé, car le logiciel WorldWideWeb se trouvait dans le domaine public suite au dépôt de Robert Cailliau, l'assistant de Berners-Lee dans le développement du Web. Quentin Jardon explique cet épisode critique de la naissance du Web dans son ouvrage intitulé Alexandria et dont je cite l’extrait[64] ci-dessous :

Pour François, la philanthropie de Robert, c'est très sympa, mais ça expose le Web à d'horribles dangers. Une entreprise pourrait s'emparer du code source, corriger un minuscule bug, s'approprier le « nouveau » logiciel et enfin faire payer une licence à ses utilisateurs. L'ogre Microsoft, par exemple, serait du genre à flairer le bon plan pour écraser son ennemi Macintosh. Les détenteurs d'un PC devraient alors débourser un certain montant pour profiter des fonctionnalités du Web copyrighté Microsoft. Les détenteurs d'un Macintosh, eux, navigueraient sur un Web de plus en plus éloigné de celui vendu par Bill Gates, d'abord gratuit peut-être, avant d'être soumis lui aussi à une licence. […] En plus de devenir un territoire privé, le Web se balkaniserait entre les géants du secteur. […] Mais le jeune Bill Gates ne croit pas encore à la portée commerciale de ce système. […] Ce dédain provisoire est une bénédiction pour Tim et Robert, car la stratégie de Microsoft, au début des années 1990, obéit à la loi du "embrace, extend and stay at the top"[65]

Heureusement, en octobre 1994, François Flückiger eut la présence d'esprit de se rendre à l'Institut fédéral de la propriété intellectuelle suisse pour retirer du domaine public le code de l'éditeur HTML et le placer sous licence libre. Il le fit après avoir repris les responsabilités de Tim Berners-Lee qui avait quitté le CERN[66] pour présider le W3C. La licence libre eut ainsi pour effet d'apposer la propriété intellectuelle du CERN et d'interdire de placer sous brevet ou copyright toutes formes dérivées de l'invention de Berners-Lee par des acteurs désireux d'en tirer un profit commercial. De manière récursive et anticipative, ce dépôt sous licence libre du code source aura donc permis à l'espace Web d'éviter la bataille commerciale que l'on a pu observer par la suite au niveau des navigateurs Web.

Les navigateurs webModifier

L'espace Web une fois créé, l'offre sur le marché des navigateurs web s'est ensuite développée avec l'apparition de plusieurs logiciels aux performances diverses. Au départ du code et des fichiers disponibles sur les serveurs informatiques, les navigateurs doivent effectivement restituer les pages web dans leur interface graphique, et ils ne le font pas tous de la même manière, ni avec les mêmes ressources. Ces différences auront donc pour conséquence de créer une compétition entre les producteurs de navigateurs, établie sur la rapidité, la légèreté et la fiabilité de leur produit. Quant aux consommateurs, ils seront toujours à la recherche d'un navigateur capable d'afficher sur l'écran de leurs ordinateurs une page Web respectant le plus possible les désirs de son créateur ou administrateur, et ce, aux moindres frais possibles.

 
Fig. 2.8. Graphique illustrant l'évolution de la popularité d'usage des navigateurs Web de 2009 à 2020 avec en vert le navigateur Chrome, Bleue Microsoft et brune Firefox (source : https://w.wiki/377c)
 
Fig. 2.9. Graphique illustrant l'évolution de la popularité d'usage des navigateurs Web de 1996 à 2009 (sources : https://w.wiki/377b)

Le site 3WSchools chargé de l'étude du marché des navigateurs fournit un classement par pourcentage du nombre d'utilisateurs. Dans celui-ci, le logiciel Chrome de Google est en première position avec 80.4 %, Firefox de Mozilla en deuxième avec 7.1 %, edge/Internet explorer de Microsoft en troisième avec 5.2 %, Safari de Apple en quatrième avec 3.7 % et Opera de Opera Software en cinquième et dernière position avec 2.1 %[67]. Dans le courant du même mois, le site StatCounter[68] attribuait pour sa part les pourcentages suivants : 66.12 % à Chrome, 17.24 % à Safari, 3.98 % à Firefox, 3.18 % à Samsung Internet, 2.85 % à Edge et finalement 2.08 % à Opera[69]. Au regard de ces deux classements, le navigateur Chrome, malgré les reproches qui peuvent lui être attribués[70], apparaît donc finalement comme le logiciel préféré des utilisateurs depuis 2012 (figure 2.8). Ceci alors qu'avant 2010, le marché des navigateurs fut le théâtre d'une « bataille commerciale des navigateurs Web »[71] qui opposa l'entreprise Netscape Comunications à la firme Microsoft. Sans entrer dans des détails concernant l'évolution de l'usage des navigateurs Web[72], nous retiendrons ici qu'il ne fut pas difficile pour la société Microsoft de conquérir la presque totalité du marché en à peine cinq ans (figure 2.9).

Le processus fut amorcé dès le moment ou Microsoft prit tardivement conscience de l'enjeu commercial que représentait l'espace Web. La position de monopole de la firme, au niveau des systèmes d'exploitation, lui donna évidemment une puissance inégalable tant dans la distribution de son navigateur que dans le financement de son développement. Ce fut d'ailleurs la raison pour laquelle Microsoft fit l'objet d'un verdict de première instance validant le fait qu'elle avait abusé de sa position dominante au niveau des systèmes d'exploitation. Juste un petit obstacle à franchir, pourrions-nous dire, puisque cela n'empêcha pas l'entreprise d'atteindre la barre des 90 % de parts de marché, ni de se voir blanchir de toute accusation à la suite d'un recours en appel[73].

Entre-temps et pendant l'année 1998 la société Netscape Communication, reconnaissant sa défaite, avait déposé le code source de son navigateur sous licence libre et permit ainsi la naissance d'un nouveau navigateur intitulé Firefox[74]. Soutenu par la communauté libre au niveau de son développement, ce nouveau logiciel reprit petit à petit des parts de marché sur Internet explorer. Cependant, et comme cela fut déjà expliqué, l'arrivée de Google Chrome, un autre logiciel libre développé cette fois par la société commerciale Google, signa la fin d'un nouveau duel entre Firefox et Internet Explorer.

Cet épisode du développement de l'écoumène numérique permet donc de comprendre à quel point le logiciel libre peut être une alternative capable de concurrencer les plus grands acteurs commerciaux. Il permet ensuite de comprendre qu'un projet initialement commercial peut toujours se convertir en projet libre alors qu’inversement, une grande entreprise commerciale telle que Google, peut aussi tirer profit des logiciels libres. Il suffit pour cela effectivement d'abandonner l'idée de vendre des licences d'utilisation pour se concentrer uniquement sur le marché de la publicité et de la vente d'informations traitées et récoltées chez les utilisateurs. En dernier ressort, l'histoire des navigateurs aura enfin prouvé que l'utilisation des licences libres apparait tel un élément décisif sur le marché de l'informatique, tout en jouant un rôle clef au niveau de l'évolution des parts de marché en introduisant une nouvelle forme de compétitivité qui n'est pas soumise aux contraintes des entreprises commerciales.

Les licences libresModifier

L'autobiographie autorisée de Sam Williams intitulée :« Richard Stallman et la révolution du logiciel libre. »[75], décrit très bien comment Richard Stallman donna naissance au concept de licence libre. En 1985, et selon les conseils du juriste Mark Fischer, le fondateur du projet GNU trouva effectivement le moyen de protéger son programme d'éditeur de texte intitulé Emacs, en publiant la première version d'une licence libre intitulée Général Public Licence (GPL).

Durant l'année 1989, la firme Microsoft mit en œuvre tous ses moyens pour contrer cette licence. Cependant, grâce à la participation de John Gilmore et d'une grande communauté d'activistes hackers ainsi que de certains juristes tels que Jerry Cohen et Eben Moglen, la licence du logiciel Emacs finit par s'appliquer à tout type de logiciel. C'est donc pour cette raison que l'auteur de la biographie de Richard Stallman affirmera[75] avec raison que :

« La GPL apparaît comme l'un des meilleurs hacks de Stallman. Elle a créé un système de propriété collective à l'intérieur même des habituels murs du copyright. Surtout, elle a mis en lumière la possibilité de traiter de façon similaire « code » juridique et code logiciel. »

 
Fig. 2.10. Classification des licences d'exploitation des œuvres de l'esprit. (source : https://w.wiki/377Y).

Il faut de plus souligner le fait que la GPL permit l'apparition d'une composante essentielle sans laquelle la survie des logiciels libres aurait été, à coup sûr, compromise. Il s'agit là d'une clause de reproductibilité qualifiée de virale ou récursive qui sera par la suite baptisée « copyleft », traduite en français par « gauche d'auteur » et représenté graphiquement par un © inversé (ɔ). L'idée selon laquelle tout produit dérivé d'un logiciel libre doit être soumis à la même licence que le code source lui fut transmise par Don Hopkins lors d'échanges de courriers avec Stallman[76]. Tout comme l'épisode du « sauvetage » du Web, la clause du copyleft apparaît donc aujourd'hui encore, comme l'un des événements majeurs se rapportant au développement de l'écoumène numérique.

Selon le vœu de Stallman, le copyleft est donc la clause des licences libres qui se rapporte le plus aux questions éthiques et de libertés des utilisateurs[77]. En opposition apparut par la suite le concept d'open source popularisé par Éric Raymond, dont la vision porte davantage sur des questions techniques et de transparence du code dans une approche plus pragmatique et entrepreneuriale[78]. La différence entre free software et open source deviendra ensuite encore plus floue après l'arrivée de l'expression générique, Free/Libre Open Source Software (FLOSS). Tout un brouillard conceptuel donc, qui aura pour conséquence de détourner l'importance du concept de copyleft qui sans aucun doute doit être perçu comme très dérangeant pour tous ceux qui désirent faire du profit en exploitant le travail d’autrui.

Mais toujours est-il qu'au niveau des termes spécifiques attribués à une licence sous copyright, le copyleft se traduit par l'expression « Share alike », traduite en français par : « partage à l'identique ». Une façon synthétique de dire donc que toute reproduction d'une œuvre ou tout travail construit en partie d'une œuvre couverte par une licence faisant mention d'une clause copyleft devra être soumise à la même licence d'origine. Toute l'importance de cette clause réside donc dans le fait qu'elle est le seul moyen d'offrir un travail à la communauté d'utilisateurs, tout en le protégeant d'un détournement vers un copyright propriétaire et privateur (figure 2.10). En l'absence de cette clause, une œuvre peut effectivement être récupérée, puis modifiée, même de façon mineure, pour être ensuite soumise à un nouveau copyright qui fera mention de « tous droits réservés »[79]. Ce qui implique la plupart du temps un usage restrictif aux seules personnes qui auront rétribué le nouveau propriétaire des droits.

 
Fig. 2.11. Classement des différentes licences, de la plus ouverte à la moins ouverte (source : https://w.wiki/377T).

Afin de rendre les licences libres accessibles et utilisables par tous, une organisation internationale sans but lucratif intitulée Creative Commons vit le jour le 15 janvier 2001, précisément la même année que le projet Wikipédia. Son but était d'aider au « partage et la réutilisation de la créativité et des connaissances grâce à la fourniture d'outils juridiques gratuits »[80]. Pour ce faire, elle entreprit de distinguer toutes les différentes clauses pouvant être reprises par les licences libres, pour en produire un assortiment varié permettant de protéger des œuvres selon les souhaits de chacun (figure 2.11).

Il existe ensuite d'autres licences, telles que celles fournies par la Free Software Foundation, qui sont plus adaptées pour protéger du code informatique. Car contrairement à celles-ci, les licences Creative Commons ont plutôt pour objectif de protéger du texte, des photos, vidéos, musiques, base de données et autres productions de l'esprit apparentées[81]. Parmi toutes ces licences, le mouvement Wikimédia choisit d'appliquer la licence CC.BY.SA sur tous ses projets, à la seule exception du contenu de Wikidata, soumis dès le lancement du projet à la licence CC.0 tout comme par la suite, toutes les descriptions apportées aux fichiers téléchargés sur Wikimédia commons.

Lawrence Lessig, l'un des fondateurs de Creative Commons, qui en assure toujours la présidence, est lui aussi, devenu une personnalité marquante de la culture libre. Il fut à ce titre l'auteur d'un livre[82] et avant cela d'un célèbre article intitulé :« Code is law »[83] dont un extrait repris ci-dessous[84] permet de synthétiser en quelques mots la puissance du code informatique en termes d'autorité et de régulation :

Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s'il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l'accès à l'information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu'on commence à comprendre la nature de ce code, on se rend compte que, d'une myriade de manières, le code du cyberespace régule.

La protection du code informatique par les licences libres, ainsi que son accès en lecture à titre de contrôle, de correction ou d'amélioration, apparaissent donc comme deux événements majeurs dans la révolution numérique. C'est effectivement grâce à eux qu'il est possible aujourd'hui d'utiliser des logiciels qui ont peu de chance de trahir les intérêts de l'utilisateur pour servir ceux qui les écrivent ou en prennent possession[85]. Cependant, ce n'est pas l'adoption des licences libres par le mouvement Wikimédia qui permit, au niveau pratique, d'établir une collaboration simultanée entre des millions de personnes connectées à l'espace Web dans le but de produire des sites de partage de la connaissance. Pour que cela soit possible, tout en permettant à chacun d'exercer un contrôle mutuel sur l'ensemble des travaux, il fallut encore attendre l'apparition d'un nouveau type de logiciels d'édition collaborative de sites Web connus sous le nom de moteur de Wiki.

Les WikisModifier

 
Fig. 2.12. Photo de Ward Cunningham en 2011 (source : https://w.wiki/4LJt)

En mars 1995, apparut le premier logiciel Wiki intitulé WikiWikiWeb. Celui-ci fut placé sous licence libre, par son créateur Ward Cunningham, qui de ce fait permit la libre utilisation et réutilisation de son travail. Grâce à cela, de nombreux autres logiciels de type Wiki ont pu voir le jour en copiant ou s'inspirant de ce qui existait déjà. Toujours compte tenu de la clause copyleft apposée sur le travail initial, tous les nouveaux produits dérivés durent donc à leur tour reprendre la licence d'origine.

Parmi les différents logiciels Wiki disponibles, la société Bomis, qui finança le premier projet Wikipédia en anglais, choisit UseModWiki. Ce programme avait pour avantage de répondre à toutes les attentes, puisqu'il était en même temps gratuit, simple d'utilisation et peu gourmand en ressources informatiques. C'était donc somme toute, une véritable aubaine pour cette entreprise qui peu après le lancement d'un projet d'encyclopédie commerciale fut confrontée à de grosses difficultés financières.

Un an plus tard environ, le 25 janvier 2002, UseModWiki fut remplacé par un autre moteur de Wiki sans nom, plus performant et toujours produit sous licence libre[86]. Ce dernier fut amélioré par plusieurs programmeurs, dont Brion Vibber, le premier employé de la Fondation Wikimedia. Pour ces raisons sans doute, le logiciel fut finalement baptisé MediaWiki en partant d'un jeu de mots proposé par un contributeur de Wikipédia nommé Daniel Mayer. Par la suite et jusqu'à ce jour, ce fut donc la Fondation qui poursuivit le développement du logiciel avec le concours de nombreux employés, mais également de nombreux bénévoles, tous actifs sur la plate-forme mediawiki.org.

Grâce à ce soutien, des milliers d'autres projets et sites Web[87] situés en dehors du mouvement, peuvent ainsi profiter d'un logiciel libre situé en tête de classement des moteurs Wiki les plus utilisés[88]. Au vu de ce succès, ce sont d'ailleurs des certains de personnes et de gestionnaires de sites MediaWiki qui se rassemblent chaque année pour discuter de son développement et de ses usages[89]. Il existe bien sûr d'autres moteurs Wiki disponibles parmi les logiciels libres, tel que DocuWiki dont l'absence de base de données, la simplicité d'installation et d'usage l'aura rendu populaire pour de petits projets. Mais, dans le contexte du mouvement Wikimédia, les choses se gèrent à une tout autre échelle puisqu'il s'agissait dès le début de créer une encyclopédie libre et universelle.

L’encyclopédie libre et universelleModifier

Toutes ces innovations techniques présentées précédemment ont ainsi permis la création du premier projet Wikipédia en qualité de site Internet. Néanmoins, Wikipédia ne se résume pas à un simple site Web. C'est avant tout un projet, et pas des moindres, puisqu'il consiste à réaliser ce vieux rêve de notre humanité que représente le libre partage de la somme des connaissances humaines[90]. Sans entrer dans les détails de l'histoire, je me limiterai ici à rappeler que cette vision fut déjà partagée par Ptolémée Iᵉʳ dans le contexte de la création de la bibliothèque d'Alexandrie (305 – 283 av. J.-C.). Dans l'histoire plus récente il y eut aussi Denis Diderot (1713 – 1784) qui lança aussi l'Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. Puis, plus récemment encore et sans avoir fait les gros titres de l'histoire, Paul Otlet (1868 – 1944) se mit à rêver de répertorier tout le savoir planétaire dans un Mundaneum.

Bien que peu connu, ce Belge était pourtant cocréateur, en 1905, de la classification décimale universelle toujours en usage à ce jour au niveau des bibliothèques. Il rêvait pour le reste de cataloguer le monde. Son but n'était pas moins que de rassembler toutes les connaissances humaines sous la forme d'un gigantesque Répertoire bibliographique Universel[91]. À la lecture de son Traité de documentation »[92] paru en 1934, on découvre l'étrange songe visionnaire d'un « homme qui voulait classer le monde »[93] dont voici l'extrait :

Ici, la Table de Travail n'est plus chargée d'aucun livre. À leur place se dresse un écran et à portée un téléphone. Là-bas, au loin, dans un édifice immense, sont tous les livres et tous les renseignements, avec tout l'espace que requiert leur enregistrement et leur manutention, […] De là, on fait apparaître sur l'écran la page à lire pour connaître la question posée par téléphone avec ou sans fil. Un écran serait double, quadruple ou décuple s'il s'agissait de multiplier les textes et les documents à confronter simultanément ; il y aurait un haut-parleur si la vue devrait être aidée par une audition. Une telle hypothèse, un Wells certes l'aimerait. Utopie aujourd'hui parce qu'elle n'existe encore nulle part, mais elle pourrait devenir la réalité de demain pourvu que se perfectionnent encore nos méthodes et notre instrumentation.

 
Fig. 2.13. Photographie de l'intérieur du Répertoire Bibliographique Universel aux alentours de 1900 (source : https://w.wiki/377k)

Cette utopie telle qu'elle fut décrite par Otlet peut apparaître aujourd'hui quelque peu troublante. Pour la plupart des utilisateurs du réseau Internet de nos jours, trouver une information se résume effectivement à peu de chose près à ce songe visionnaire. Premièrement à allumer un écran d'ordinateur, ensuite poser une question dans un moteur de recherche, puis, se voir rediriger dans près de 88.7 % des cas, vers Wikipédia[94]. Au travers de cette méthode, c'est pratiquement tout le monde occidental qui découvrit Wikipédia.

Ce que les gens ignorent souvent par contre, c'est que cinq ans avant la naissance de Wikipédia, Aaron Swartz, à l'âge de douze ans seulement, avait déjà lancé une encyclopédie générée par ses utilisateurs[95]. Son site intitulé The Info Network, lui aura même valu la remise du ArsDigita Prize, une récompense pour les jeunes créateurs d'un projet « utiles, éducatifs collaboratifs et non commerciaux »[96]. Ce qui fut ensuite également oublié, c'est que l'expression « encyclopédie libre et universelle » fut écrite pour la première fois en 1998 par Richard Stallman dans un essai intitulé The Free Universal Encyclopedia and Learning Resource[97]. Près de deux ans avant qu'il ne le partage le 18 décembre 2000 sur la liste de diffusion du projet GNU. Un an avant la naissance de Wikipédia, voici une courte citation[98] de la manière dont il décrivait son idée projet :

Le World Wide Web a le potentiel de devenir une encyclopédie universelle couvrant tous les domaines de la connaissance et une bibliothèque complète de cours d'enseignement. Ce résultat pourrait être atteint sans effort particulier, si personne n'intervient. Mais les entreprises se mobilisent aujourd'hui pour orienter l'avenir vers une voie différente, dans laquelle elles contrôlent et limitent l'accès au matériel pédagogique, afin de soutirer de l'argent aux personnes qui veulent apprendre. […] Nous ne pouvons pas empêcher les entreprises de restreindre l'information qu'elles mettent à disposition ; ce que nous pouvons faire, c'est proposer une alternative. Nous devons lancer un mouvement pour développer une encyclopédie libre universelle, tout comme le mouvement des logiciels libres nous a donné le système d'exploitation libre GNU/Linux. L'encyclopédie libre fournira une alternative aux encyclopédies restreintes que les entreprises de médias rédigeront.[99]

Lorsque Stallman fait référence à un « mouvement pour développer une encyclopédie libre universelle », il anticipe donc, bien avant l'heure, la venue du mouvement Wikimédia qui ne sera reconnu que bien après la création du projet Wikipédia. Dans la soixantaine de paragraphes qui décrivent son projet, se trouvent ensuite des descriptions très proches des 5 principes fondateurs[100] apparus sur Wikipédia en anglais le 10 novembre 2001[101]. Le premier de ces principes consiste bien sûr à créer une encyclopédie. Le deuxième fait appel à une recherche de neutralité de point de vue, alors que Stallman stipulait déjà qu'« en cas de controverse, plusieurs points de vue seront représentés ». Le troisième principe garantit pour sa part la publication du contenu sous licence libre, une autre invention de Stallman. Le quatrième, à son tour, fait appel à un projet collaboratif, là où le hacker spécifiait que « tout le monde est le bienvenu pour écrire des articles ». Et, le cinquième, enfin, stipule qu'il n'y a pas d'autres règles fixes, une chose bien connue dans la philosophie des hackers. Ce dernier principe ne fut toutefois pas respecté par la Fondation Wikimedia, qui réfléchit dès 2011 à la mise en place de conditions d'utilisations pour ses projets[102]. Du côté des communautés d'éditeurs et de façon variable selon les projets et leurs versions linguistiques, c'est tout un lot de nouvelles règles et recommandations qui firent leur apparition[103] pour produire finalement ce qui ressemble fort à une ligne éditoriale.

À sa naissance, le projet Wikipédia ne fut donc pas une idée originale en soi, mais plutôt une opportunité saisie par la firme commerciale Bomis, d'enrichir son encyclopédie en ligne Nupedia. Nupedia fut créée avant Wikipédia et son écriture était assurée par des experts selon un processus éditorial formel[104]. En raison de sa lenteur et bien que son employeur Jimmy Wales manquât d'enthousiasme, Larry Sanger, docteur en philosophie et rédacteur en chef de Nupedia, réussit à faire installer un logiciel wiki sur les serveurs de l'entreprise[105].

Ainsi donc commença l'histoire de Wikipédia en date du 15 janvier 2001[106], précisément durant le même mois où est apparue l'encyclopédie libre universelle de Stallman. Intitulé GNUPedia. Celle-ci fut ensuite rebaptisée « GNE » compte tenu du fait que les noms de domaines gnupedia.com/net/org avaient déjà été achetés par Jimmy Wales[107]. Une démarche bien entendu surprenante lorsque l'on sait que Wales affirma un jour[108] : « n'avoir eu aucune connaissance directe de l'essai de Stallman lorsqu'il s'est lancé dans son projet d'encyclopédie »[109].

 
Fig. 2.14. Larry Sanger (sources : https://w.wiki/4LJJ)
 
Fig. 2.15. Jimmy Wales (sources : https://w.wiki/4LJF
 
Fig 2.16. Évolution du nombre d'articles sur Citizendium (sources : https://w.wiki/3VY8
 
Fig 2.17. Évolution du nombre d'articles sur Wikipédia (source : https://w.wiki/3VYC)

Il est vrai que le site GNE ne se présentait pas comme une encyclopédie, mais plutôt comme un blog collectif[110]. Certains qualifieront le projet de base de connaissance[111], mais sa page d'accueil stipulait toutefois qu'il s'agissait d'une bibliothèque d'opinions[112]. Même si le projet engagea une personne pour assumer sa modération, cette tâche s’avéra très compliquée. Du côté de Wikipédia par contre et très probablement grâce aux spécificités de l’environnement Wiki, une certaine auto-organisation se mit petit à petit en place. Probablement en raison de la concurrence du site GNE, Jimmy Wales décida d'abandonner le copyright que Bomis détenait sur son encyclopédie au travers d'une licence Nupedia Open Content[113] en la remplaçant par la licence de documentation libre GNU. Une action stratégique finalement payante, puisque le projet GNE fut finalement suspendu et son contenu transféré au sein de Nupedia, pendant que sur le site de sa fondation, Richard Stallman encourageait les gens à contribuer sur Wikipédia[114]. Une deuxième action de Jimmy Wales, très certainement favorable à l’extension du projet Wikipédia, fut ensuite d’ouvrir le projet Wikipédia aux « gens ordinaires »[115]. Ce choix s’opposait aux idéaux de Larry Sanger qui préférait le modèle de Nupedia avec sa relecture par un comité d’experts, mais il garantissait à l’homme d’affaires une croissance plus rapide du contenu[108].

Par la suite, l’éclatement de la bulle spéculative Internet et des restrictions budgétaires qui suivirent le Krach boursier de 2001-2002, placèrent la société Bomis en incapacité de payer le salaire de Sanger. Après avoir poursuivi pendant un mois de manière bénévole ses activités au sein de Nupedia et Wikipédia, l'ex-employé de la firme décida finalement de démissionner de ses deux postes bénévoles en mars 2002[116]. Mais cela n'empêcha pas le projet Wikipédia de poursuivre son développement grâce à sa communauté de contributeurs, elle aussi devenue entièrement bénévole grâce au soutien de Jimmy Wales. En septembre 2003 et faute de productivité, ce fut finalement le projet Nupedia qui finit par transférer ses articles au sein Wikipédia. Trois ans plus tard, en septembre 2006, Larry Sanger n'avait pas dit son dernier mot. Il lança effectivement sur ses fonds propres un projet analogue à Nupedia intitulée Citizendium. Soumis à un système d'expertise et demandant aux contributeurs de s'enregistrer sous leur identité réelle et d'écrire uniquement en anglais, le projet atteignit en 2010 près de 25 000 articles (figure 2.16), alors que le projet Wikipédia en anglais dépassait les 3 millions d'articles à cette même période (figure 2.17).

Jimmy Wales continua ainsi à se consacrer au projet Wikipédia pendant que celui-ci finit par atteindre une taille et une visibilité jamais égalée dans l'histoire des encyclopédies. La naissance de Wikipédia en anglais constitua donc la première pierre de l'édifice Wikimédia. Par la suite, ce sont des centaines de versions linguistiques de l'encyclopédie libre qui prirent naissance les unes après les autres pour dépasser aujourd'hui le nombre de 300. La version francophone apparut pour sa part sous le nom de domaine « french.wikipedia.com » un peu moins de quatre mois après la création du projet en anglais[117]. Par la suite, ce sont plus d'une dizaine d'autres projets pédagogiques et collaboratifs en ligne, « les projets frères de Wikipédia » comme on les appelle en français, qui ont vu le jour pour être, eux aussi, déclinés en de nombreuses versions linguistiques.

Les projets frères de WikipédiaModifier

Faisant suite à la naissance de l'encyclopédie Wikipédia, de nouveaux projets éditoriaux collaboratifs verront le jour pour compléter le contenu pédagogique qu'une encyclopédie ne peut fournir. Il est possible de découvrir leurs apparitions ainsi que l'évolution de leurs versions linguistiques dans une page qui en fait le recensement chronologique[118]. De manière plus synthétique, une ligne du temps fut aussi réalisée par Guillaume Paumier à l’occasion du dixième anniversaire de Wikipédia (figure 2.18).

Ce document présenté au Capitole du libre de 2011[119] fit d'ailleurs l'objet d'une réédition collaborative lors de la rencontre Wikimania 2012[120]. Dans sa partie libellée « sister projects », on y découvre que le tout premier projet créé après Wikipédia fut le site Meta-Wiki. Avec l'apparition des nombreuses versions linguistiques de Wikipédia, la nécessité de centraliser les questions communes aux projets devint rapidement une évidence. Aujourd’hui, le site Meta-Wiki, qui ne cesse de se développer, est devenu une véritable plate-forme de coordination et de communication entre les projets pédagogiques, tous les organismes affiliés au mouvement et la Fondation Wikimedia.

 
Fig. 2.18. Chronologie des événements depuis la création de Wikipédia en 2001 jusqu'en 2012 (source : https://w.wiki/55NF)

Pendant que les nouvelles versions linguistiques de Wikipédia ne cessèrent de se joindre au projet initial en anglais, des versions linguistiques de sept autres projets de partage de la connaissance voyaient le jour. Cela se fit systématiquement à l'initiative d'un petit groupe de contributeurs actifs dans un autre projet préexistant. Le projet Wiktionnaire en anglais créé le 12 décembre 2002 fut ainsi le deuxième projet à voir le jour parmi les projets Wikimédia, avec une version francophone apparue deux ans plus tard, en mars 2004[121]. Il est intéressant à ce sujet de remarquer que la version francophone du Wiktionnaire n'a pas pris naissance depuis la version anglophone, mais bien depuis le projet Wikipédia en français. Cela débuta avec une poignée de contributeurs qui entamèrent des discussions, dont voici un extrait[122] :

En fait, ce qui me peine vraiment avec le projet Wiktionary, c'est que alors qu'on essaie de rassembler les gens (pas facile) pour créer une sorte de tour de Babel de la connaissance (tache bien longue et difficile), ce nouveau projet va disperser les énergies pour une raison qui ne me semble pas valable. C'est la création de Wiktionary qui va créer des redondances. À mon avis il existera rapidement des pages sur le même mot, mais ne contenant pas les mêmes informations. Pour quelle raison ces connaissances devraient-elles être séparées ? Les encyclopédies sur papier devaient faire des choix à cause du manque de place, mais nous, pourquoi le ferions-nous ??? "Wikipédia n'est pas un dictionnaire" n'est pas un argument à mon avis... si vraiment c’était pas un dictionnaire, il faudrait virer tout un tas d'article. Je ne comprends vraiment pas cette volonté de séparer la connaissance entre ce qui est "encyclopédique" et ce qui n'est "qu'une définition".", Aoineko, 3 janvier 2003

Pour moi ce qu'est Wiktionary, c'est une partie de Wikipédia s'intéressant plus particulièrement aux aspects linguistiques des mots. La différence que je verrais entre la partie dictionnaire de Wikipédia et sa partie dite encyclopédique, c'est que la partie dictionnaire s'intéresserait au sens des mots eux-mêmes alors que la partie encyclopédie s'attache plus à faire ressortir un état des connaissances à un moment donné. Le pourquoi de la séparation d'avec la partie encyclopédie tient plus à des raisons techniques qu'à une volonté de monter un projet indépendant, en effet, à mon humble avis, un dictionnaire nécessite une plus grande rigueur (de présentation) qu'une encyclopédie. Ceci entraîne beaucoup de problème et entre autres le choix de la mise en forme des articles du dictionnaire. luna~frwuju.

Dans le cas de figure du projet Wiktionnaire en français, la séparation de Wikipédia fut donc motivée par des besoins techniques, mais également par un désir d'autonomie quant à la manière de concevoir et de présenter des ressources lexicales. Ce désir n'était toutefois pas partagé par tous, notamment compte tenu d'une fatale dispersion des énergies. Créer un nouveau projet, c'est effectivement créer un nouveau site web qui devra faire l'objet d'une nouvelle gestion, tant au niveau des serveurs de la Fondation, qu'au niveau d'une communauté nouvelle et forcément plus modeste. Bien sûr, il est toujours possible d'importer des pages d'autres projets frères ou de traduire celles d'une autre version linguistique, mais cela duplique alors aussi leurs maintenances et leurs mises à jour. Le choix de scinder un projet au profit d'une plus grande liberté a donc un prix. Réfléchissant à la question, un employé de la Fondation présent lors de la rencontre Wikimania de 2019, présenta l'idée de rassembler à l'intérieur d'un seul site web toutes les versions linguistiques des projets. Une idée qui ne fut toutefois pas retenue, en raison sans doute, du challenge que représente la mise en place d'un système de traduction[123].

Le 10 juin 2003, ce fut au tour du projet anglophone Wikibooks de faire son apparition, soit près d'un an avant la version francophone. Celle-ci apparut pour sa part le 22 juillet 2004, et fut rebaptisée Wikilivres après avoir été débattue à l'intérieur de Wikipédia en français à nouveau et non dans le projet Wikibooks en anglais. Dans les deux cas de figure, l'objectif était de créer une « bibliothèque de livres pédagogiques libres que chacun peut améliorer »[124]. Dans le projet anglophone, vit ensuite le jour en 2004 et dans un espace de noms séparé du projet principal, un sous projet intitulé Wikijunior. Financé par la Beck Foundation, son but initial était de rassembler de la littérature pour des enfants de huit à onze ans[125] puis, de zéro à douze ans lorsque le projet passa au niveau francophone[126].

Un an plus tard, et à la suite de quelques débats au niveau du projet anglophone[127], l'idée d'un nouveau sous-projet intitulé Wikiversity fit son apparition. Son but était cette fois de « créer une communauté de personnes qui se soutiennent mutuellement dans leurs efforts éducatifs »[128][129]. Cependant, le 12 août 2005, une longue discussion remit en question l’existence de ce projet éducatif. Alors qu'il était question de le supprimer, il fut finalement décidé de transférer son contenu vers le projet Meta-Wiki[130]. Après ce transfert, de nouvelles discussions aboutirent à l'idée de faire de Wikiversité un nouveau projet indépendant. Elles perdurèrent ainsi jusqu'au 22 août 2006[131], quand un vote fut ouvert par la communauté dans l'objectif d'atteindre une majorité des deux tiers en faveur de la création du projet. C'était là une démarche nécessaire avant d'en proposer une période d'essai au Conseil d'Administration de la Fondation Wikimedia[132]. Mais, le 13 novembre 2005, la proposition fut rejetée par cinq membres du conseil d'administration. Ceux-ci demandèrent[133] effectivement d'exclure du projet « la remise de titre de compétence, la conduite de cours en ligne et de clarifier le concept de plate-forme e-learning »[134]. Une décision commentée sur Wikibooks[130] de la sorte :

La principale raison pour laquelle la Fondation Wikimedia ne veut pas "lâcher le morceau" est une simple question de bureaucratie et la crainte que le projet ne devienne une autre Wikispecies. Wikispecies est une idée cool, mais les "fondateurs" du projet se sont dégonflés à mi-chemin de la mise en place du contenu et ont décidé de faire une révision majeure qui a pris plus de temps que ce que tout le monde était prêt à mettre. Le même problème s'applique à Wikiversity en ce qui concerne la Fondation, parce que les objectifs et les buts de ce projet ne sont pas clairement définis, et il semble que les participants essaient de mordre plus qu'ils ne peuvent mâcher en proposant une université de recherche multi-collèges entière (avec un statut de recherche et une accréditation Carnegie-Mellon également) à former de toutes pièces plutôt qu'un simple centre d'éducation pour adultes avec quelques classes. Si plus de réflexion est faite sur la façon de "démarrer" ce projet entier, peut-être que quelques pensées sur la façon de convaincre le conseil de la Fondation de laisser un wiki séparé être lâché pour laisser ce projet essayer de se développer par lui-même peuvent être faites.--Rob Horning 11:21, 14 août 2005 (UTC)[135]

 
Fig. 2.19. Logo de la Fondation Wikimedia entouré de 15 autres logos de projets actifs en son sein (source : https://w.wiki/4Pzn)

Il fallut donc attendre neuf mois supplémentaires, pour qu'enfin, le 31 juillet 2006, les amendements apportés au projet de départ[136] soient finalement acceptés par un comité nouvellement créé sous l’appellation de special projects commitee[137]. Suite au feu vert, la création du site Beta-Wikiversity comme espace de lancement des différentes versions linguistiques fut finalement lancée[138]. Un transfert du contenu fut alors entamé alors qu'un délai de six mois était fixé pour élaborer les lignes directrices sur d'autres utilisations potentielles du projet Wikiversité dans le contexte d'une recherche collaborative[139]. Depuis lors, à chaque fois qu'une nouvelle version linguistique du projet sur Beta-Wikiversity connait plus de 10 modifications par mois et regroupe au moins 3 participants, un nouveau site web est ouvert pour poursuivre son développement.

Avec la plateforme de lancement Wikisource multilingue[140], Beta-Wikiversity apparait donc comme une deuxième exception au site Wikimedia Incubator[141] créé en 2006 pour le lancement des versions linguistiques des autres projets. Une proposition de transférer des activités de Wikivesity Beta vers Incubator fut discutée à plusieurs reprises en 2008[142], 2013-2015[143] et 2017[144], mais toujours sans succès. Les raisons du refus furent essentiellement le manque d'enthousiasme de la communauté, la quantité de travail nécessaire et la prise en compte des spécificités d'un projet dédié à la production de recherches originales, d'exercices, etc.

Contrairement à la naissance des autres projets Wikimédia, le projet Wikivoyage fit son apparition dans le mouvement d'une manière complètement originale. Ce guide de voyage vit tout d'abord le jour en 2003 dans un Wiki extérieur au mouvement Wikimédia intitulé Wikitravel[145]. Comme cela arrive parfois, le projet au départ sans but lucratif fut ensuite racheté par une entreprise commerciale en 2006. Ce changement de gouvernance et l'introduction de publicités provoqua alors une scission de la communauté d'éditeurs. De cette séparation naîtra Wikivoyage, un nouveau projet séparé et autonome de Wikitravel qui reçut en 2007, le Webby Award du meilleur guide de voyage Internet[146]. Cinq ans plus tard, soit en 2012, un appel à commentaires rassembla ensuite plus de 540 personnes en faveur de l'intégration de Wikivoyage dans le mouvement à titre de nouveau projet frère[147]. Comme cette nouvelle déclencha une migration importante des contributeurs de Wikitravel vers Wikivoyage, une plainte fut alors déposée par sa société commerciale. Elle fut toutefois rejetée par le tribunal en charge, ce qui permit dès lors la création de nouvelles versions linguistiques[148].

Pour la suite, il faut encore savoir que d’autres projets sont toujours susceptibles de voir le jour. À ce titre, WikiJournal, un sous-projet de la Wikiversité anglophone récompensée de l'Open Publishing Awards en 2019[149], est actuellement en attente du consentement du conseil d'administration de la Fondation pour lancer son propre site[150]. Ce sont ainsi des centaines d'autres demandes[151] qui doivent ainsi être examinées, avec parfois des refus, comme cela est arrivé au projet WikiLang[152] qui avait pour but de lancer un laboratoire linguistique. Bien que cela soit plus rare, un projet peut toutefois être accepté, par exemple Wikifonctions alias Abstract Wikipedia[153]. Un projet d'envergure cette fois puisqu'il consiste à produire automatiquement des articles encyclopédiques en langues diverses au départ de la banque de données Wikidata et grâce à des scripts et fonctions informatiques[154]. Il faut enfin savoir qu'il existe aussi une liste des projets proposés à la suppression[155] reprenant essentiellement des versions linguistiques de projets qui n'ont pas réussi à poursuivre leurs développements.

Voici donc, sans prendre le soin de faire le tour des projets, de quoi se faire une idée sur la manière dont les projets frères du mouvement Wikimédia et leurs versions linguistiques voient le jour. Les quelques exemples repris ci-dessus suffiront pour comprendre les principes généraux qui sous-tendent la création de nouveaux projets. Dans le cas d'un nouveau projet, l'idée apparait tout d'abord dans un autre projet de même langue pour être éventuellement débattue sur la plate-forme Meta-Wiki, avant d'en faire la demande au conseil d'administration de la Fondation. Au niveau des versions linguistiques des projets par contre, cela se passe sur le site Incubator, Beta-Wikiversité ou Wikisource Multilingue, jusqu'à ce qu'ils atteignent un stade de maturité suffisant.

D'un point de vue chronologique, il faut aussi souligner certains projets frères de Wikipédia et variations linguistiques, sont apparus avant le terme « Wikimédia » qui ne fit son apparition qu'en juin 2003 seulement[156], suite de la fondation de même nom. Par la suite et bien avant que l'on parle de mouvement, de nouveaux projets pédagogiques ont vu le jour, pendant que les versions linguistiques des projets existants continuaient à se développer, apparaitre ou disparaître en cas d'inactivité prolongée. La naissance du mouvement en ce sens ne fut donc pas un événement ponctuel en soi, mais plutôt un processus qui mit du temps à se mettre en place, jusqu'à ce que les personnes actives dans les différents projet finissent par réaliser qu'il formaient tous ensemble, au sein d'une organisation globale de plus en plus développée, un mouvement sociale à part entière.

La naissance du mouvement WikimédiaModifier

Une personne qui s'intéresse à la Fondation et au mouvement Wikimédia est en droit de se demander d'où peut bien venir un nom aussi étrange que « Wikimédia. Et puis, est-ce que tout ce qui contient le mot Wiki est en relation avec Wikimédia ? C'est là malheureusement une source de confusion fréquente qui concerne près de 20 000 projets hébergés sur le web qui reposent tous sur une technologie de type wiki[157] et utilisent en général le terme wiki dans leur appellation. Parmi tous ces projets pourtant, plus de 95 % n'ont aucun lien avec le mouvement Wikimédia, à l'exception peut-être du fait qu'ils utilisent le même logiciel que celui développé par la Fondation.

WikiLeaks créé par Julian Assange dans le but de publier des documents classifiés provenant de sources anonymes, n'est à ce titre ni un projet Wikimédia, ni un site collaboratif ouvert à tous. À l'inverse du recueil universel et multilingue de guides simples et illustré intitulé WikiHow qui fonctionne, lui aussi, avec le logiciel MediaWiki développé par la Fondation Wikimedia[158]. Cependant, son ergonomie radicalement différente de celle des projets Wikimédia permet de comprendre facilement qu'il n'en fait pas partie. Wikimini, autre exemple, est une encyclopédie libre pour les enfants, dont le fondateur Laurent Jauquier m'a confié un jour qu'il aurait aimé voir son projet rejoindre le mouvement Wikimédia, alors que la Fondation s'est avérée très frileuse à l'idée de gérer du contenu pour jeune public. Viennent ensuite les projets WikiTribune et Wikia qui jettent un peu plus le trouble, puisqu'ils furent lancés par Jimmy Wales, le fondateur de Wikipédia et de la Fondation Wikimedia[159], mais sans pour autant avoir l'intention de leur faire rejoindre le mouvement.

Au niveau étymologique à présent, retenons que le terme « Wikimédia » est un mot-valise dont le suffixe média fait référence au mot média et le préfixe « wiki » au mot hawaïen « wikiwiki » que l'on peut traduire en français par « vite, vite »[160]. Le terme fut récupéré par Ward Cunningham, le créateur du WikiWikiWeb, avant d'être reproduit au niveau de tous les logiciels wiki, dont UseModWiki, utilisé par la firme Bomis pour héberger son projet d'encyclopédie collaborative. Il se retrouva ensuite dans le mot Wikipédia en référence au mot anglais encyclopedia, et par le fait que la nouvelle encyclopédie était fondée sur un Wiki. Par la suite, le mot Wiki devint le préfixe de tous les mots-valise qui seront adoptés lors de la création des autres projets Wikimédia.

 
Fig. 2.20. Photo de Florence Devouard prise en 2017 (source : https://w.wiki/4LJc)

Le mot Wikimédia lui-même n'est apparu que le 16 mars 2003, lors d'une discussion concernant la déclinaison possible de l'encyclopédie en d'autres types de projets éditoriaux participatifs. Durant celle-ci, l'écrivain américain Sheldon Rampton eu l'idée d'associer au terme wiki celui de « média » afin de mettre en évidence la variété des médias produits et mobilisés sur toutes les plates-formes wiki (encyclopédie, site d'actualités, musiques, vidéos, etc.)[161]. Quelques mois plus tard, le terme fut adopté lors de la création de la Wikimedia Foundation, lorsque Jimmy Wales décida d'y transférer les avoirs de sa firme Bomis que sont les noms de marques, noms de domaines et copyrights[162]. Il fallut ensuite attendre le mois de juin 2008, soit cinq années supplémentaires, pour que finalement Florence Devouard, présidente de la Fondation à cette époque, utilise le mot Wikimédia pour désigner le mouvement social qu'elle voyait apparaitre à travers le développement d'une multitude de projets.

Affirmer que ce moment précis coïncide avec la naissance du mouvement serait toutefois arbitraire. Car si l'on peut déterminer plus ou moins facilement l'apparition d'une expression dans les archives numériques, tout le monde sait qu'un mouvement social ne se forme pas en un seul jour. Dans le contexte du mouvement Wikimédia, sa naissance fut effectivement liée à celle du projet Wikipédia, mais également à tout ce qui permit à l'encyclopédie de voir le jour. Dans une autre perspective, la naissance du mouvement pourrait tout aussi bien être associé à celle de la Wikimedia Foundation créée le 20 juin 2003[156] ou encore à l'arrivée de la plate-forme Meta-Wiki.

Mais quoi qu'il en soit, la création du « Wikimedia movement », fut bel et bien une initiative de Florence Devouard, formulée en juin 2008 peu de temps avant qu'elle ne quitte son poste de présidente de la Fondation Wikimedia[163]. Son idée telle qu'exprimée sur la liste de diffusion de la Fondation[164] était d'utiliser le site Wikimedia.org pour en faire la vitrine du mouvement Wikimédia qu'elle prenait la peine de définir de la sorte :

Le mouvement Wikimédia, comme je l'entends est

  • une collection de valeurs partagées par les individus (liberté d'expression, connaissance pour tous, partage communautaire, etc.)
  • un ensemble d'activités (conférences, ateliers, wikiacadémies, etc.)
  • un ensemble d'organisations (Wikimedia Foundation, Wikimedia Allemagne, Wikimedia Taïwan, etc.), ainsi que quelques électrons libres (individus sans chapitres) et des organisations aux vues similaires[165]

Avant cette date clef, toutes les personnes actives dans les projets éditoriaux en ligne ou dans les organismes affiliés, faisaient donc partie de ce que Ralf Dahrendorf appellerait un « quasi-groupe »[166]. Ou, pour le dire autrement, un ensemble d'individus qui ont un mode de vie semblable, une culture commune, mais dont les points communs ne gravitent pas autour d'une prise de conscience de leur position commune dans la relation d'autorité[167].

Constituer un mouvement à partir d'un ensemble de communautés d'éditeurs distribués sur des projets en ligne et hors ligne, eux-mêmes déclinés dans une multitude de langues, aura donc pris plus d'une dizaine d'années. Sans compter qu'aujourd'hui, de nombreuses personnes peu actives sur les sites Wikimédia, les éditent en ignorant toujours qu'ils prennent part aux activités d'un mouvement. Une telle situation sera au contraire très peu probable chez les personnes qui auront participé à l'une des rencontres physiques organisées par la Fondation Wikimedia ou par l'une des associations affiliées. Tous ces organismes ont en ce sens joué un rôle crucial dans la constitution d'un sentiment d'appartenance indispensable au développement de tout mouvement.

La création des organismes affiliésModifier

Comme dit précédemment, au-delà de plus d'un millier de projets et sous-projets hébergés sur plus de 900 sites web, il existe aussi dans la partie hors ligne de Wikimédia tout un ensemble de groupes et d'organismes affilés au mouvement. Il s'agit ici de plusieurs centaines d'instances dont il me serait malheureusement difficile de présenter l'histoire aussi facilement que ce que j'ai pu faire au niveau des projets. S’il existe énormément d'archives web concernant la naissance des sites Wikimédia, ce n'est pas le cas pour ces organismes qui se forment et se développent lors de rencontres ou réunions hors ligne. De plus, une bonne part des échanges effectués dans ces associations se font au travers de canaux de communications privées auxquels je n'ai pas eu accès.

Je me limiterai donc ici à parler de l'association Wikimédia Belgique dont j'ai pu être l'un des membres fondateurs. Elle fut fondée le 8 octobre 2014 en tant qu'association sans but lucratif et fut reconnue le 6 août suivant par le conseil d'administration de la Fondation[168]. Sous l’impulsion de Maarten Deneckere qui en deviendra le premier président, nous étions 8 personnes à signer la première version des statuts[169] dont l'objet social consiste jusqu'à ce jour à « impliquer tout un chacun dans la connaissance libre »[170]. Cette association ne connut malheureusement pas l'essor de l'association Wikimédia allemande, la première à voir le jour 13 juin 2004, qui rassemble autour d'elle en mai 2021 plus de 85 000 membres et près de 150 employés[171]. De façon beaucoup plus modeste et plus de sept ans après sa création, l'association belge fonctionne toujours pour sa part sans salarié et sera passée de 37 à 115 membres[172] au cours de son existence.

Avant d'être reconnues comme telles par la Fondation, toutes les associations locales, dites « chapter » en anglais, doivent actuellement réaliser bon nombre de démarches. Il faut préalablement répondre à tout un ensemble de critères qui ont évolué avec le temps depuis l'apparition d'un comité d'affiliation en avril 2006[173]. Ces différents prérequis selon les différentes formes d'affiliations possibles au sein du mouvement, sont repris ci-dessous (tableau 2.1)[174]. Ce à quoi il faut encore ajouter ce que les associations doivent faire pour maintenir leur statut et qui sera abordé dans le prochain chapitre.

Tab. 2.1. Comparaison des prérequis par type d’affiliation
Prérequis Organisations Nationales Organisations thématiques Groupes d'utilisateurs
Nombre minimum d’éditeur Wikimédia actif 10 10 3
Nombre minimum de membre suggéré 20 20 10
Objectif Secteur géographique Secteur thématique Tout ce qui fait avancer Wikimédia
Mission conforme à celle de la Fondation Wikimedia      
Respect des lignes directrices de dénomination et de la politique de gestion des marques      
Informations relatives aux publications des groupes au sein de l’infrastructure Wikimédia      
Plans d’activité et actions menées en vue de faire progresser les projets Wikimédia      
Permettre l’adhésion de nouveaux membres      
Désignation de deux référents auprès de la Fondation Wikimedia      
Reconnaissance légale    
Règlement intérieur amendable et approuvé par le comité d’affiliation    
Deux années d’activité antérieures à la demande d’affiliation    
Nécessite l’approbation du comité d’administration de la Fondation Wikimedia    
Comité de direction élu par ses membres, y compris ses nouveaux membres    
Rapports d’activité et rapports financiers régulièrement publiés sur Meta-Wiki    
Capacité à représenter le mouvement Wikimédia dans un domaine d’intervention spécifique    
Délais de développement type 2-3 ans 2-3 ans 1-4 mois
Durée d’exercice soumis à approbation 4-6 mois 4-6 mois 1-3 semaines

L’héritage d’une révolution culturelleModifier

Au terme de ce chapitre, il devient donc évident que la révolution numérique, que l'on considère d'abord comme une révolution technique, fut aussi et peut-être avant tout, une révolution sociale et culturelle propagée au cœur d'un nouvel écoumène numérique. Dans cette période très récente de l'histoire de l'humanité, le mouvement Wikimédia fut ainsi l'héritier d'une contre-culture opposée au monde marchand et à l'oppression étatique. Avec un peu d'imagination, on pourrait déjà dire qu'une telle influence transparaît déjà au niveau du logo de la Fondation qui, une fois renversé, affiche une certaine similarité avec celui du mouvement Hippie.

Mais ceci ne serait que spéculation alors que tout devient évident dès que l'on sait que Richard Stallman, le gourou de la contre-culture hacker[175] et père du système d'exploitation hippie[176] fut le penseur originel du concept d'encyclopédie libre, universelle, collaborative et neutre. Personne ne s'étonna d'ailleurs de son arrivée triomphante lors de la première conférence internationale Wikimania de 2005 qui deviendra plus tard le grand lieu de rassemblement annuel des membres les plus actifs du mouvement Wikimédia. Pris en photo juste avant son discours, Stallman incarnait alors à lui seul toute l'influence contre-culturelle transmise au mouvement Wikimédia.

Quant aux enjeux que suscite la transmission des valeurs du mouvement des logiciels libres au mouvement Wikimédia, André Gorz, le père de la décroissance[177] et le théoricien de l'écologie politique[178], nous en offre sa propre synthèse[179] :

La lutte engagée entre les "logiciels propriétaires" et les "logiciels libres" […] a été le coup d'envoi du conflit central de l'époque. Il s'étend et se prolonge dans la lutte contre la marchandisation de richesses premières – la terre, les semences, le génome, les biens culturels, les savoirs et compétences communs, constitutifs de la culture du quotidien et qui sont les préalables de l'existence d'une société. De la tournure que prendra cette lutte dépend la forme civilisée ou barbare que prendra la sortie du capitalisme.

 
Fig. 2.21. Photo de Richard Stallman lors du premier rassemblement Wikimania de 2005 (source : https://w.wiki/377f).

En possédant le seul nom de domaine non commercial du top 50 des sites les plus fréquentés du Web[180], le mouvement Wikimédia apparaît donc comme l'une des pierres angulaires de cette lutte entre monde libre et monde propriétaire. Après le code informatique, s'il y a une autre marchandise qui circule dans l'écoumène numérique, c'est bien l'information. De là, faut-il encore comprendre que cette marchandise peut facilement être convertie en monnaie et d'autant plus facilement lorsqu'il s'agit d'informations concernant la vie des gens. Pour s'en convaincre, il suffit de se pencher sur quelques ouvrages aux titres éloquents tels que : Bienvenue dans le capitalisme 3.0[181], L'âge du capitalisme de surveillance[182] et Affaire privée : aux sources du capitalisme de surveillance[183].

Cette lutte n'est bien sûr pas des plus faciles à comprendre, du fait de la complexité de l'infrastructure informatique et de l'écoumène numérique qui en émergea d'une part, mais aussi parce que ce combat s'inscrit dans une révolution que Rémy Rieffel décrit à juste titre comme « instable et ambivalente, simultanément porteuse de promesse et lourde de menaces ». Ceci alors qu'elle prend place « dans un contexte où s'affrontent des valeurs d'émancipation et d'ouverture d'un côté et des stratégies de contrôle et de domination de l'autre »[184]. En fait d'ambivalence, n'est-il pas surprenant d'apprendre aussi que Jimmy Wales, qui fut à la base du financement du premier projet Wikipédia, est un adepte de l'objectivisme ? Cette philosophie politique dans laquelle le capitalisme est perçu comme la forme idéale d'organisation de la société[185] et pour laquelle, l'intention morale de l’existence est la poursuite de l'égoïsme rationnel[186].

Au bout du compte, dix ans après les avertissements d'André Gorz, les enjeux soulevés par les logiciels libres au début des années quatre-vingt sont donc toujours au centre des débats. Dans l'espace Web d'un côté, son créateur Tim Berners-Lee ne cesse par exemple d'implorer sa « redécentralisation »[187] et à sa « régulation »[188], alors qu'à l'inverse, dans le reste de la fréquentation du net, plusieurs milliards d'objets connectés remplissent un marché qui dépasserait déjà les 2.6 milliards d'euros rien qu'en France pour l'année 2020[189] et dont l'essor ne fait qu’augmenter avec le développement des technologies 3, 4 et 5G.

Après tous ces aspects économiques, il nous reste encore à tenir compte de la dimension politique de l'héritage contre-culturel transmis par les hackers. Au niveau du mouvement Wikimédia, cela se manifeste par un désir de s'émanciper des contrôles étatiques, qui sera amplement illustré dans la suite de cet ouvrage. Pour l'heure, on se limitera à constater que la position du mouvement ne plaît pas à tout le monde et qu'elle fut ainsi à l'origine de diverses censures des projets Wikimédia réalisés par plusieurs pays tels que la Turquie, la Russie, l'Iran, le Royaume-Uni et même, de manière permanente jusqu'à ce jour, en Chine[190]. Certaines procédures juridiques auront même été lancées à l'encontre de certaines instances du mouvement, comme ce fut le cas en France, dans le cadre d'une affaire liée à un article Wikipédia portant sur une station militaire[191].

Ce qui s'observe donc tout au long de la préhistoire du mouvement Wikimédia n'est autre qu'une éternelle tension entre d'une part, la recherche d'un pouvoir économique et politique centralisé, et d'autre part un désir d'autonomie et de partage. Cette opposition, comme nous avons pu le constater, n'est pas manichéenne en ce sens qu'un projet de partage visant l'autonomie, tel que l'espace Web par exemple, peut très bien se voir dominer par des projets à but lucratif de type monopolistiques. Je pense ici bien entendu aux géants du web que l'on nomme big tech en anglais et qui sont souvent critiqués pour leurs abus de position dominante. Une bonne part de ces entreprises commerciales sont d'ailleurs à la fois regroupées et cataloguées dans divers acronymes tels que GAFAM, BATX, NATU, etc.

 
Fig. 2.22. Sculpture en bronze de Davide Dormino appelé Anything to say? à l'honneur de trois lanceurs d’alertes (source : https://w.wiki/4UXx).

Ceci alors que dans un mouvement inverse, mais toujours suite à un échec économique semble-t-il, des projets qui au départ avaient des prétentions commerciales, finirent par se recycler en projets de partage autonomes. Rappelons-nous en effet brièvement que l'entreprise Netscape donna naissance au logiciel open source Firefox et que le développement de l'encyclopédie commerciale Nupedia aboutit à la création de la plus grande entreprise de partage que constitue l'encyclopédie libre Wikipédia.

Ensuite, nous pouvons également relever que certains succès commerciaux, comme en son temps celui de la messagerie instantanée MSN Messenger, peuvent aussi permettre l'apparition d'autres succès commerciaux, tels que les nombreux réseaux sociaux qui ont fleuri sur le web. Alors que dans la sphère du partage, le succès non commercial de Wikipédia aura pour sa part inspiré la création d'autres projets collaboratifs financés par des fondations, projets parmi lesquels figure par exemple le projet OpenStreetMap dédié à la cartographie du monde sous licence libre.

Voici donc quelques analyses premières qu'il est possible de produire suite à l'étude de la naissance du mouvement Wikimédia. Cette préhistoire du mouvement met en effet en évidence certaines idéologiques peu connues et qui eurent pourtant une influence considérable sur la façon dont s'est construit l'espace informatique mondial à ce jour, tout en mettant en évidence l'ambivalence et la versatilité de ce qui se passe au cœur de l'écoumène numérique dont il permit la naissance. Ce simple détour dans l'histoire permit enfin de mettre en évidence la permanence d'un contre-pouvoir au sein de nos sociétés, dont l'une des figures emblématiques, au-delà de toutes celles déjà présentées, restera certainement celle du lanceur d'alerte. Car tout comme certains membres du mouvement Wikimédia peuvent lancer des actions de protestation, dans le reste du monde des personnes tel que Aaron Swartz, Bassel Khartabil, Julian Assange, Edward Snowden Chelsea Manning, apparaissent quant à eux tels des héros de cette contre-culture de l'autonomie, de la liberté, et de l'indépendance. Sans eux, il est bien évident que de nombreux travers d'une nouvelle hégémonie culturelle[192] en tant que « mère de toutes les batailles politique »[193], n'auraient jamais pu être dénoncés.

Cosmographie du mouvement WikimédiaModifier

Cette présentation « cosmographique » du mouvement Wikimédia fait référence à l'expression « galaxie Wikimédia »[194] (figure 3.1[195]) apparue lors du dixième anniversaire du projet Wikipédia. La découverte de cette galaxie débuta pour ma part au niveau des espaces en ligne que je réussis à parcourir grâce aux nombreux hyperliens qui permettent de naviguer entre les projets du mouvement Wikimédia. Suite à quoi, il me restait encore à découvrir toute la partie hors ligne du mouvement. Ce que je fis à partir du 10 octobre 2011, en rejoignant l'équipe des membres fondateurs de l'association Wikimédia Belgique[196].

 
Fig. 3.1. Illustration de la galaxie Wikimédia réalisée à l'occasion du dixième anniversaire de Wikipédia (source : https://w.wiki/32Ga).

Cette première démarche me permit de découvrir rapidement que les activités hors ligne et en ligne du mouvement évoluaient dans deux sphères et environnements bien spécifiques dont chacun est propice au développement d'organisations et comportements différents[197]. Cela crée d'ailleurs certaines dissonances cognitives au sein du mouvement, mais sans pour autant empêcher le mouvement de garder une cohérence dans son ensemble. Sans doute est-ce là le fruit d'une très forte connectivité et d'une adhésion générale à un projet commun de partage gratuit de contenus éducatifs en prévision d'un « monde dans lequel chaque être humain peut partager librement la somme de toutes les connaissances. »[198][199]

Découvrir la galaxie Wikimédia, c'est aussi découvrir à plus petite échelle la société globale et numérique[200] dont l’hyper-complexité est étroitement liée au développement du médium communicationnel Internet[201]. Tandis que comprendre l'organisation du mouvement, c'est alors soulever les enjeux de la mondialisation structurelle des sociétés humaines dans le contexte d'une globalisation économique[202]. Au niveau de Wikimédia, comme dans le reste de notre monde cosmopolite et interconnecté déjà décrit par certains tel une « société mondiale du risque »[203], il est devenu effectivement de plus en plus difficile de comprendre tout ce qui s'y passe de manière à garder une certaine maitrise de notre environnement immédiat. Pour pallier cet inconfort à hauteur du mouvement Wikimédia, voici donc une vue d'ensemble de ce qui s'y passe en commençant au niveau de sa sphère numérique.

Introduction à l’espace numérique du mouvementModifier

L'espace numérique Wikimédia le plus connu du grand public est sans aucun doute le projet Wikipédia avec ses 314 versions linguistiques en octobre 2020[204]. Mais au-delà de Wikipédia, la Wikimedia Foundation héberge aussi plus de 600 autres sites web qui, pour la plupart, sont différentes versions linguistiques de sept autres projets frères de l'encyclopédie libre[205]. Si l'on ajoute à cela d'autres projets multilingues soutenus par le mouvement, au 23 octobre 2020, ce ne sont pas moins de 917 sites web qui sont hébergés par la Fondation Wikimédia dans le but de diffuser approximativement 430 millions de pages Web[206][207].

Tous ces sites ne se ressemblent cependant pas. Le 25 janvier 2021 par exemple, le nombre de contributeurs ayant réalisé au moins une modification sur l'un de ces sites pouvait varier de 113 personnes pour le Wiktionnaire en niha à 40 167 243 pour le projet Wikipédia en anglais[208]. De plus, ces sites fonctionnent sur des systèmes de gestion de contenu configurés différemment[209] et selon des règles qui varient d'une version linguistique à l'autre puisqu'elles ne sont pas éditées par la même communauté de contributeurs.

Le projet Wikipédia germanophone possède par exemple des règles beaucoup plus strictes que le projet francophone. Le fair use n'y est pas d'application, les articles à l'état d'ébauche ne sont pas conservés et le bannissement d'un utilisateur nécessite un vote public à la majorité des deux tiers[210]. Ceci alors que le projet Wikipédia en portugais, dont toutes les pages possèdent un lien vers la boutique en ligne Wikimédia, est aussi le seul depuis octobre 2020, à interdire la modification de son espace encyclopédique aux personnes sans compte utilisateur. Quant au contenu de l'encyclopédie en général, une étude de 2010 comparant 74 versions linguistiques différentes, avait mis en évidence le fait que 74 % des articles encyclopédiques n'existaient que dans une seule langue[211].

Alors que toutes les versions linguistiques sont autonomes, les différents projets varient quant à eux dans leurs finalités. Tout le monde connaît au moins une version linguistique de Wikipédia. Mais qui sait que la Fondation Wikimédia héberge également des dictionnaires, des guides de voyage, un répertoire du vivant, des recueils de citations, des bibliothèques de livres anciens et nouveaux, une banque de données sémantique, une collection de médias (image, vidéo, son, PDF, etc.) ? Et, qui dit finalités différentes, dit aussi règles différentes. Alors qu'il est interdit de produire du nouveau savoir dans Wikipédia, celui-ci sera le bienvenu dans les projets Wikiversité. Même le droit d'auteur peut varier d'un projet à l'autre. Les données reprises sur Wikidata ainsi que les descriptions de fichiers sur Wikimédia commons sont sous licence CC0, alors que tout le contenu des autres projets est sous licence CC.BY.SA. Face à tant de diversité, un classement des projets et entités par fonctions[212] permet alors d'en structurer la vue d'ensemble.

Les projets de partage de la connaissanceModifier

Il existe donc dans l'espace numérique Wikimédia tout un ensemble de projets destinés au partage de connaissances qui sont déclinés en de nombreuses versions linguistiques. Ces différentes versions voient le jour dans des projets polyglottes intitulés Wikimedia Incubator, Wikiversity Beta et Wikisource multilingue. Avant d'obtenir leurs propres sites web elles bénéficient ainsi d'un temps de test et de mise en place[213]. À l'intérieur de ces projets autonomes, il est parfois possible de rencontrer des sous-projets qui constituent eux-mêmes un espace spécialisé du projet principal, par exemple une bibliothèque d'ouvrages pour enfants dans le projet Wikilivres.

D'autres projets multilingues existent, comme le projet Wikispecies qui répertorie l'ensemble du vivant ou Wikimedia commons chargé de centraliser les fichiers image, audio, vidéo, etc[214] utilisés dans les autres projets. Le projet Wikidata, autre exemple, centralise pour sa part des informations factuelles dans une immense base de données sémantique dont le contenu est récupérable sur tous les autres sites web[215]. Peut également être cité le nouveau projet multilingue appelé Wikifunctions après avoir porté le nom d'Abstract Wikipedia[216], qui doit permettre à terme d'utiliser le contenu de Wikidata pour produire des articles indépendamment du langage naturel. Une espèce de Wikipédia écrite à partir de fonctions et d'une immense base de données dont les articles seraient automatiquement traduits dans toutes les langues.

Tous ces projets éditoriaux Wikimédia fonctionnent grâce au logiciel MediaWiki. Ils sont aussi tous libres d'accès, collaboratifs au niveau de leurs éditions, indépendants dans leur gestion et soumis à la licence CC.BY.SA à l'exception d'une partie du projet Wikidata et Wikimedia Commons qui comporte une partie sous licence CC0. Comme cela fut signalé plus haut, les deux seules exceptions concernant l'utilisation de cette licence sont les données du projet Wikidata et les descriptions de fichiers hébergés sur Wikimedia Commons toutes soumises à la licence CC0. Il faut enfin signaler que la liste de tous ces projets et de leurs versions linguistiques peut varier d'un moment à un autre, en fonction des décisions prises dans le cadre de la liste des projets proposés à la création[217] et de celle des projets proposés à la suppression[218]. En voici ci-dessous une représentation exhaustive sous forme de tableau, suivie de deux exemples de sous-projets.

Tab. 3.1. Présentation des projets Wikimédia de partage de la connaissance avec leurs logos
Wikimedia Commons est une médiathèque multilingue qui centralise les fichiers utilisés sur les projets Wikimédia. Les fichiers y sont sous licence libre CC.BY.SA. et les descriptions sous la licence CC.0. Wikidata est une base de données multilingue placées sous licence libre CC0 qui peut être lue et éditée par des humains ou des machines dans le but de fournir des informations aux autres projets Wikimédia.
Les projets Wikisource sont des bibliothèques numériques de livres tombés dans le domaine public. Wikispecies est un répertoire multilingue des espèces vivantes de la faune et de la flore.
Les projets Wiktionnaires sont des dictionnaires descriptifs et illustrés. Les projets Wikivoyage sont des guides de voyage touristique.
Les projets Wikiquote sont des recueils de citations. Les projets Wikibooks (Wikilivres en français) sont des collections d'ouvrages pédagogiques.
Les projets Wikinews sont des sites journalistiques collaboratifs qui résume l'actualité sur base d'un point de vue neutre. Les projets Wikiversité sont des collections de matériaux pédagogiques et des espaces dédiés aux travaux de recherches.
Wikifunctions anciennement appelé Abstract Wikipedia est un projet qui a pour but de créer une version de Wikipédia indépendante de tout langage naturel, en utilisant les données structurées stockées de Wikidata. L'incubateur Wikimédia est le lieu de test et de lancement des nouveaux projets linguistiques du projet Wikipédia, Wikilivres, Wikinews, Wikiquote et Wiktionnaire.
Wikisource multilingue est la plate-forme de lancement des nouvelles versions linguistiques des projets Wikisource. Wikiversity Bêta est la plate-forme de lancement des nouvelles versions linguistiques des projets Wikiversité.
Exemples de sous-projets éditoriaux Wikimédia
WikiJunior au même titre que Cookbook, est un sous-projet de Wikilivres qui reprend la littérature pour enfants, alors que Cookbook comme son nom l'indique est un recueil de recette de cuisine. WikiJournal est un sous-projet de Wikiversity destiné à produire des articles scientifiques dans différents domaines (médecine, sciences sociales et sciences dures), selon une procédure de revue par les pairs.

Les projets de gouvernance, d’aide et de coordinationModifier

Au-delà des projets de partage de contenu, il existe aussi tout un ensemble d'espaces numériques destinés à organiser les activités internes au mouvement Wikimédia. La plate-forme Meta-Wiki entre autres, qui recense le plus grand nombre d'utilisateurs après Wikipédia en anglais[208], est un espace dédié à la coordination, documentation, planification et analyse du mouvement Wikimédia. Ce site dans lequel peuvent prendre naissance d'autres projets Wikimédia[219], est aussi un espace de discussion et de prise de décision important concernant l'allocation de subventions dans le mouvement. Il est aussi le lieu où s'organisent la sélection de certains membres de comités qui seront présentés prochainement, ainsi que les élections concernant le choix de certains membres du conseil d'administration de la Fondation.

Dans cette catégorie de sites web, on retrouve ensuite les sites Wikimania qui ont pour fonction de préparer les conférences internationales annuelles dédiées au mouvement Wikimédia[220] et le site Wikimedia Outreach qui se focalise pour sa part sur la promotion des projets Wikimédia au niveau de l'éducation, des galeries, librairies, archives et musées (GLAM), tout en encourageant l'échange de bonnes pratiques et de réussites à l'intérieur du mouvement[221]. En 2020, quelques projets organisationnels sont devenus inactifs. C'est le cas du site Wikimedia strategy planning utilisé pour élaborer la stratégie du mouvement durant la période 2010-2020 et resté accessible en qualité d'archive[222], du site Wikimedia Usability, un projet d'amélioration de l’accessibilité des sites Wikimédia, lui aussi archivé suite au terme du financement de la Stanton Foundation[223] et enfin le site survey.wikimedia.org/ une plateforme de sondage en ligne abandonnée aux alentours de 2013[224].

En septembre 2004, le mouvement Wikimédia avait établi un système de traitement des demandes adressées par courriel fondé sur un système de gestion intitulé OTRS pour Open-source Ticket Request Systeme avant d'être remplacé par Znumy LTS en cours d'année 2021[225]. Toutes les requêtes, plaintes, commentaires et autres types de demandes contenues dans les e-mails adressés au mouvement sont ainsi traités en première ligne par des bénévoles accrédités par la Fondation. Ce traitement s'organise au départ du site Wikimedia's Volunteer Response Team wiki (VTR) utilisé pour répondre aux requêtes, aux plaintes et aux commentaires des e-mails reçus du public[226]. Dans ce système, 400 volontaires[227] répondant ainsi à plusieurs centaines des messages journaliers rédigés dans une quarantaine de langues différentes[228].

Tout comme les projets éditoriaux, il existe aussi différents sous-projets parmi les projets principaux. Parmi ceux-ci, on trouve, dans le projet Wikipédia notamment, le projet WikiMooc[229] chargé de produire un cours en ligne gratuit et ouvert pour apprendre à contribuer à Wikipédia. De manière beaucoup plus répandue encore, on retrouve aussi parmi les versions linguistiques de l'encyclopédie, de nombreux projets thématiques[230] et portails[231] au sein desquels se rassemblent des éditeurs passionnés par certains sujets. D'autres sous-projets peuvent enfin voir le jour dans le but de combler certaines lacunes au niveau des contenus repris par les projets. Tel est le cas par exemple du projet « Noircir Wikipédia »[232] qui vise à accroitre tout ce qui concerne l’Afrique ou les afro-descendants, mais aussi de nombreux projets qui cherchent à établir la parité homme femmes au niveau des articles encyclopédiques. Comme il sera vu plus tard dans la section 13 de ce présent chapitre, ces derniers projets sont souvent soutenus par des groupes d'utilisateurs.

Tab. 3.2. Présentation des projets d'aide, de coordination, de gestion et de partage d'information au sein du mouvement Wikimédia
Wikimedia Foundation Governance Wiki est le site sur lequel le conseil d'administration de la Fondation Wikimédia met à la disposition du public des documents relatifs à sa gouvernance. Wikimedia Board est un site wiki dont l'accès est réservé aux membres du conseil d'administration de la Fondation Wikimédia pour leur communication interne.
Méta-Wiki est le site de gestion et de coordination générale du mouvement Wikimédia (accès au site). Le site Wikimania est dédié à la préparation des cycles de conférences annuelles dédiées au mouvement Wikimédia.
Wikimedia Outreach est un site Web destiné à coordonner la promotion des projets Wikimédia et les partenariats au sein du mouvement. Wikimedia Mailservices est le service d'hébergement de toutes les listes de diffusion gérées par la Fondation Wikimédia.
Statistiques Wikimédia rassemble des plateformes d'informations statistiques au sujet de tous les projets Wikimédia gérés par la Fondation Wikimedia. Volunteer Response Team est un projet qui regroupe des bénévoles désireux de répondre aux courriels envoyés au mouvement Wikimédia.
Wikimedia Usability (archivé) est un espace de travail dédié à l'amélioration de la convivialité de Wikipédia pour les nouveaux contributeurs. Wikimedia strategic planning (archivé) fut le site utilisé de 2009 à 2010 pour l'élaboration le plan stratégique 2010-2015.
Tableau 3.3. Exemples de sous-projets d'aide et de sensibilisation au sein des projets Wikimédia
Le WikiMOOC est un MOOC, c'est-à-dire un cours en ligne gratuit et ouvert à tous, destiné à l'apprentissage de la contribution sur Wikipédia. Il est conçu par des contributeurs et contributrices bénévoles de Wikipédia, avec le soutien de Wikimédia France. Noircir Wikipédia est une initiative visant à combler les lacunes de références, d'articles, d'informations sur la culture, les personnalités africaines et de la diaspora africaine et afro-descendante sur Wikipédia.
Le projet Les sans pagEs est un sous-projet de la version francophone de Wikipédia, initié en juillet 2016, dont le but est de lutter contre les déséquilibres de genre sur les articles de l'encyclopédie Wiki Loves Monuments, littéralement « Wiki aime les monuments », est un concours photographique international se tenant annuellement en septembre, dont l'objectif est de mettre en valeur les biens classés patrimoniaux.

Les projets de gestion techniqueModifier

Afin de gérer les questions techniques liées au mouvement, un ensemble de sites et de projets ont vu le jour. Parmi ceux-ci se trouve le site Phabricator, lancé en septembre 2014 en remplacement de Bugzilla. La mission inchangée de ces deux projets consiste à résoudre des bugs rencontrés dans les projets, tout en offrant un lieu de coordination pour d'autres tâches qui ne sont pas forcément liées à la gestion informatique[233]. Le site MediaWiki pour sa part est une autre plateforme multilingue dédiée au développement collaboratif et à la documentation du logiciel MediaWiki utilisé par tous les projets éditoriaux Wikimédia. Le site Wikitech, quant à lui, est une plateforme d'information et d'orientation technique au sujet du Wikimedia Cloud Services (WMCS)[234]. Il est utilisé en janvier 2020 par plus de 16000 personnes[235] et permet d'avoir accès aux dumps et aux systèmes de gestion de bases de données des projets Wikimédia[236]. Le projet Wikimedia research ensuite rassemble une équipe de « scientifiques et d'ingénieurs qui utilisent des données pour comprendre et responsabiliser des millions de lecteurs et de contributeurs qui interagissent quotidiennement avec Wikipédia et ses projets frères »[237][238]. Parmi les projets techniques, apparait enfin le projet Wikimedia Enterprise, le seul projet commercial du mouvement Wikimédia dont le but est de vendre des services pour les utilisateurs commerciaux à grande échelle du contenu des projets Wikimédia[239].

Tab. 3.4. Présentation des projets de gestion technique du mouvement Wikimédia
Wikimedia Phabricator est une plateforme de collaboration ouverte à tous les contributeurs et contributrices de Wikimédia pour gérer le travail lié aux logiciels mais des initiatives non techniques sont les bienvenues. Le site MediaWiki est une plateforme de développement et de documentation attribuée au logiciel MediaWiki utilisé par tous les projets éditoriaux Wikimédia.
Wikitech est une plateforme destinée à documenter les projets et infrastructures informatiques d'aide au mouvement Wikimédia, hébergés sur le cloud par la Fondation Wikimédia. Test Wiki est un site Wikimédia utilisé par les développeurs du logiciel afin de tester leurs codes avant de les appliquer à d'autres sites.
Toolforge (anciennement toolserver), est un sous-projet de Wikitech dédié à la gestion du cloud computing Wikimédia dédié à l'hébergement de projets assistés par la communauté. Wikimedia Cloud VPS est un sous-projet de Wikitech composé d'un espace de gestion du cloud computing Wikimédia destiné à l'hébergement de projets autonomes.
Data Services est un sous-projet de Wikitech qui permet un accès direct aux bases de données et aux dumps, ainsi que des interfaces Web pour les requêtes et l'accès par programmation aux magasins de données. Wikimedia Enterprise est un projet dont l'objectif est de créer des services commerciaux pour les utilisateurs commerciaux à grande échelle du contenu Wikimédia.

Les espaces de communication et d’informationModifier

Dans le but de communiquer en interne, le mouvement Wikimédia héberge des centaines de listes de diffusion[240], privées ou publiques, répertoriées sur la page https://lists.wikimedia.org, ainsi de nombreux salons de conversation sur IRC, Telgram, Discord, masttermost. D'autres encore peuvent être spontanément initiés par les contributeurs par la création de nouveaux espaces dans les réseaux sociaux. En septembre 2019, une plateforme établie à partir WordPress et Discourse intitulée « Wikimédia Space » a vu le jour comme espace d'échanges d'informations et de conversations entre les personnes actives au sein mouvement Wikimédia[241]. Faute de participation sans doute, elle ne garda toutefois en fin février 2020 que son espace de bloging[242] intitulé Diff[243]. Celui-ci est destiné aux membres du mouvement, avec une attention particulière accordée aux communautés sous-représentées. Les articles peuvent y être traduits en plusieurs langues et sont soumis à un processus éditorial simplifié[244].

Dans le but de communiquer avec le grand public cette fois, la Fondation Wikimédia possède un site d'information officiel dédié à sa gouvernance[245], en plus d'un site vitrine[246] avec un espace News[247]. Divers espaces blog[248] permettent ensuite de publier les nouvelles en provenance du mouvement Wikimédia. Certaines associations telles que Wikimédia France[249] et Wikimédia Suisse[250] possèdent aussi un site officiel autohébergé tandis que d'autres, comme l'association belge[251] et canadienne[252], utilisent un wiki hébergé par la Fondation. Un blog similaire, mais dédié à la communauté technique Wikimédia, appelé Wikimedia Techblog[253], est aussi mis à jour par une équipe de soutien aux développeurs des projets Wikimédia[254]. Toujours au niveau technique, mais en interne cette fois, la plateforme Phabricator présentée dans la section précédente héberge une quinzaine d'espaces blog[255].

Parfois inclus dans son site officiel, comme c'est le cas pour l'association française[256], les blogs ne sont pas maintenus uniquement par les associations locales comme cela se passe en Belgique[257]. Des groupes d'utilisateurs et même de simples utilisateurs actifs dans le mouvement peuvent aussi créer leurs propres espaces d'information, comme ce fut le cas pour une dizaine d'entre eux qui ont opté à un moment ou l'autre pour l'ouverture d'un blog et bien souvent sans y indiquer le nom d'utilisateur de l'auteur lorsqu'il s'agit de critiquer Wikipédia. La mode étant passée, aucun de ces blogs, dont une liste non exhaustive est reprise ci-dessous, n'est toutefois resté actif après 2020 à l'exception du blog Wikirigoler et le blog Theoliane[258], une contributrice et patrouilleuse active sur Wikipédia en français depuis 2007. Wikirigoler aussi appelé le blog de Pierrot le chroniqueur, qui fut reconnu comme « l'un des blogues ayant le plus influencé la communauté de Wikipédia en français »[259] dont l'archivage se trouve sur la page http://web.archive.org/web/20201103065439/http://wikirigoler.over-blog.com, fut le seul aussi à avoir été censuré sur les projets Wikimédia suite à une histoire décrite plus en détails dans un prochain chapitre.

Quelques journaux sont aussi apparus à l'intérieur des projets Wikimédia. Au niveau francophone, il y a le journal Wikimag[272] et l’infolettre Regards sur l'actualité de la Wikimédia (RAW)[273], qui sont deux périodiques publiés par et pour la communauté d'éditeurs. Un journal homologue existe sur la page Wiktionnaire, Actualités du projet Wiktionnaire francophone[274]. Au bout du compte, tous ces journaux représentent une trentaine d'espaces d'informations dont la liste est disponible sur le site Meta-Wiki[275]. Parmi tous ces journaux, le mensuel Signpost apparaît comme le plus ancien de tous. Développé par la sphère anglophone du mouvement, celui-ci offre une synthèse des événements importants tout en étant principalement axé sur le projet Wikipédia[276]. Il fut inauguré en janvier 2005 par Michael Snow qui devint membre du conseil d'administration Wikimédia de 2008 à 2010, avant de rejoindre le conseil consultatif[277]. Tous ces espaces de communication sont en grande partie regroupés en une seule page du site web Planet un agrégateur de flux RSS[278].

Tab. 3.5. Exemples d'espaces ou de projets de communication Wikimédia
Wikimedia Space était une plateforme d'information, de discussion, de collaboration et de support qui finalement se limite aujourd'hui à un espace blog destiné aux acteurs du mouvement Wikimédia. Le Service de courriels Wikimédia est dédié à la gestion des courriels pour les employés au sein du mouvement et gère par la même occasion l'ensemble des listes de diffusion.
Le Wikimag est un journal hebdomadaire qui permet de se tenir informé de ce qui se passe sur Wikipédia, les décisions de la communauté, les débats, etc. Regards sur l'actualité de la Wikimédia (RAW) est un hebdomadaire qui a pour principal but de renseigner la communauté Wikipédia en français sur ce qui se produit en dehors de celle-ci.

Introduction à l’espace hors ligne du mouvementModifier

Comme instances hors-ligne du mouvement Wikimédia, il faut entendre tous les lieux d'activités dont le siège principal ne figure pas en ligne. Il va de soi que les activités de ces instances peuvent aussi se dérouler en ligne et certainement depuis l'arrivée de la pandémie de Covid-19 en début d'année 2020 et suite aux différents confinements qui lui succédèrent. Mais toutes ces instances n'en restent pas moins distinctes des projets présentés précédemment tant au niveau de leur fonction que de leur fonctionnement. Une autre distinction importante concernant la sphère hors ligne du mouvement est le fait que les acteurs du mouvement sont connus sous leurs réelles identités, alors que l'utilisation de pseudonymes durant les activités en ligne est généralisée.

Au même titre qu'une nouvelle version linguistique d'un projet Wikimédia, un nouveau projet hors ligne doit préalablement faire ses preuves avant de se voir attribuer son propre site et de pouvoir le garder. Les critères qui permettent à une instance d'être officiellement affilée au mouvement par le conseil d'administration de la Fondation Wikimédia ont été indiqués dans le tableau 2.1 situé en onzième section du chapitre précédent. Voici dans le tableau ci-dessous tout ce qui est attendu d'un organisme pour qu'il puisse garder son affiliation[279]. Toutes les informations au sujet des affiliés ainsi que leurs rapports d'activités sont également accessibles depuis le portail Meta-Wiki à l'adresse : https://meta.wikimedia.org/wiki/Wikimedia_Affiliates_Data_Portal.

Tab. 3.6. Comparaison de ce qui est attendu pour pouvoir maintenir son affiliation au mouvement en fonction des différentes sortes d’entités
Prévisions de résultats Organisations locales Organisations thématiques Groupes d’utilisateurs
Activités sur le terrain et en ligne réalisées pour soutenir Wikimédia
Plusieurs par trimestre
Plusieurs par trimestre
Au moins une fois par an
Avertissement des changements dans les documents relatifs à la gouvernance ou dans les membres de la direction
Conformité avec les politiques du mouvement et ses principes de gouvernance
Collaboration avec les autres affiliés et les autres projets
Rapport annuel publié sur le wiki Méta
Détaillé
Détaillé
Résumé
Maintien d'une expertise dans le domaine de spécialité du groupe qui soit accessible à la communauté Wikimédia
Activité régulière et rapports financiers publiés sur Méta-Wiki
Suivi et participation aux échanges relatifs au domaine de spécialisation du groupe
Suivi et participation aux politiques publiques relatives au domaine de spécialisation du groupe
Représentation de Wikimédia dans des manifestations publiques relatives au domaine de spécialisation du groupe
Sources de revenu variées

La Fondation WikimédiaModifier

 
Fig. 3.2. Photo de groupe des employés de la fondation Wikimedia en janvier 2020 (Source : https://w.wiki/4LYq)

La Wikimedia Foundation Inc (WMF) est le siège central administratif du mouvement dont les bureaux se situent dans la ville de San Francisco, non loin de la Silicon Valley. Elle possède les noms de domaine des projets Wikimédia, les marques déposées, et est responsable de la majeure partie des collectes de fonds effectuées par le mouvement[280]. Cette organisation sans but lucratif, catégorisée ONG par l'Union européenne[281], est supervisée par un conseil d'administration reconnu comme l'organe décisionnel le plus élevé du mouvement, responsable de la stratégie et de la supervision de la Fondation.

Avec un organigramme relativement classique, les employé·e·s de la Fondation se répartissent au sein de huit départements[282] supervisés par une équipe de direction regroupant trois personnes[283]. Voici repris ci-dessous et selon des informations récoltées sur une page du site de la Fondation dédiée à la présentation de son personnel (code QR ci-contre), la liste de ces départements avec entre parenthèses le nombre de personnes qui y travaillent, en date du 7 janvier 2022. Comme en témoignent certaines archives de cette page, le total des employé·e·s de la Fondation sera passé de plus de 450 employé·e·s en janvier 2021[284] à plus de 550 en janvier 2022[285]. Ce qui indique donc un accroissement d'effectif d'environ 50 personnes pour une période d'un an seulement.

  • Le département progrès (62 personnes) s'occupe de la collecte de fonds, des partenariats stratégiques et des programmes de subventions qui alimentent le mouvement[286]
  • Le département communication (32 personnes) assure le partage des informations au sujet du mouvement Wikimédia, des projets Wikimédia et du travail de la Fondation Wikimédia elle-même[287]
  • Le département finance et administration (38 personnes) a en charge la gestion des fonds et des ressources de la Wikimedia Foundation, en accord avec ses valeurs fondamentales de transparence et de responsabilité[288]
  • Le département juridique (29 personnes) s'occupe des supervisions juridiques pour la Fondation sans prendre, pour autant, le rôle d'avocat pour la communauté et les organisations affiliées[289][290]
  • Le département opération (5 personnes) exécute la stratégie et la vision de l'organisation en se basant sur la connaissance du marché, les points de preuve des données et l'excellence opérationnelle[291]
  • Le département public (163 personnes) construit, améliore et gère les fonctionnalités des sites Wikimédia[292]
  • Le département talent et culture (26 personnes) prend en charge le recrutement, le leadership, le développement organisationnel et la gestion du personnel[293]
  • Le département technologie (138 personnes) construit, améliore et maintient l’infrastructure des sites Wikimédia[294]

Tout ceci en gardant à l'esprit que les travailleurs de chaque équipe peuvent ensuite se mélanger en se répartissant dans différents projets tels que :

  • Projet croissance et engagement des nouveaux éditeurs dans les projets de tailles intermédiaires[295]
  • Projet éditeur visuel[296]
  • Projet application mobile[297]
  • Projet améliorations de l'expérience pour les ordinateurs de bureaux[298]
  • Etc.

À ces équipes de travail permanentes, faut-il encore ajouter des équipes temporaires, comme celles créées à l'occasion des campagnes d'élaboration de la stratégie du mouvement. Lors de l'élaboration de la stratégie de 2018 à 2020, en plus d'une équipe « fondamentale » de cinq employés[299] ce furent 8 autres personnes qui furent engagées temporairement[300]. Le but de cette équipe temporaire était de gérer les informations et savoirs récoltés tout au long du processus tout en assurant une liaison entre le processus et la communauté[301].

Le conseil d’administrationModifier

 
Fig 3.3. Conseil d'administration de la fondation Wikimédia en 2019 (source : https://w.wiki/4LYv)

En fin d'année 2021, le conseil de la Fondation Wikimédia est composé de 16 sièges. L'un d'eux est attribué à Jimmy Wales en qualité de membre fondateur et les autres se répartissent en 7 sièges cooptés et 8 sièges élus par la communauté[302]. Ce conseil d'administration est soutenu dans son autorité par diverses instances. La première est constituée par l'équipe cosmopolite de volontaires Wikimédia[303]. La deuxième représente le groupe de salariés de la Fondation[304] réparti comme nous l'avons vu en 8 départements[305] et supervisés par un bureau de direction[306]. La troisième est un comité électoral composé de volontaires supervisés par un membre du conseil d'administration et conseillé par quatre membres du personnel[307]. La quatrième est une commission de médiation composée de membres volontaires désignés par le conseil d'administration[308]. Anciennement il existait aussi un conseil consultatif composé jusqu'au 30 juin 2018 de 16 membres invités par le conseil[309]

De récentes modifications apportées au statut de la Fondation le 21 janvier 2021[310] vont cependant changer la composition et l'organisation du prochain conseil d'administration. Compte tenu de l'accroissement de l'effectif salarié de la Fondation et par le fait que la fonction d'administrateur est bénévole, le nombre de sièges du conseil va passer progressivement de 10 à 16. Les personnes élues le seront cette fois dans un scrutin commun aux projets en ligne et hors ligne en veillant à ce que les personnes cooptées ne dépassent jamais la moitié de la composition du conseil[311]. Chaque nouvelle résolution[312] approuvée lors des réunions du conseil d'administration[313] est consignée depuis 2006 sur le wiki dédié à la gouvernance de la Fondation[314].

Les comités et groupes de travailModifier

En fin d'année 2021, le mouvement Wikimédia comprend aussi un ensemble de 13 comités[315]. Cinq d'entre eux sont composés uniquement de membres du conseil d'administration de la Fondation Wikimédia, mais avec le soutien de conseillers non-votants et d'une personne assurant un relais avec l'équipe de salariés active au niveau de la Fondation. Parmi ceux-ci, le comité de gouvernance du conseil s'assure que le Conseil s'acquitte efficacement de ses responsabilités[316]. Le comité d'audit s'occupe quant à lui, des questions financières et comptables[317]. Le comité des ressources humaines à son tour, supervise les politiques et les pratiques relatives à la rémunération et au personnel[318]. Quant au comité des affaires communautaire enfin, il a pour objectif d'évaluer, d'explorer et d'aborder les efforts actuels et futurs liés à la communauté, tout en améliorant continuellement les relations entre la Fondation et sa communauté au sens large pour réaliser la mission et la vision du mouvement[319].

 
Fig. 3.4. Groupe de travail autour de la stratégie du mouvement en 2017 (source : https://w.wiki/4LYn)

Dans le respect d'une certaine diversité géographique, linguistique et culturelle, six autres comités décisionnels indépendants sont formés de personnes issues de différentes parties du mouvement. Ces comités sont souvent assistés par du personnel de la Fondation et surveillés par certains membres de son conseil d'administration. Parmi ces comités, on retrouve un comité de distribution des fonds (CDF)[320], de langues[321], d'affiliations (AffCom)[322], de subvention de projet[323], de support pour les conférences[324]. Auxquels s'ajoute encore la commission de médiation[325] et un comité responsable des relations publiques de la Fondation, géré par des salariés de la Fondation, quelques bénévoles et du personnel des associations affiliées[326]. Sans oublier enfin des comités aux activités plus ponctuelles tels que le Comité intérimaire d'examen des cas de confiance et sécurité[327], celui de la rédaction de la charte du mouvement[328], le Comité des élections[329] et le Comité Wikimania[330].

Au-delà des comités, il existe enfin différents groupes de travail qui ne sont pas toujours permanents puisque certains répondent à une tâche limitée dans le temps. Le groupe consultatif pour l'élaboration de la stratégie 2020-2030, rassembla ainsi 10 personnes de manière ponctuelle pour mener à bien cette mission. Toujours à l'occasion du processus stratégique prirent ensuite place un comité de pilotage de 11 personnes[331] et un groupe de 17 rédacteurs. Les personnes actives étaient soit volontaires (simple éditeur, membre d'un groupe d'utilisateurs, d'un conseil d'administration d'une association nationale, etc.), soit salariées du mouvement. Parmi ces dernières, on pouvait trouver la directrice générale de l'association nationale Wikimedia Nederland (groupe consultatif)[332], ou même celle de la Fondation Wikimédia (groupe de rédaction)[333] qui se mélangent aux participants bénévoles pour réaliser les activités.

Les associations nationalesModifier

 
Fig. 3.5. Les chapters Wikimédia en janvier (Source : https://w.wiki/32GY).
  • Chapters existants
  • Chapters approuvés, mais pas encore fondés
  • Chapters dont la création est planifiée
  • Chapters en discussion

On trouve ensuite dans le mouvement Wikimédia une quarantaine d'associations appelées chapitres (de la traduction littérale du terme anglais chapter). Ces organismes sont des satellites nationaux de la Wikimedia Foundation. Ils sont administrativement indépendants et autorisés à utiliser les marques déposées de la Fondation pour la collecte de fonds propres et l'organisation d’événements.

L'objectif de ces partenaires locaux est d'assurer un support local aux communautés d'éditeurs, tout en assurant la promotion et un certain lobbying au niveau des autres institutions locales[334]. Ces organisations assurent aussi le recrutement local de nouveaux contributeurs, comme cela peut se faire lors de réunions hors ligne où se mélangent de nouveaux contributeurs ou de nouvelles contributrices avec des personnes plus chevronnées.

Au même titre que l'association Wikimédia France créée le 23 octobre 2004 sous la loi 1901[335], toutes ces associations sont à but non lucratif et diffèrent les unes des autres selon leur taille, leurs financements, infrastructures, leur nombre de membres ou d'employés. Certaines profiteront d'un financement d'État comme c'est le cas de l'association polonaise[336] et italienne[337]. D'autres comme l'association suisse et allemande, la première à voir le jour[338], ont aussi le privilège de gérer indépendamment les messages de récoltes adressés aux résidents de leurs pays lors des campagnes de donations[339]. Pour la plupart des associations nationales, le financement provient donc de dons directs, bien souvent fiscalement déductibles ou de subventions accordées par la Fondation en réponse à un protocole rigoureux de demande et de rapport d'activités[340].

Comme l'indique une page du site Meta-Wiki régulièrement mise à jour (code QR ci-contre), ces associations étaient au nombre de 38 en novembre 2021[341], avec une représentation sur chaque continent habité. Cette liste est en constante variation puisque de nouvelles associations ne cessent d’apparaître chaque année, alors que d'autres perdent leur qualité d'affilié suite à un manque de réactivité face aux exigences imposées par la Fondation pour maintenir cette reconnaissance. Parmi ces associations, certaines sont bien entendu plus développées que d'autres et 21 seulement disposent de bureaux en fin d'année 2021[342].

Les groupes d’utilisateursModifier

 
Fig. 3.6. Carte de répartition géographique des chapitres et des groupes d'utilisateur Wikimédia (source :https://w.wiki/32GW).

Un groupe d'utilisateurs Wikimédia[343] est une possibilité d'affiliation simple et flexible qui demande moins de prérequis qu'un chapitre ou qu'une organisation thématique (tableau 3.6). Pour en créer un, il suffit en effet de rassembler au moins trois éditeurs actifs et accepter le code de conduite établi au sein du mouvement[344]. De manière exceptionnelle, selon l'avis de Pierre-Yves Beaudouin, président de l'association Wikimédia France en 2021[345], un groupe d'utilisateurs peut parfois évoluer en organisation locale que l'on appelle chapter en anglais.

Comme en témoigne la page du site Meta-Wiki consacrée aux groupes d'utilisateurs (code QR ci-contre), plus de la moitié des groupes d'utilisateurs se forment d'ailleurs en dehors d'une perspective de rassemblement local. En janvier 2021, ces groupes étaient au nombre de 138[344] et se répartissaient comme suit : 54 groupes nationaux, 32 groupes régionaux, 27 groupes linguistiques, 11 groupes thématiques, 16 groupes identitaires et de sensibilisation, 16 groupes d'aide aux projets et 8 groupes de soutiens techniques. Une liste qui, encore une fois, est appelée à varier régulièrement en fonction du respect des conditions de création et de maintien du statut accordé par la Fondation.

Les organisations thématiques et futurs hubsModifier

De manière beaucoup plus restreinte, il existe aussi à l'intérieur du mouvement Wikimédia des organisations thématiques, à l'initiative d'associations indépendantes à but non lucratif « créées pour soutenir et promouvoir les projets Wikimédia dans un domaine prioritaire et spécifié »[346]. Parmi celles-ci, on retrouve en fin 2021, l'Amicale Wikimedia fondée en 2008[347] ainsi que le projet WikiProjet Med fondé en décembre 2012[348]. L'Amicale Wikimédia s'intéresse à la langue et la culture catalane. Elle a pour mission première de veiller à ce « que la somme de toutes les connaissances humaines soit librement disponible en catalan et que toutes les connaissances sur la culture catalane soient accessibles à tous dans n'importe quelle langue »[349][350]. Elle fut aussi lauréate du prix national de la culture délivré par le Conseil de la Culture et des Arts (CoNCA)[351]. La Wiki Med Foundation Inc[352] quant à elle, a pour vision un monde dans lequel « chacun aurait un accès libre à toutes les connaissances biomédicales »[353]. Elle travaille pour cela en étroite collaboration avec l'association Traducteurs sans frontières dans un réseau international intitulé Healthcare Information For All[354].

Dans un souci de décentralisation et de partage du pouvoir initié par les recommandations incluses dans la nouvelle stratégie du mouvement adoptée pour 2030, certaines entités thématiques ou locales devraient voit le jour et d'autres gagner en autonomie sous forme de hubs[355]. Parmi ce type de confédérations, l'association sans but lucratif Wikifranca[356] fut créé en fin d'année 2021, suite au dépôt de ses statuts à Genève[357]. Ce projet qui organise chaque année depuis 2013 le mois de la contribution francophone[358] vise à présent à fédérer les entités francophones à l'intérieur du mouvement. Au niveau régional cette fois, le premier regroupement du genre pris naissance en 2010 sous le nom d'Iberocoop dans le but de confédérer des entités affiliées au mouvement et situées dans la zone ibéro-américaine. Suivront ensuite ESEAP Hub, qui permet la collaboration entre de nombreux pays de l'Asie de l'Est et du Sud-Est et quelques pays du nord de l'Indonésie, le South Asia Hub qui confédère les pays d'Asie du Sud, Northern Europe et Central and Eastern Europe qui regroupent respectivement des pays nordiques de l'Europe et les pays d'Europe centrale et orientale et enfin WALRUS et United States Coalition qui coordonnent et financent des projets aux États-Unis.

Tab. 3.7. Présentation des projets thématiques et de certains hubs du mouvement Wikimédia
L'Amicale Wikimedia est une organisation qui a pour mission de faire en sorte que l’ensemble du savoir humain soit aussi disponible en catalan et que le savoir sur la culture catalane soit aussi disponible dans chaque langue. La Fondation et le WikiProjet Med a pour de promouvoir le développement et la distribution de contenu médical sur des projets Wikimédia, en donnant des conférences dans des universités et en travaillant pour développer un meilleur accès à la littérature médicale.
L'association Wikifranca est une collaboration entre les groupes francophones du mouvement Wikimédia, qu'ils soient affiliés ou non, dans le but d'encourager les activités dans les différents projets Wikimédia autant sur le Web que sur le terrain. L'ESEAP est une plateforme qui encourage les communautés de la région à partager leurs expériences et leurs idées, et à trouver des opportunités de collaboration avec d'autres communautés d' Asie de l'Est et du Sud-Est et de quelques pays du nord de l'Indonésie.
L'Iberocoop a pour but de lier les chapitres et les groupes de travail locaux de l'Ibéro-Amérique afin d'établir un chapitre dans la région, renforçant ainsi la collaboration et l'échange d'expériences. Wikimedia Europe centrale et orientale est un partenariat dont l'objectif principal est de stimuler la croissance de tous les projets Wikimédia de cette région et d'aider à la coopération et à la compréhension des projets individuels qui font partie de la région CEE.
La Coalition Wikimedia États-Unis est un cadre pour organiser la création d'un solide groupe de chapitres Wikimédia et d'organisations thématiques Wikimédia aux États-Unis, et de promouvoir la coopération entre eux. WALRUS (Wikimedians Active in Local Regions of the United States) est une coalition d'individus et d'organisations basée aux États-Unis qui soutient l'édition de projets Wikimédia.

Les projets d’assistancesModifier

Par projets d'assistances, il faut entendre les projets d'aide à la création de contenus dans les projets Wikimédia ou à leur utilisation par les lecteurs. Dans l'exemple du projet Kiwix, c'est un accès hors ligne à toutes les versions linguistiques des projets Wikimédia qui est rendu possible[359], ainsi qu'à bien d'autres ressources pédagogiques libres extérieures au mouvement[360]. Parmi les utilisateurs potentiels de ce projet, on retrouve des étudiants de pays émergents, mais également des personnes en prison[361]. Dans un tout autre registre, le projet Lingua Libre a lui pour but de produire un corpus audiovisuel multilingue collaboratif sous licence libre[362]. L'ancien projet Afripedia[363] abandonné, l'actuel projet WikiAfrica[364] qui s'associe au projet multilingue Wiki In Africa[365] sont quant à eux principalement actifs sur le continent africain. Le projet Wikipedia Zero, inspiré de la campagne de marketing direct Facebook Zero, offrait un accès gratuit aux projets Wikimédia via le web mobile. Il fut, lui aussi, abandonné quand il fut constaté qu'il n'atteignait pas les objectifs espérés tout en soulevant des problèmes de neutralité[366].

Tab. 3.8. Projets d'assistance au sein du mouvement Wikimédia
Kiwix, est un logiciel informatique pour lire les projets Wikimédia hors ligne (accès au site). Lingua Libre a pour but de produire un corpus audiovisuel multilingue collaboratif sous licence libre.
WikiAfrica vise à africaniser Wikipédia à travers différents réseaux, recherches, publications et événements. Wiki In Africa a pour mission de rééquilibrer le type et la diversité des informations et des perspectives qui sont disponibles en ligne sur et à partir de l'Afrique.
Afripédia (archivé) fournissait un accès hors-ligne aux projets Wikimédia dans les pays africains. Wikipedia Zéro (archivé) fut un projet visant à fournir un accès gratuit aux projets Wikimédia sur téléphone portable pour les populations ne pouvant financer un accès à Internet.

Les cycles de conférences et espaces de rencontresModifier

Vid. 3.1. Vidéo d'introduction en anglais pour la rencontre Wikimania 2021 (source : https://w.wiki/4ePd)

Il existe dans le mouvement Wikimédia plusieurs cycles de conférences annuels ou bisannuels qui s'adressent chacun à un public différent. La plus importante est sans nul doute la conférence Wikimania[367] (vidéo 3.1[368]), qui s'adresse à toutes les personnes actives dans le mouvement, tout en étant accessible aux personnes extérieures. Elle est traditionnellement précédée par un Hackathon[369] durant lequel des programmeurs et d'autres personnes impliquées dans le développement informatique, graphistes, concepteurs d'interfaces, chefs de projet et autres, collaborent intensivement sur des projets logiciels. Le Hackathon est donc en ce sens le pendant du Edit-a-thon, un autre type de rencontre hors ligne dont le but cette fois sera de créer ou d'améliorer des articles Wikimédia. De nombreux édit-a-thon furent ainsi organisés à l'occasion des campagnes internationales Art+Feminism dédiées à la correction des biais de genre sur Wikipédia.

Tous les évènements Wikimédia[370] sont inscrits dans un agenda commun[371] mis à jour sur le site Meta-Wiki. On y retrouve les conférences, hackathons, édit-a-thons, mais également des concours, ateliers ou tout autre type de rencontres organisés par le mouvement. Certaines de ces rencontres peuvent aussi être organisées en périphérie du mouvement comme c'est le cas de l'Enterprise MediaWiki Conference qui rassemble depuis 2016 des utilisateurs publics, privés, commerciaux ou non, du logiciel MediaWiki[372]. D'autres peuvent aussi être d'envergure nationale ou internationale, et organisées sur un ou plusieurs jours selon les exemples repris ci-dessous. D'autres encore ne sont que des rencontres informelles[373] programmées par une association locale sous forme de WikiPermanences[374] durant lesquelles les Wikimédiens chevronnés aident les nouveaux arrivants. De manière plus conviviale enfin, des rencontres telles que celles intitulées « mardi c'est Wiki »[375], permettent aussi aux éditeurs et éditrices de se rassembler autour d'un verre.

Rencontres internationales

Rencontres nationales

À l'arrivée du Covid-19[376], la Fondation qui avait fermé ses bureaux dans l'optique de privilégier le télétravail[377], invita cependant le mouvement à suspendre les activités hors ligne afin de renforcer les activités numériques dans le but notamment d'aider les étudiants[378]. Suite à cette crise sanitaire, la conférence Wikimania fut tout d'abord annulée en 2020 et reportée en 2021, mais seulement en vidéoconférence[379] via la plateforme commerciale Remo. Cette période exceptionnelle aura aussi donné naissance à des conversations mondiales en ligne ouvertes à tous les membres du mouvement. Celles-ci ont rassemblé une centaine de personnes pas session dans le but discuter de la transition[380] du mouvement vers l'application des principes[381] et recommandations[382] édictées dans le plan stratégique 2030[383].

Les partenariats externesModifier

Parmi les personnes actives dans le mouvement, certaines deviennent des wikimédiens ou wikimédiennes en résidence, dès qu'ils se mettent à travailler pour une institution externe. Celles-ci sont la plupart du temps de type GLAM (Galeries, Librairies, Archives et Musées), ou alors impliquées dans le domaine de l'éducation. Profitant de leurs expériences d'éditeurs actifs, ces personnes aident alors les organisations hôtes à éditer les projets Wikimédia, tout en encourageant la publication de documents sous licences libres tout en renforçant les liens avec le mouvement Wikimédia[384]. En 2019, pas moins de 170 postes de ce type avaient été recensés dans le monde, avec des contrats qui pouvaient varier entre quelques heures par semaine à plusieurs mois[385].

Outre les programmes de mise en résidence, d'autres partenariats furent aussi établis en relation, notamment et en premier lieu, avec le mouvement du logiciel libre. Le premier d'entre eux date de 2005, lorsque la distribution Linux KDE intégra du contenu de Wikipédia[386]. Viennent ensuite d'autres arrangements avec des fournisseurs de services tels que le projet OpenStreetMap[387], la free software foundation, l'Open Knowledge Foundation, l'association Creative Commons[388] et d'autres organisations proches de la mission Wikimédia telle que WikiToLearn.

 
Fig.3.7. Signature d'un contrat de partenariat entre Wikimédia France et le musée de Cluny en mars 2012 (source : https://w.wiki/4k5q)

Du côté étatique, certains projets plus ponctuels ont aussi vu le jour tel que Noongarpedia[389], un projet collaboratif avec le conseil australien de la recherche pour ajouter du contenu en langue Noongar et des informations sur cette culture dans les projets Wikimédia. Dans une perspective à plus long terme, une convention fut aussi signée entre l'association française et les Archives de l'Hérault pour enrichir cette fois la médiathèque Wikimédia Commons et compléter par la même occasion, les articles Wikipédia sur les notices concernant les fonds d'archives[390].

En Suède, ce sera avec l’Organisation des Nations Unies pour l'éducation, la science et la culture (Unesco) et l'association Cultural Heritage without Borders qu'un partenariat sera établi avec le mouvement dans le but de mettre sous licence libre des informations traitant de certaines formes d'héritages culturels en péril[391]. La Fondation établit aussi en 2019, un autre partenariat avec le Haut-Commissariat des Nations Unies aux droits de l'homme dans le but d'améliorer la qualité et la quantité du contenu relatif aux droits de l’homme sur Wikipédia[392]. Plus récemment en 2020, c'est l'Organisation mondiale de la Santé qui se joignit au mouvement dans le but de rendre gratuit l'accès à des informations textuelles, graphiques et audiovisuelles produites lors de la pandémie Covid-19 avec mises à jour automatiques[393].

Il est ensuite important de signaler que le mouvement n'est pas réfractaire à l'idée de collaborer avec des entreprises commerciales, que ce soit pour bénéficier d'un support financier ou technique, ou encore diffuser le contenu des projets Wikimédia. Au niveau technique, un des premiers partenariats du genre apparut déjà en 2005, lorsque la Fondation établit un accord très médiatisé avec l'entreprise Yahoo[394] dans le but d'héberger le contenu des projets Wikimédia diffusés en Asie[395]. Avant Yahoo, Google avait déjà offert des services d'hébergement bien que la proposition soit restée sans suite[396]. Ce qui n'empêcha pas l'entreprise de garder contact avec la Fondation jusqu'à devenir un mécène important, avec un premier versement de 2 millions de dollars américain en 2010[397], bien supérieur à la contribution d'autres géants du Web tels que Facebook ou Amazon. Toujours du côté finance, 2013 fut ensuite l'année où un arrangement avec Coinbase vit le jour pour faciliter les dons offerts en bitcoins à la Fondation[398].

Vid. 3.2. Interview de Sandrine, professeure-documentaliste active avec ses élèves sur les projets Wikimédia (source : https://w.wiki/4PNV)

Google resta par la suite un partenaire de long terme, avec un nouveau soutien technique et financier de 2018[399] au projet Tiger, dédié au développement des langues minoritaires indiennes dans les projets Wikipédia[400]. En 2019 et après avoir versé encore plusieurs millions de dollars, ce géant du web[401] permit ensuite la création d'un plus grand contenu en langues locales suite à l'intégration de Google Translate dans les outils de traduction Wikimédia[400]. Tout ceci peut apparaître comme des aides techniques et financières importantes, cependant elles restent négligeables au vu des millions de dollars que possède la Fondation. De plus, l'indépendance financière de la Fondation repose sur des milliers de dons annuels privés d'en moyenne 15 dollars. En 2020, celle-ci bénéficiait d'une réserve budgétaire de plus de 166 millions de dollars[402], alors qu'en 2017 déjà, le journal Quartz estimait que la Fondation affichait une marge d'exploitation très enviable[403].

Concernant la diffusion du contenu des projets Wikimédia cette fois, c'est en 2007 que vit le jour un partenariat entre la Fondation Wikimédia et la société commerciale allemande Pediapress[404]. Le but ici était de permettre la vente de livres papier compilés au départ d'articles en provenance des projets Wikimédia avec toutefois une compensation financière de 10 %[405]. Plus tard, en 2009, un autre partenariat, controversé cette fois compte tenu de la présence de publicité, vit le jour avec la firme Orange. Celle-ci fut autorisée à fournir le contenu des projets Wikimedia sur ses portails web et mobile dans certains pays[406] mais profita de cette occasion pour glisser des encarts publicitaires[407]. Dans le contexte d'un projet plus global, arriva ensuite le projet Wikipédia Zéro dont la finalité était de fournir un accès gratuit aux projets Wikimédia via l'internet mobile. Dans ce cadre, la Fondation établit alors diverses collaborations avec des producteurs de hardware[388], des entreprises actives sur le Web et de nombreux opérateurs de télécommunication[408]. Plus récemment enfin, la maison d'édition Garnier, l'association Wikimédia France et le projet Wiktionnaire en français ont coordonné leurs efforts pour aboutir à la publication d'un dictionnaire papier intitulé Le Dico,

Vid. 3.3. Introduction à une série de vidéos destinées à « Enseigner Wikipedia Par Les Anecdotes » (source : https://w.wiki/4PPK)

À toutes ces collaborations officielles entre le mouvement Wikimédia et d'autres organismes, il faut encore ajouter de nombreuses collaborations informelles qui auront vu le jour au départ d'initiatives personnelles telles que celles pouvant venir d'enseignants. Dans diverses écoles ou universités, on demande parfois aux étudiants d'éditer ou d'étudier les projets Wikimédia (vidéo 3.2[409] et 3.3[410]). Alors que les cas les plus médiatisés concernent Wikipédia, il faut savoir que différentes collaborations s'organisent aussi avec d'autres projets frères. C'est le cas de Wikilivres avec des travaux personnels encadrés[411] et de Wikiversité aussi avec des collaborations interwiki[412], des projets personnalisés de scolarisation (PPS), des plans d'accompagnements personnalisés (PAP) et même des MOOCs produits par le centre national d'enseignement à distance (CNED)[413].

Au niveau de l'enseignement, il faut mentionner l’existence du site Wikimedia outreach déjà présenté et de son portail dédié au secteur de l’éducation[414]. Côté hors ligne, certains chapitres affiliés au mouvement organisent aussi des concours pour les étudiants[415]. Il existe ensuite la Fondation Wiki Education, ce spin-off de la Fondation Wikimédia qui sert de trait d'union entre le monde universitaire États-unien et Canadien, et les projets Wikimédia[416]. Et, toujours du côté universitaire, existe enfin le laboratoire CivilServant's Wikimedia studies qui travaille avec plusieurs communautés Wikimédia pour améliorer la rétention des nouveaux éditeurs et améliorer l'expérience et la motivation des plus expérimentés[417].

Tous ces projets, institutions, sites web, organisations, groupes et instances internes ou associés au mouvement composent donc en fin de compte l’organigramme Wikimédia. À l'intérieur de cette structure, s'articule ainsi tout un ensemble de réseaux formels ou informels, d'organisations et d'acteurs isolés, qui dans l'ensemble se rassemblent tous autour de valeurs partagées et du projet commun qu'est le libre partage des connaissances. Après en avoir fait le tour, on se rend bien compte qu'il s'agit là d'une organisation extrêmement complexe. Une complexité certes, mais qui n'en reste pas moins très saine, puisqu'en son sein, les principaux acteurs que sont les bénévoles restent libres de participation, alors que les associations et leur personnel œuvrent dans une totale indépendance des lobbys politiques et financiers.

Une complexité saineModifier

Nous venons donc de découvrir que le mouvement Wikimédia est un vaste système ouvert où se retrouvent d'une part, une sphère d'activité numérique mondialement connue grâce au projet Wikipédia et d'autre part, une sphère d'activité hors ligne qui l'est beaucoup moins et dans laquelle la Fondation Wikimédia occupe une place centrale. Alors que les projets éditoriaux fonctionnent essentiellement avec des bénévoles, les instances hors ligne rassemblent quant à elles, de nombreux travailleurs rémunérés dont l'activité principale consiste à améliorer les infrastructures et à soutenir les bénévoles. Très peu concernés jusqu'à ce jour par la gouvernance des projets, les contractuels du mouvement sont dès lors plus actifs au niveau technique, logistique, administratif, juridique, financier et parfois organisationnel, mais uniquement alors dans le contexte d'événements d'envergures nationales ou internationales.

Dans une proportion beaucoup moindre, des bénévoles peuvent aussi être actifs ou actives hors ligne au niveau de la promotion, de la formation, de la gestion, de la coordination ou du développement de la stratégie. Réciproquement, de nombreuses personnes salariées peuvent être actives au niveau de l'espace numérique, dans le but cette fois d'améliorer les fonctionnalités des sites, d'en faire la maintenance, l'observation statistique, ou encore pour aider la communauté bénévole à organiser ou à financer des projets. Cependant, les salariés ne peuvent en aucun cas éditer les projets Wikimédia dans le cadre de leurs activités rémunérées de manière à ce que la justice ne puisse jamais considérer la Fondation comme éditrice responsable du contenu des projets, en plus de sa qualité d'hébergeuse. Libre à eux, bien sûr, de le faire dans les limites de leurs vies privées en utilisant un compte anonyme par exemple. Mais toujours est-il qu'un contrôle de ce type d'activité existe bel et bien et qu'un manquement à cette règle peut aboutir à un licenciement, ce qui s'est déjà produit[418].

À l'inverse, il est habituel que les bénévoles aient accès à la quasi-totalité des activités du mouvement, hormis sans doute certaines réunions ou activités réservées aux employés auxquelles je n'ai moi-même jamais eu accès. Ceci sans compter que tout le conseil d'administration de la Fondation et de toutes les autres organisations à but non lucratif affiliées au mouvement est composé de bénévoles. Ensuite, au niveau des comités de gestion, les groupes de travail, etc., il est fréquent de voir de simples bénévoles collaborer avec la directrice ou le directeur d'une association locale ou même de la Fondation. À l'inverse, les personnes rémunérées, y compris à l'extérieur du mouvement, ne sont bien souvent que tolérées dans la vie éditoriale des projets. Ces contributions rémunérées doivent en effet se faire dans le respect de règles de divulgation présentes dans les conditions générales d'utilisation des projets[419].

À l'intérieur de l'organisation Wikimédia apparait donc une double dualité de type bénévole/salarié et en-ligne/hors-ligne, qui n'empêche en rien les acteurs d'être connectés par moments et déconnectés à d'autres, ni de passer du statut de bénévole à celui de contractuel et vice versa. Le contributeur Sebleouf fait figure d'exemple lorsqu'il a ouvert un nouveau compte utilisateur intitulé « Seb en Résidence » lorsqu'il fut employé par l'Institut international pour la Francophonie de Lyon pour travailler un an sur le Dictionnaire des francophones. Une fois son mandat terminé, il est redevenu actif en qualité de bénévole et adressa ce message[420] à la communauté des éditeurs du projet Wiktionnaire francophone :

Tout au long de cette année, j’espère avoir été à l’écoute de la communauté et j’espère que mes modifications ne sont pas allées à l’encontre des usages en vigueur. N’hésitez pas à me faire part de toute remarque ou question sur des choses que j’aurais pu faire ou ne pas faire, je me tiens disponible pour en assurer le suivi. J’ai appris énormément de choses sur les façons de faire, la lexicographie en général et j’ai aujourd’hui une vision assez précise de ce qu’est une bonne entrée, une bonne définition. Aujourd’hui, avec mon compte personnel Sebleouf, j’ai l’ambition de continuer ces missions d’amélioration de la qualité à titre bénévole.

Si l'on ajoute à cette double dichotomie imbriquée, croisée et perméable, l’extrême diversité ainsi que l'autonomie des projets en interaction au sein du mouvement Wikimédia, on se trouve donc en fin de compte face à un système complexe. Or, pour aborder correctement ce genre de système, il est dès lors nécessaire d'adopter une pensée tout aussi complexe à l'image de ce que des auteurs tels qu'Edgar Morin ou Ken Wilber ont pu déjà réaliser. Une telle pensée est très exigeante. Non seulement elle demande d'aborder le sujet d'étude de manière holistique, mais elle demande en plus de le faire selon différentes « causalités » (linéaire, récursive, circulaire et rétroactive)[421], tout en acceptant différentes vérités situées dans quatre « quadrants »[422] qui offrent chacun une vérité située au départ d'un point de vue intentionnel, psychologique, culturel et social. Ce qui débouche donc parfois sur une nécessaire coexistence de pensées contradictoires lorsque l'on constate par exemple que le « tout est à la fois plus et moins que la somme des parties »[421].

 
Fig. 3.8. Carte mentale du Mouvement Wikimédia en 2019 (source : https://w.wiki/4LYU)

Des premières tentatives de développement d'une pensée complexe au départ du concept d'autopoïèse[423] et de stigmergie, un autre concept nomade emprunté à la biologie des insectes sociaux a déjà vu le jour dans le but d'expliquer l’auto-organisation de l'encyclopédie Wikipédia. Selon ce principe, le développement de l'encyclopédie pourrait s'expliquer, en partie pour le moins, par un enchaînement de réactions des contributeurs provoquées par les traces laissées suite aux actions précédemment faites par d'autres contributeurs[424]. Au travers des éditions, corrections, messages, et autres types d'interventions des contributeurs, apparaîtrait donc un système de motivation réciproque, qui serait entretenu par un principe d’action et réaction[425].

J'aimerais quant à moi, m'efforcer d'expliquer pourquoi la complexité du mouvement Wikimédia m’apparaît plus saine que bien d'autres organisations sociétales à dimensions planétaires. Rappelons-nous effectivement que le mouvement a pour vision de développer un système de partage des connaissances humaines au niveau mondial. Pour atteindre cet objectif, il faut donc bien instaurer quelques stratégies afin d'éviter de retomber dans les erreurs du passé. Pour ce faire, le mouvement Wikimédia semble avoir tenu compte de manière inconsciente de cette composante importante dans l'organisation de la vie sociale que représente le nombre de Dunbar. L'intérêt de ce chiffre qui se situe entre 100 et 203 individus, selon les capacités cognitives de chacun, est qu'il détermine, selon son auteur, le nombre de personnes au-delà duquel il devient impossible d'établir des relations de confiance et une communication interpersonnelle de qualité[426]. Selon cette information, il apparait donc astucieux de maintenir au sein d'une grande structure complexe, un grand nombre de petits groupes autonomes mais interdépendants. L'avantage d'une telle structure organique sera de rester saine au niveau des relations interpersonnelles limitées à des groupes restreints, mais tout en regroupant ces groupes autour d'une cause commune.

Cette cause, nous l'avons vu, repose sur un projet d'avenir global, axé sur le partage libre et universel de toutes les connaissances. Dans d'autres cas par contre, elle peut tout aussi bien reposer sur l'idée d'une nation commune ou sur l’existence d'une croyance transcendantale partagée. Cependant, dans ces deux cas de figure, l'histoire nous montre qu'il existe de fortes probabilités pour que la structure globale qui en découle prenne la forme d'un état ou d'une religion. Ce à quoi ne ressemble pas du tout le mouvement Wikimédia, puisque tant au niveau d'un état que des religions, apparaissent des hiérarchies statutaires et un bon nombre d'instances dirigeantes imbriquées les unes dans les autres. Tout à l'opposé, ce que l'on retrouve dans le mouvement Wikimédia, c'est une cohabitation non hiérarchisée de groupes autonomes fondée sur un principe d'entraide et en l'absence de toutes relations coercitives. Une sorte de confédération d'organisations qui si l'on reprend les termes utilisés par l’anthropologue Charles Macdonald, se situe entre organisations « anarcho-grégaires » et « socio-hiérarchiques »[427].

Le mouvement Wikimédia apparait donc sous cet angle, comme une façon originale et intéressante de penser l'organisation du monde global et numérique. On pourrait d'ailleurs y voir l’émergence d'une première société démocratique mondiale. Une sorte d'application de la sociocratie[428] ou de l'holacratie à un niveau planétaire, dans lequel les différents groupes d'humains autonomes seraient vu tels des « holons »[429] sociaux. Ou autrement dit, comme un ensemble d'organismes autosuffisants capables de gérer des imprévus sans forcément ou obligatoirement se référer à une autorité supérieure. Ce dont découle finalement toute l'organisation sociale, économique, technique et politique complexe dont fait preuve le mouvement Wikimédia.

Conclusion : Une recherche d'équité dans le partage de la connaissanceModifier

 
Fig. 3.9. Photo de la foule des participants lors de la rencontre Wikimania 2016 (source : https://w.wiki/56i3)

Le moment est donc venu de conclure en retenant que le mouvement Wikimédia est bien plus vaste qu'une simple encyclopédie tout en étant aussi beaucoup plus complexe. Dans l'écoumène numérique, que certains préféreront appeler cyberespace, tout ce que ce mouvement a construit représente un « espace du savoir »[430] par excellence. C'est même la plus grande source de savoir qui nous est offerte à ce jour et peut-être aussi, la dernière de cette taille, à ne pas avoir été absorbée par l’« espace des marchandises »[430]. Car l'écoumène numérique, tout comme dans son homologue terrestre, est devenu le théâtre d’une lutte entre un désir de partage autonome qui s'oppose à un autre désir de contrôle et de profit commercial ou politique.

Initialement conçu comme espace d’émancipation, l'écoumène numérique n'aura pas non plus échappé aux phénomènes d’exclusions sociales[431]. Tous les êtres humains n'ont effectivement pas le privilège de devenir utilisateur de cet espace et encore moins du réseau Internet[432]. D'ailleurs, comme le disait Karl Polanyi en 1944 déjà : « au lieu que l'économie reste ancrée dans les relations sociales, ce sont les relations sociales qui sont devenues tributaires du système économique »[433][434]. Une situation dont certains membres du mouvement Wikimédia semblent être parfaitement conscients lorsqu'ils constatent qu'au niveau des projets Wikimédia, des inégalités existent et persistent.

Pour ces raisons sans doute, le mouvement aspire aujourd'hui à atteindre une certaine forme d'équité. Pour y arriver, chacun de ses membres fut invité à discuter l'élaboration d'une stratégie pour 2030. Arrivée à terme, celle-ci a finalement pour ambition de construire un monde plus juste dans le partage de la connaissance et plus sain dans son utilisation. C'est là en tout cas ce qui ressort de la synthèse des objectifs fixés par le mouvement Wikimédia[435] dans le cadre de sa mise en œuvre :

La connaissance en tant que service : Pour servir nos utilisateurs, nous deviendrons une plate-forme offrant des connaissances libres à travers le monde, sans limites d'interfaces ni de communautés. Nous bâtirons des outils pour que nos alliés et partenaires puissent organiser et partager des connaissances libres au-delà de Wikimédia. Notre infrastructure permettra que nous et d'autres puissions rassembler et organiser différentes formes de connaissances libres crédibles.

L'équité au sein de la connaissance : En tant que mouvement social, nous focaliserons nos efforts sur les connaissances et les communautés qui ont été exclues des structures de pouvoir et de privilège. Nous accueillerons des personnes de toutes les origines pour construire des communautés fortes et diverses. Nous surmonterons les obstacles sociaux, politiques et techniques qui bloquent l'accès et la contribution des personnes aux connaissances libres.

Notes et référencesModifier

RemerciementsModifier

Étant sujet à une certaine dysorthographie, je débute donc ces remerciements avec une pensée amicale envers toutes les personnes qui ont pris le temps de corriger l'orthographe de mes écrits. Dans cette même optique, je salue aussi au passage tous celles et ceux qui ont contribué à la production et au partage de correcteurs automatiques libres. J'en utilise effectivement trois différents de telle sorte à minimiser autant que possible le travail de mes relecteurs. Le premier est le correcteur natif de mon navigateur, le second est LanguageTool que j'ai utilisé dans sa version gratuite et le dernier, qui m'est apparu de loin comme le plus complet, est Grammalecte, un logiciel libre que l'on peut installer aussi bien sur Firefox que LibreOffice.

Au-delà de la forme, il me faut à présent remercier toutes les personnes qui m'auront assisté, corrigé, motivé, ou soutenu d'une manière ou d'une autre, au cours de la réalisation de ce travail de recherche. Je pense bien sûr à toute la communauté Wikimédia que je considère être la coautrice de ce travail, mais aussi aux membres du laboratoire d'anthropologie prospective, de ma famille et de mon entourage. Rien qu'au niveau de la communauté Wikimédia, c'est à coup sûr plus d'une centaine de personnes qui m'ont apporté leur aide, tant au niveau de l'amélioration de la forme de mon travail, lors de corrections discrètes et ponctuelles, qu'au niveau du fond, lors de nombreux échanges réalisés à de nombreuses occasions et dans de nombreux espace de discussion.

Plutôt que de parcourir des centaines de pages Web, pour y récolter les noms ou les pseudonymes de toutes ces personnes, et finalement en oublier certaines, je préfère donc rester équitable envers tous, en m'abstenant ici de citer qui que ce soit. Au lieu de cela, je trouve qu'il est préférable finalement de remercier tous les bénévoles du monde entier. C'est-à-dire toutes ces belles personnes que l'on retrouve dans le mouvement Wikimédia, mais aussi dans d'autres mouvements ou organisations, dans les familles, des groupes d'ami·e·s ou d'inconnus, et finalement en chacun d'entre nous, lorsque l'on partage ce que l'on a de manière bienveillante. Car au bout du compte, qu'il s’agisse de toute la consécration d'une vie ou d'un simple sourire, ce sont toutes ces actions bénévoles qui rendre notre monde plus beau. Ne l'oublions jamais.