Le mouvement Wikimédia/Première partie : La naissance du mouvement Wikimédia


Il existe, dans l’espace web, d’innombrables archives à partir desquelles il est possible de revivre les événements qui ont conduit à la naissance du mouvement Wikimédia. Cette « préhistoire » du mouvement peut notamment être découverte sur le site de Framasoft, un réseau d’éducation populaire crée plus ou moins un an avant le lancement de la version francophone de Wikipédia. Le site web de cette association apparait de fait comme une vraie mine d’informations au sujet des logiciels libres et de la culture libre qui s’est développée tout autour. Soit deux évènements culturels majeurs apparus dans l’histoire du développement informatique, d’Internet et de ses applications, et pourtant restés peu connus jusqu’à ce jour.

Le tableau La création d'Adam de Michel-Ange retouché par un Wikimédien de telle sorte à faire apparaitre le logo de Wikipédia entre le doigt de Dieu et celui d'Adam
Figure 2. La création d’Adam de Michel-Ange revisitée par un contributeur de Wikipédia.

Grâce à Framasoft et bien d’autres associations, il est ainsi possible de découvrir l’organisation et les motivations de milliers, voir de millions, de développeurs bénévoles actifs au sein du mouvement du logiciel libre. On y append, entre autres, que ce mouvement politique et sociale fut initié en 1983 par Richard Stallman, un programmeur du Massachusetts Institute of Technology (MIT), qui eu pour idée d’offrir à chacun et chacune, une alternative à la marchandisation du secteur de l’informatique.

Cette philosophie de libre partage, concrétisée par le projet de Stallman, découlait d’une organisation et d’une éthique originale, développée au sein d’une sous-culture en vogue dans le milieu informatique, qui fut documenté dans de nombreux ouvrages. Parmi ceux-ci se trouve « L’éthique hacker[1] », un livre remarquable, dans lequel le philosophe finlandais Pekka Himanen, analyse en détails les origines de la culture hacker », apparue au début des années 1950. Un simple extrait de la quatrième de couverture de cet ouvrage[2] permet de mieux comprendre la manière de penser de ce groupe d’informaticiens, qui fut rejoint par le créateur du premier logiciel libre durant ses études universitaires, pour en devenir, par la suite, l’une des figures les plus charismatiques :

On considérait jusqu’à présent le « hacker » comme un voyou d’Internet, responsable d’actes de piratage et de vols de numéros de cartes bancaires. Le philosophe Pekka Himanen voit au contraire les hackers comme des citoyens modèles de l’ère de l’information. Il les considère comme les véritables moteurs d’une profonde mutation sociale. Leur éthique, leur rapport au travail, au temps ou à l’argent, sont fondés sur la passion, le plaisir ou le partage. Cette éthique est radicalement opposée à l’éthique protestante, telle qu’elle est définie par Max Weber, du travail comme devoir, comme valeur en soi, une morale qui domine encore le monde aujourd’hui.

Cette citation nous aide à comprendre plus facilement les origines de Wikipédia et des nombreux projets frères apparus tout, avant la naissance de ce que l’on nomme aujourd’hui le mouvement Wikimédia. Un mouvement apparu au cœur de la révolution numérique, dans le contexte d’une transition culturelle dont l’un des aspects fondamentaux est sans nul doute : la concrétisation d’une utopie opposée à ce que Karl Polaniy[3] décrivait déjà, en 1944, comme un libéralisme économique, qui « subordonne les objectifs humains à la logique d’un mécanisme de marché impersonnel[4] ».

L'utopie Wikimédia modifier

Imaginons un instant que l’espace Web serait une gigantesque ville électronumérique. Au sein de cette ville se trouve alors un immense quartier[5], dans lequel sont rassemblés près d’un millier d’édifices[6] que l’on peut visiter librement et gratuitement. Imaginons ensuite qu’à l’exception de quelques bâtiments administratifs[7], non seulement on peut parcourir librement tous ces lieux, mais on peut aussi y modifier presque tout ce qui s’y trouve. On peut y apporter de nouvelles informations, sous forme de texte, photo, vidéo et document sonore, et aussi, si on le veut, ranger les informations apportées par d’autres, afin de rendre leur présentation plus esthétique ou plus compréhensible.

D’une manière plus incroyable encore, on peut même faire disparaitre l’entièreté de ce qui est présent dans une pièce ! Suite à quoi, comme par un tour de passe-passe, un programme informatique remettra tout en place, avant de demander gentiment d’éviter ce genre de vandalisme. La prochaine fois peut-être, ou dans le cas d’un acte de vandalisme plus sournois qui ne serait pas détecté par les robots, ce sera sans doute l’une des personnes qui a préalablement enrichi ou enjolivé la pièce qui annulera les modifications, juste avant de contacter le perturbateur. S’il s’agit d’un multirécidiviste, il est alors sanctionné en se voyant interdit de modifier le contenu du bâtiment[8] qu’il a précédemment vandalisé. Une décision qui, par ailleurs, sera toujours mise en application par un des volontaires administrateurs choisis par la communauté des bénévoles actifs au sein des projets.

 
Figure 3. Photo de la Digital City de Riyadh arborant une esthétique proche de la métaphore du quartier Wikimédia.

On comprend donc que tout le monde peut enrichir, mais aussi surveiller et protéger les richesses partagées dans le quartier Wikimédia. Il suffit pour cela de rejoindre le mouvement Wikimédia en se créant un compte qui permet, entre autres, de s’abonner à un système de notification, qui envoie un message, ou un courriel, à chaque fois qu’une des pièces des bâtiments Wikimédia[9] que l’on veut surveiller est modifiée.

Pour la création de ce compte, pas besoin de fournir une adresse ou un numéro de téléphone. Les seules informations personnelles indispensables au bon fonctionnement du quartier Wikimédia sont les adresses IP des ordinateurs au départ desquels sont faites les modifications de contenu[10]. Des adresses qui, de plus, deviennent invisibles suite à la création de comptes utilisateur.

Contrairement à ce qui se passe dans les quartiers commerciaux de la grande ville électromagnétique[11], aucune des informations récoltées lors des visites des bâtiments Wikimédia n’est ainsi vendue à des services de marketing. Même les adresses des visiteurs qui ne sont pas enregistrés sont appelées à disparaitre de la vue des autres internautes. Seules des personnes accréditées par la communauté pour effectuer des contrôles d’usurpation d’identité[12] pourront alors accéder à ces informations. C’est là une précaution nécessaire au bon déroulement des prises de décisions organisées au sein du quartier, durant lesquelles les personnes actives au sein des projets, tenteront souvent d’obtenir un consensus avant de passer au vote.

Wikimédia apparait ainsi comme le plus grand quartier de la ville électromagnétique dédiée au partage de la connaissance. Tandis que la partie la plus connue du quartier est composée de centaines de bâtiments encyclopédiques répertoriés par langues[13], derrière ceux-ci, et toujours séparés en versions linguistiques, se trouvent aussi de nombreuses autres bibliothèques. Celles-ci peuvent être soit générales[14], soit thématiques et spécialisées dans des domaines aussi variés que le traitement lexical[15], l’actualité[16], la pédagogie et la recherche[17], les voyages[18], les êtres vivants[19] et les citations d’auteurs[20]. Après quoi, il faut encore ajouter l’existence d’un immense musée médiatique[21] et d’une énorme banque d’informations factuelles[22] dont les fonctions sont d’enrichir les lieux précédemment cités. Le tout étant muni d’étages[23] spécialement dédiés à l’organisation technique ou politique des projets.

Parallèlement à cela et toujours de manière ouverte et libre de participation, on trouve dans le quartier Wikimédia plusieurs édifices entièrement dédiés à sa maintenance technique[24]. À côté d’eux, se trouve un building consacré à l’organisation générale des activités qui s’y déroulent[25], puis, un autre dans lequel s’opère le traitement des courriers adressés au quartier[26], et enfin, un dernier où s’organisent des activités de sensibilisation et de recrutement de nouveaux bénévoles[27].

En découvrant l’existence de ce vaste quartier numérique libre d’accès et de transformation, on comprend donc pourquoi le mouvement Wikimédia apparait, pour certains, comme l’une des plus grandes utopies du XXIᵉ siècle[28][29]. Car au bout du compte, ce mouvement social aura permis la création du plus grand espace libre du Web, dont le contenu est presque intégralement produit et géré par des bénévoles. Sans oublier que ce mouvement représente aujourd’hui, la plus grande organisation mondiale non marchande présente sur le Web. Autant de particularités donc, qui suscitent finalement cette simple question : Comment tout cela fut-il rendu possible ?

La réponse se trouve dans une particularité peu connue de l’histoire de l’informatique. Celle d’un chamboulement culturel apparu tout au long de la révolution numérique, et dont les origines se situent au niveau de la contre-culture des années 1960. Quand on regarde de plus près cette facette de l’histoire, on y découvre un véritable changement de paradigme orchestré par des chercheurs et étudiants en informatique, tous pionniers des réseaux et de leurs applications durant les années 70, 80 et 90. Une révolution dont l’aboutissement fut l’apparition d’une philosophie et d’un mode d’organisation tout à fait spécifique, dont aura hérité le mouvement Wikimédia.

D’ailleurs, dès les débuts du mouvement et lors de la création du projet Wikipédia, qualifié un jour de « bazar libertaire[30] » par le journal Le soir, un principe fondateur, dont l’énoncé est repris ci-dessous[31], illustrait déjà très clairement l’orientation culturelle du mouvement naissant.

N’hésitez pas à contribuer, même si vous ne connaissez pas l’ensemble des règles, et si vous en rencontrez une qui, dans votre situation, semble gêner à l’élaboration de l’encyclopédie, ignorez-la ou, mieux, corrigez-la.

Il ne s’agissait là en fait que d’une simple recommandation, mais à elle seule, elle exprime toutes les valeurs d’universalité, de liberté, de décentralisation, de partage, de collaboration et de mérite décrites par Steven Levy dans son ouvrage L’Éthique des hackers[32]. Une éthique qui, bien avant l’apparition du mouvement Wikimédia, aura permis le développement de tout un environnement technique gratuit, sans lequel le lancement d’une encyclopédie, écrite et gérée par des millions de contributeurs et contributrices situés aux quatre coins du monde, n’aurait jamais été possible.

Dès 2011 cependant, l’idée d’ignorer ou de corriger une règle en cas de besoin ne fut pas reprise dans les conditions d’utilisations des sites web hébergés par la Fondation Wikimédia[33]. Parallèlement à ceci et de façons variables selon les projets et leurs versions linguistiques, les communautés d’éditeurs ont aussi produit une série de règles et de recommandations[34], qui aujourd’hui, s’apparente fort à une ligne éditoriale. Ensuite, dans le courant de l’année 2023, c’est même un code de conduite universel qui fit son apparition au sein du mouvement, dans le but d’établir un « référentiel minimum des comportements acceptables et inacceptables[35] ».

Quoi qu’il en soit, il faut garder à l’esprit que le mouvement Wikimédia n’aurait jamais pu voir le jour sans Internet, le seul réseau mondial de communication en libre accès, ni l’apparition de son application World Wide Web, qui facilita grandement les interactions humaines à l’échelle planétaire. C’était juste avant que le Web 2.0 fasse son apparition grâce au développement de logiciels informatiques, qui rendirent possible la modification de sites web, au départ d’un simple navigateur.

Et il se fait que parmi ces logiciels web, on retrouve les moteurs de Wiki dont le plus puissant d’entre eux, intitulé MediaWiki, est utilisé et développé avec le soutien de la Fondation Wikimédia. D’où ce préfixe « Wiki » appliqué à tous les noms des projets développés au sein du mouvement, tel l’héritage d’un passé qu’il est possible de découvrir de manière chronologique. Le moment est donc venu d’en savoir un peu plus sur ce mouvement social, qui a précédé le mouvement Wikimédia et que l’on nomme communément le mouvement du logiciel libre.

Le mouvement du logiciel libre modifier

L’un des premiers épisodes remarquables de la préhistoire de Wikipédia et du mouvement Wikimédia débuta en septembre 1983, lorsqu’un programmeur du Massachusetts Institute of Technology (MIT) appelé Richard Stallman, déposa un message sur la newsletter net.unix-wizards du système d’exploitation Unix. C’était un appel à soutien pour la création de GNU, un nouveau système d’exploitation qui devait réunir une suite de programmes que chacune et chacun pourrait utiliser librement sur son ordinateur personnel[36]. Dans son message transmis via ARPANET, le premier réseau informatique de longue distance qui précéda Internet, Stallman s’exprimait de la sorte[37] :

Je considère comme une règle d’or que si j’apprécie un programme je dois le partager avec d’autres personnes qui l’apprécient. Je ne peux pas en bonne conscience signer un accord de non-divulgation ni un accord de licence de logiciel. Afin de pouvoir continuer à utiliser les ordinateurs sans violer mes principes, j’ai décidé de rassembler une quantité suffisante de logiciels libres, de manière à pouvoir m’en tirer sans aucun logiciel qui ne soit pas libre.

Le projet de Stallman, qui reçut le soutien nécessaire à son accomplissement, marqua ainsi le début de l’histoire du logiciel libre. Et si l’on tient compte des nombreux soutiens reçus par le projet, il est alors permis de croire que Richard Stallman n’était pas le seul à voir l’arrivée des logiciels propriétaires d’un mauvais œil. Car selon lui et les autres personnes qui ont rejoint le projet GNU, ces derniers ne respectaient pas les quatre libertés fondamentales des utilisateurs ou utilisatrices[38]. Quatre libertés qui à elles seules définissent avec précision de qu'est un logiciel libre :

1. La liberté d’exécuter le programme, pour tous les usages.

2. La liberté d’étudier le fonctionnement du programme, et de l’adapter à vos besoins.

3. La liberté de redistribuer des copies, donc d’aider votre voisin.

4. La liberté d’améliorer le programme, et de publier vos améliorations, pour en faire profiter toute la communauté.

Il faut en effet savoir qu’à cette époque, le marché de l’informatique était en pleine mutation, et que l’habituel partage des programmes et codes informatiques entre les rares étudiants ou chercheurs, qui bénéficiaient d’un accès à un ordinateur, était en train de disparaitre. Cette disparition était liée à la commercialisation des logiciels informatiques soumis, petit à petit, au copyright et aux interdictions de divulgation de leurs codes informatiques. De nouvelles clauses de confidentialité firent ainsi leurs apparitions dans les contrats des employés des firmes informatiques. Ce qui eu pour effet de remplacer le climat de solidarité et d’entraide, anciennement connu dans le monde de la recherche, par un nouveau paradigme basé sur la concurrence et la compétitivité.

 
Figure 4. Commodore 64 avec disquette et lecteur.

Cette mutation était sans aucun doute liée à l’arrivée d’un nouveau marché basé sur la vente des ordinateurs transportables. Leurs productions ne furent toutefois possibles qu’au début des années soixante, suite à l’arrivée des circuits intégrés⁣⁣ destinés à l’industrie aérospatiale. Sauf qu’à cette époque, leurs prix étaient beaucoup trop élevés pour pouvoir imaginer en faire un usage domestique. Par la suite cependant, et tout au long des années 70, le coût des puces électroniques ne cessa de diminuer jusqu’à permettre, en début d’année 80, la fabrication d’ordinateurs à des prix suffisamment bas pour développer un marché destiné aux ménages.

Suite à quoi, en 1982, le commodore 64 entrait dans livre Guiness des records, pour rester jusqu’à ce jour l’ordinateur le plus vendu au monde, avec plus de 17 millions d’exemplaires[39]. Mais juste avant cela, en 1981, l’IBM Personal computer avait déjà fait son apparition en offrant une architecture ouverte qui allait servir de modèle pour toute une gamme d’ordinateurs que l’on désigne, aujourd’hui toujours, par l’acronyme « PC ».

Pour faire fonctionner ses ordinateurs PC, la firme informatique avait confié à l’entreprise Microsoft la mission de les équiper d’un système d’exploitation. Le contrat signé avec IBM fut une véritable aubaine pour cette société commerciale créée en 1975 dans une logique diamétralement opposée à du mouvement du logiciel libre. Car grâce à celui-ci, la firme Microsoft pu en effet profiter d’un abus de position dominante[40] et d’une vente liée du logiciel avec le matériel informatique[41], pour établir un monopole dans la vente de logiciels.

 
Figure 5. À gauche la mascotte du projet GNU ; à droite celle du projet Linux, appelée Tux.

Mais pendant que Microsoft renforçait sa position dominante, un nouvel évènement majeur allait marquer l’histoire du logiciel libre. Celui-ci fut à nouveau déclenché par un appel à contribution, qui fut cette fois posté le vingt-cinq août 1991 par un jeune étudiant en informatique de 21 ans, appelé Linus Torvalds. Via le système de messagerie Usenet, son message avait été posté dans une liste de diffusion consacrée au système d’exploitation MInix, une sorte d’UNIX simplifié et développé dans un but didactique, par le programmeur Andrew Tanenbaum.

Loin d’imaginer que cela ferait de lui une nouvelle célébrité dans le monde du Libre[42], Torvalds entama son message par le paragraphe suivant[43] :

Je fais un système d’exploitation (gratuit) (juste un hobby, ne sera pas grand et professionnel comme gnu) pour les clones 386 (486) AT. Ce projet est en cours depuis avril et commence à se préparer. J’aimerais avoir un retour sur ce que les gens aiment ou n’aiment pas dans minix, car mon système d’exploitation lui ressemble un peu (même disposition physique du système de fichiers (pour des raisons pratiques) entre autres choses)[44].

Bien qu’il fût présenté comme un passe-temps, le projet, intitulé « Linux », fut rapidement soutenu par des milliers de programmeurs de par le monde, pour devenir bientôt la pièce manquante du projet GNU. Le système d’exploitation développé par Richard Stallman n’avait effectivement pas encore terminé la mise au point de Hurd, son noyau de système d’exploitation, alors que c’est cette partie du code informatique qui est responsable de la communication entre l’ensemble des logiciels et le matériel informatique. La fusion des codes produits par du projet GNU et Linux permit dès lors de mettre au point un système d’exploitation complet, stable et entièrement libre baptisé GNU/Linux.

 
Figure 6. Logo du système d’exploitation Debian.

Suite à cette union, la communauté des développeurs eut ensuite vite fait de personnaliser le système d’exploitation libre dans le but de créer de nombreuses variantes que l’on nomme communément « distributions ». L’une de celles-ci s’intitule Debian et tire sa réputation du fait qu’elle est la seule à être en même temps gratuite et non produite par une société commerciale[45]. Une caractéristique qui explique peut-être pourquoi ce système d’exploitation est à la base de plus de 150 distributions dérivées. Quant à la grande stabilité de son fonctionnement, elle justifie pour sa part son adoption par de nombreuses organisations sans but lucratif, à l’image de la Fondation Wikimédia qui l’utilise pour héberger l’ensemble des projets Wikimédia[46].

L’un des premiers héritages du mouvement Wikimédia en provenance du logiciel libre, fut donc la possibilité de faire fonctionner les projets sur des serveurs informatiques équipés d’un système d’exploitation complètement libre et gratuit. Un système qui, grâce à l’ouverture de son code source⁣⁣, peut ensuite être adapté pour répondre aux besoins spécifiques du mouvement. Ce qui par la suite, et selon les règles formulées par Stallman et la communauté du logiciel libre, permettra à d’autres organismes de profiter, gratuitement et librement, des améliorations apportées par la Fondation Wikimédia.

À ce premier aspect révolutionnaire dont aura profité le mouvement Wikimédia, s’ajoute une innovation méthodologique apparue dans la sphère de production des logiciels libres. Dans un article intitulé La Cathédrale et le bazar[47], Eric Steven Raymond fait en effet référence à une « cathédrale » pour désigner le mode de production des logiciels propriétaire, alors qu’il utilise le mot « bazar » pour qualifier le développement des logiciels libres. D’un côté, il décrit une organisation pyramidale, rigide et statutairement hiérarchisée, comme on peut la voir souvent au sein des entreprises, tandis que de l’autre, il parle d’une organisation horizontale, flexible et peu hiérarchisée, qu’il a lui-même expérimentée en adoptant le « style de développement de Linus Torvalds – distribuez vite et souvent, déléguez tout ce que vous pouvez déléguer, soyez ouvert jusqu’à la promiscuité[48] ».

À l’image de la métaphore du quartier construit au sein d’une ville électronumérique, cette manière de mener des projets semble donc correspondre à ce qui se passe dans le mouvement Wikimédia. Tout d’abord, il y a cette « ouverture jusqu’à la promiscuité », que l’on rencontre aussi au niveau de l’accès des projets pédagogiques, et ce aussi bien par rapport à leurs consultations qu’au niveau de la production et de la maintenance de leurs contenus. Et par la suite, il y a le fait que tout le monde dans Wikimédia est en droit de s’impliquer, de manière bénévole et selon ses propres choix, dans les nombreuses tâches indispensables au développement des projets et du mouvement qui les entoure.

De ces deux observations, on peut donc déduire l’existence d’un nouvel héritage, d’ordre méthodologique cette fois, en provenance du mouvement du logiciel libre. Et il serait regrettable, comme le fit Eric Raymond, de s’arrêter en si bon chemin, en passant sous silence un nouvel événement culturel extrêmement important apparu au cours de la révolution numérique. Il s’agit cette fois de l’apparition des licences libres et d’une philosophie qui donna naissance au mouvement de la culture libre.

Les licences et la culture libres modifier

Dans une autobiographie autorisée intitulée Richard Stallman et la révolution du logiciel libre[49], Christophe Masutti explique à quel point, la création de la Licence publique générale GNU (GPL), en tant que première licence libre, apparu comme un évènement culturel majeur au cours de la révolution numérique. Selon lui :

La GPL apparaît comme l’un des meilleurs hacks de Stallman. Elle a créé un système de propriété collective à l’intérieur même des habituels murs du copyright. Surtout, elle a mis en lumière la possibilité de traiter de façon similaire « code » juridique et code logiciel.

 
Figure 7. Symbole du copyleft, dit gauche d’auteur en français.

Il est vrai qu’en 1985 et avec l’aide du juriste Mark Fischer, Richard Stallman donna naissance à une première licence libre, pour protéger de toute forme de récupération commerciale et privative son Emacs, un éditeur de texte qu’il venait de créer. Cette démarche fut d’ailleurs très mal perçue par la firme Microsoft qui mit tout en œuvre, durant l’année 1989, pour interdire l’application de cette licence, mais sans y parvenir. Car grâce à l’implication des philanthropes comme John Gilmore et d’une grande communauté d’activistes hackers épaulée par des juristes compétents, tels que Jerry Cohen et Eben Moglen, non seulement la licence libre du logiciel Emacs resta en vie, mais elle finit par se voir appliquée à de nombreux autres logiciels.

Quant à l’aspect révolutionnaire de cette licence libre, il se situe principalement au niveau sa clause de reproductibilité. Une clause qui exige en effet que tout produit dérivé d’un code informatique soumis à la licence GPL doit obligatoirement à son tour être soumis à cette même licence. Cette idée, apparemment transmise à Richard Stallman par Don Hopkins lors d’un échange de courriers[50], aura ainsi abouti à la naissance d’une clause d’utilisation qualifiée de virale ou récursive, pour être ensuite surnommée par le terme « copyleft », que l’on peut traduire en français par l’expression « gauche d’auteur » et qui s’illustre graphiquement par le renversement à gauche du C de copyright.

Selon les vœux de Stallman, le copyleft est donc la clause des licences libres qui se rapporte le plus aux questions éthiques et de libertés des utilisatrices et utilisateurs[51]. Cependant, cette clause ne fut pas mise en évidence dans le concept d’open source popularisé par Éric Raymond. Ce développeur préféra en effet mettre de côté les questions philosophiques et éthiques liées à la propriété, pour valoriser uniquement l’idée d’accès et de transparence du code informatique, dans le cadre d’une approche beaucoup plus entrepreneuriale[52]. De cette différence naquit ainsi une polémique entre le logiciel libre de Stallman et le programme open source de Raymond, qui se dissout quelque peu suite à l’arrivée de l’expression générique, Free/Libre Open Source Software (FLOSS). Une expression qui a pour avantage d’être englobante, mais qui a pour inconvénient de placer la notion de copyleft en arrière-plan, alors que sans lui, le mouvement du logiciel libre n’aurait pu survivre au phénomène de privatisation et de commercialisation.

 
Figure 8. Classement des différentes licences, de la plus ouverte à la moins ouverte.

Quoi qu’il en soit, le copyleft s’identifie aujourd’hui au travers de l’expression anglaise « Share alike », traduite en français par celle de « partage à l’identique ». Une façon claire et synthétique de dire que toute reproduction d’une œuvre, ou tout travail dérivé produit en partie ou en totalité à partir d’une œuvre couverte par la clause en question, devra impérativement être soumis à cette clause, et ainsi de suite lors de la réutilisation en cascade.

Le copyleft reste donc finalement le moyen le plus efficace d’offrir son travail à la communauté, tout en s’assurant qu’il ne sera jamais repris sous un copyright propriétaire et privateur. Car en absence de cette clause, une œuvre pourrait être récupérée, puis modifiée, même de façon mineure, avant d’être renommée, de sorte à pouvoir la placer sous un habituel copyright de type : « tous droits réservés[53] ». Une démarche qui, par la suite, obligera généralement les utilisateurs et utilisatrice de l’œuvre modifiée à payer un droit d’usage, ou à se soumettre à des conditions d’utilisations, qui seront rédigées dans le but de profiter au détenteur du copyright, et non aux utilisateurs ou utilisatrices du produit.

Suite à la création des premières licences libres destinées à protéger le code source des logiciels informatiques, une organisation internationale sans but lucratif, intitulée Creative Commons, vit le jour le quinze janvier 2001, avec pour objectif de rendre les licences libres accessibles et utilisables par tous. Son but est de promouvoir le « partage et la réutilisation de la créativité et des connaissances grâce à la fourniture d’outils juridiques gratuits[54] ».

Pour ce faire, l’association choisit d’intégrer une variété de clauses aux licences libres, de manière à permettre aux auteurs de protéger, comme ils l’entendent, leurs propres œuvres libres. Grâce à la panoplie de licences proposées sous le label Creative Commons (CC), il est de fait possible d’exiger, ou de ne pas exiger : que l’auteur soit crédité (clause BY), que le copyleft soit respecté (clause SA), qu’une utilisation commerciale soit interdite (clause NC), ou qu’aucune modification ne soit faite à l’œuvre (clause ND).

De ce fait, et contrairement aux licences fournies par la Free Software Foundation qui sont plus adaptées à la protection du code informatique, les licences Creative Commons ont pour objectif de protéger du texte, des photos, des vidéos, de la musique, des bases de données ou toutes autres productions de l’esprit apparentées[55].

Le mouvement Wikimédia par exemple, a choisi d’appliquer la licence CC.BY.SA sur l’ensemble du contenu partagé de ses projets pédagogiques, à l’exception du projet base de données Wikidata, dont le contenu est placé sous licence CC0. Une licence qui a pour but de renoncer à tous les droits d’auteur dans les limites autorisées par la loi, de telle sorte à se rapprocher au maximum d’un dépôt dans le domaine public.

L’adoption de la licence CC0 fut une stratégie qui permit de faciliter le traitement de grande quantité de données par le fait qu’il n’est plus nécessaire d’en mentionner leurs auteurs. En contrepartie, l’application de cette licence provoqua la perte irréversible de toute garantie sur l’origine de l’information, tout en rendant possible l’application d’une licence privative sur les produits dérivés de la banque de données. Et pourtant, quelques années plus tard, la licence CC0 fut aussi appliquée à toutes les descriptions apportées aux fichiers téléchargés sur le site de la médiathèque centrale des projets Wikimédia, intitulée Wikimedia Commons.

En plaçant sous licences libres l’ensemble du contenu produit au sein de ses projets, le mouvement Wikimédia a ainsi adopté les valeurs défendues par la culture libre. Soit un mouvement plus large que celui du logiciel libre, dont les adeptes, communément appelés libristes, militent non seulement pour le libre partage des œuvres de l’esprit, mais aussi en faveur du respect de la vie privée et de l’accès aux codes informatiques, dans un but de contrôle, de réutilisation, ou d’amélioration. Ce choix philosophique ne fut toutefois pas suffisant pour permettre la création du mouvement Wikimédia, car pour que cela puisse se faire, il fallait encore attendre le développement d’un espace numérique mondial et libre d’accès à toute personne capable de s’y connecter.

Le réseau Internet et son espace web modifier

L’histoire du réseau Internet et de l’apparition de l’espace web est un autre épisode passionnant de la révolution numérique, sans lequel l’émergence du mouvement Wikimédia n’aurait pas été possible. Selon une perspective purement technique, ce réseau informatique fut initié au cours de l’année 1977, sur base d’une suite de protocoles (TCP/IP) mis au point par Robert Elliot Kahn et Vint Cerf[56]. Alors qu’en 1973 déjà, une première présentation du projet avait déjà été faite, lors de la conférence sur les communications informatiques de l’International Network Working Group.

Contrairement à certaines idées reçues et comme l'explique le reprotage intitulé Une contre-histoire de l'Internet, le réseau ne fut pas entièrement conçu par les forces armées américaines, mais plutôt financé par celles-ci. Ces forces armées permirent en effet la création de la Defense Advanced Research Projects Agency (DARPA), une agence dans laquelle travaillait Robert Elliot Kahn[56] cité précédement, et qui était chargée du développement du réseau informatique ⁣ARPANET, considéré aujourd’hui comme l’ancêtre d’Internet. Cependant, et c’est là un fait moins connu, durant les années 1971 et 1972, ce réseau fonctionna, tout d’abord, sur base du protocole de communication intitulé : Network Control Program, alors que celui-ci fut mis au point, à partir de février 1969, par le Network Working Group, un groupe informel d’universitaires rassemblé autour de Steve Crocker[57], un étudiant détenteur, à l'époque, d'une simple licence universitaire.

 
Figure 10. Carte partielle d’Internet, créée sur base des données d’opte.org en date du 15 juin 2005.

Au cours des travaux réalisés par ce groupe, une procédure de gestion et de prises de décisions intitulée Request For Comments (RFC) fut mise au point. C’était un processus d’appels à commentaires reconnu par la suite comme « l’un des symboles forts de la "culture technique" de l’Internet, marquée par l’égalitarisme, l’autogestion et la recherche collective de l’efficience[57] ». Et il se fait que cette procédure est toujours d’application dans le site Méta-Wiki, dédié à la gestion communautaire du mouvement Wikimédia. Des pages RFC y sont en effet régulièrement créés, alors que d’autres processus similaires ont vu le jour autre part dans le mouvement.

Ainsi, pendant que Internet continuait à se développer dans le milieu universitaire, de son côté, l’armée américaine développait le MILNET, un réseau propre à leurs activités et totalement séparé du réseau ARPANET qui resta dédié à « la recherche et le développement[58] ». La séparation des deux réseaux s’effectua en 1983, précisément l’année où Richard Stallman postait sa demande d’aide pour le projet GNU via ARPANET, à une époque où le réseau comprenait moins de 600 machines connectées[59]. Un détail important, puisqu’il nous permet de comprendre que c’est bien plus tard seulement, soit au courant des années 90, que le réseau Internet prit la forme de ce vaste réseau mondial que l’on connaît aujourd’hui.

Sa construction fut confiée à l’Internet Society, une ONG créée en 1992, dans le but d’assurer l’entretien technique des réseaux informatiques, tout en veillant au respect des valeurs fondamentales liées à leur fonctionnement[60]. Car pour passer des quelques centaines d’ordinateurs connectés à ARPANET aux milliards d’appareils informatiques connectés à Internet aujourd’hui, il fallut d’abord installer, au cours des années 80, les premières dorsales Internets transnationales. Sans celles-ci en effet, le réseau n’aurait jamais pu franchir les océans, pour permettre au protocole TCP/IP d’être adopté par le monde entier.

Pour ensuite se faire une idée de l’état d’esprit partagé par les personnes qui ont cré Internet, on peut aussi s’intéresser à ce que raconte Michel Elie. Dans un article intitulé : Quarante ans après : mais qui donc créa l’internet ? » , cet ingénieur en informatique membre du Network Working Group, avant de devenir responsable de l’Observatoire des Usages de l’Internet[61], explique effectivement ceci :

Le succès de l’internet, nous le devons aux bons choix initiaux et à la dynamique qui en est résultée : la collaboration de dizaines de milliers d’étudiants, ou de bénévoles apportant leur expertise, tels par exemple ces centaines de personnes qui enrichissent continuellement des encyclopédies en ligne telles que Wikipédia.

Ce témoignage permet de mieux se rendre compte à quel point l’état d’esprit des créateurs d’Internet devait être proche de celui qui anima la création de Wikipédia, le tout premier projet apparu au sein du mouvement Wikimédia. Ceci tandis que l’atmosphère qui régnait dans les milieux universitaires, à l’époque de la création d’Internet, était fortement fortement influencée par la contre-culture des années 60, apparue aux États-Unis parmi les baby boomers, notamment suite aux déboires que connut cette première puissance militaire mondiale, dans le cadre de son intervention militaire au Viêt Nam[62].

Dans un ouvrage de 1970 intitulé Vers une contre-culture : Réflexions sur la société technocratique et l’opposition de la jeunesse[63], Théodore Roszak expliquait à ce sujet :

Le projet essentiel de notre contre-culture : proclamer un nouveau ciel et une nouvelle terre, si vastes, si merveilleux que les prétentions démesurées de la technique soient réduites à n’occuper dans la vie humaine qu’une place inférieure et marginale. Créer et répandre une telle conception de la vie n’implique rien de moins que l’acceptation de nous ouvrir à l’imagination visionnaire. Nous devons être prêts à soutenir ce qu’affirment des personnes telles que Blake, à savoir que certains yeux ne voient pas le monde comme le voient le regard banal ou l’œil scientifique, mais le voient transformé, dans une lumière éclatante et, ce faisant, le voient tel qu’il est vraiment.

Suite à cette lecture, il pourrait sembler paradoxal qu’une contre-culture qui voit dans la technique une chose « inférieure et marginale » et qui porte sur la science un regard « banal », puisse avoir eu un quelconque lien avec la création d’Internet et l’apparition des logiciels et licences libres. Or, c’est là une énigme qui fut résolue par la publication d’un ouvrage intitulé : « Aux sources de l’utopie numérique : De la contre-culture à la cyberculture, Stewart Brand, un homme d’influence[64] ».

Comme expliqué dans l’ouvrage, le mouvement Hippie « utilisera tout ce qui était à sa disposition à l’époque pour parvenir à ses fins : LSD, spiritualités alternatives, mais également objets technologiques les plus en pointe grâce à l’influent Steward Brand, génial créateur d’un catalogue interactif, ancêtre analogique des groupes de discussions numériques qui émergeront des années plus tard[65] ».

Comme autre témoignage qui permet d'établir un lien entre le contre-cutlure et le milieu informatique, il y eut aussi les propos tenus par David D. Clark, un autre pionnier d’Internet. Lors d’une plénière de la 24ᵉ réunion du groupe de travail sur l’ingénierie Internet, ce chef de projet prononça un discours, qui traduisait parfaitement les idées politiques des informaticiens de cette époque[66]. Celui-ci comprenait l’affirmation suivante : « Nous récusons rois, présidents et votes. Nous croyons au consensus et aux programmes qui tournent[67] ». Deux phrases seulement, à partir desquelles il est tentant de croire, que le mépris de la contre-culture des années 60 envers la technique et la science, se transforma, dans le monde informatique universitaire, en refus d’autorité.

 
Figure 11. Tim Berners-Lee en 2014.

Une fois le réseau Internet mis en place, de nombreuses applications s’y sont alors développées. La plus connue de toutes est certainement le World Wide Web que l’on intitule plus fréquemment « le Web » ou « la toile » en français. Tim Berners-Lee en fut l’inventeur, lorsqu’il était encore actif au Conseil européen pour la recherche nucléaire (CERN). Il eut effectivement l’idée de créer un espace d’échange public par l’intermédiaire du réseau Internet. Et pour ce faire, il mit au point le logiciel « WorldWideWeb », rebaptisé Nexus par la suite afin d’éviter toute confusion avec l’expression World Wide Web[68]

Ce programme informatique, permis de produire et de connecter entre eux des ordinateurs contenant des espaces numériques intitulés sites Web, eux-mêmes composé de page web, ceci grâce à un système d’indexation intitulé hypertexte. Pour permettre ce type de référencement, Berners-Lee mit au point un protocole appelé Hypertext Transfer Protocol ou HTTP. Il s’agit d’un principe relativement simple en soi, mais techniquement difficile à mettre en œuvre puisqu’il consiste à créer un espace numérique formé par l’ensemble des pages et sites Web produits au sein de l’application.

Pour veiller au bon usage de cet espace, des règles et des protocoles de standardisation furent édictés par l’association Internet Society, ceci avant que Berners-Lee fonde le W3C, un consortium international qui a pour but de faire respecter ces protocoles, tout en défendant cette devise : « un seul Web partout et pour tous[69] ». Un slogan qui peut nous apparaitre bien naturel aujourd’hui, alors que l’invention de Tim Berners-Lee, et par conséquent, l’idée même du World Wide Web, a bien failli être repris par des acteurs commerciaux.

Le trente avril 1993, suite au dépôt du logiciel WorldWideWeb dans le domaine public par Robert Cailliau, un autre chercheur du CERN qui assistait Berners-Lee dans la promotion de son projet, ce scénario était en effet devenu tout à fait possible. Et c’est précisément ce que nous explique Quentin Jardon dans son livre intitulé Alexandria[70], dans lequel il raconte l’histoire de la création du Web, en s’intéressant à l’histoire de Robert Caillau :

La philanthropie de Robert, c’est très sympa, mais ça expose le Web à d’horribles dangers. Une entreprise pourrait s’emparer du code source, corriger un minuscule bug, s’approprier le « nouveau » logiciel et enfin faire payer une licence à ses utilisateurs. L’ogre Microsoft, par exemple, serait du genre à flairer le bon plan pour écraser son ennemi Macintosh. Les détenteurs d’un PC devraient alors débourser un certain montant pour profiter des fonctionnalités du Web copyrighté Microsoft. Les détenteurs d’un Macintosh, eux, navigueraient sur un Web de plus en plus éloigné de celui vendu par Bill Gates, d’abord gratuit peut-être, avant d’être soumis lui aussi à une licence.

Heureusement, en octobre 1994, et suite au départ de Berners-Lee, choisi pour présider le W3C, François Flückiger, qui avait repris la direction de l’équipe de développement technique du CERN[71], eut la présence d’esprit de se rendre à l’Institut fédéral de la propriété intellectuelle suisse, pour retirer le code de l’éditeur HTML du domaine public et le placer sous licence libre. Cet acte salvateur eut pour effet d’apposer la propriété intellectuelle du CERN sur les inventions de Berners-Lee, et d’éviter une bataille commerciale telle que décrite précédemment, et qui par ailleurs, eu lieu entre les entreprises commerciales, mais uniquement au niveau de l’usage des navigateurs web, et non pas au niveau du droit d’accès et d’usage de l’espace web.

En prenant connaissance de ces nouveaux épisodes de l’histoire de la révolution numérique, on comprend que la préhistoire du mouvement Wikimédia a été faite de nombreuses innovations culturelles et techniques imbriquées les unes aux autres. On découvre aussi que ce passé fut traversé par une importante bataille idéologique, qui a opposé des acteurs en recherche de liberté et d’indépendance, à d’autres acteurs en quêtes de monopole commerciaux. Une bataille prit d’ailleurs un tournant décisif aux alentours de 1995, lorsque le réseau Internet s’ouvrir aux usages commerciaux. C’était à la suite d'un gros changement d’infrastructure du réseau, auquel succéda la disparition de l’Advanced Network and Services, une société à but non lucratif considérée comme épine dorsale d’Internet et qui permettait l’accès au réseau aux autres sociétés sans but lucratif.

Suite à cela, l’Internet est devenu petit à petit ce que nous connaissons aujourd’hui, à savoir un réseau dont l’usage se voit pratiquement monopolisé par des sociétés commerciales devenues les plus riches au monde. Heureusement, ce changement majeur dans l’histoire d’Internet, n’a pas empêché l’apparition et l’usage des plateformes wiki, cet ultime outil technique, qui permit à des internautes bénévoles, répartis aux quatre coins du monde, de produire une encyclopédie universelle, libre d’accès, d’usage et d’édition.

Les plates-formes Wiki modifier

Un wiki ou moteur de wiki est un programme informatique, qui une fois placé sur un serveur, permet la production d’un site web éditable et configurable à l’aide d’un simple navigateur. Pour le dire de manière plus technique, c’est un système de gestion de contenu, dont les paramètres et le contenu peuvent être modifiés à partir d’un ordinateur équipé d’un navigateur web et connecté à l’aide d’une adresse IP. En se connectant à un compte via un login et un mot de passe, et en fonction des droits octroyés à ce compte, on peut alors participer à la construction du site web.

Chaque modification faite à une page d’un site web géré par un Wiki provoque un nouvel enregistrement complet du code informatique qui la compose, de telle sorte qu’il est toujours possible si besoin, au départ d’une page reprenant l’historique des modifications, de rétablir une de ses anciennes versions. Avec ce système d’archivage, on peut aussi savoir compte ou adresse IP est à l’origine d’un changement, tout en visualisant l’endroit où la modification se trouve, et même à la minute près, à quel moment il fut réalisé.

 
Figure 12. Ward Cunningham en 2011.

Le premier logiciel Wiki fut créé par Ward Cunningham en mars 1995 sous le nom de WikiWikiWeb et son code informatique fut placé sous licence libre GPL[72]. En raison de ce choix, de nombreux autres logiciels similaires ont pu voir le jour, en recopiant ou s’inspirant de ce qui avait déjà été réalisé, avant d’être placés à leur tour sous licence GPL, afin de respecter la clause de partage à l’identique.

Parmi les différents logiciels Wiki disponibles, la société Bomis, qui finança le premier projet Wikipédia en anglais, choisit UseModWiki. Ce programme avait pour avantage de répondre à toutes les attentes, puisqu’il était en même temps gratuit, simple d’utilisation et peu gourmand en ressources informatiques. Une véritable aubaine somme toute pour une entreprise qui peu après le lancement de son projet d’encyclopédie commerciale était confrontée à de grosses difficultés financières.

Environ un an après le lancement du projet Wikipédia, soit le vingt-cinq janvier 2002, UseModWiki fut remplacé par un autre moteur de Wiki sans nom, plus performant et toujours produit sous licence libre[73]. Ce dernier fut ensuite amélioré par plusieurs programmeurs, dont Brion Vibber, le premier employé de la Fondation Wikimédia. Raison pour laquelle sans doute, le logiciel fut finalement rebaptisé MediaWiki, en s’inspirant d’un jeu de mots proposé par un contributeur de Wikipédia.

Par la suite, la Fondation poursuivit le développement du logiciel avec le concours de nombreux employés, aidés par des bénévoles actifs sur le site mediawiki.org. Et comme vu précédemment, la mise au point de ce système de gestion de contenu, situé en tête de classement des wikis par son taux d’utilisation[74], profite ainsi à des milliers d’autres personnes, projets et sites Web[75], qui ne font pas partie du mouvement Wikimédia. Au vu de ce succès, ce sont d’ailleurs des centaines de personnes intéressées par le logiciel MediaWiki qui se rassemblèrent chaque année de 2016 à 2020[76], pour discuter de son développement et de ses usages[77].

Il faut enfin signaler que dans la liste des logiciels Wiki se trouvent d’autres logiciels libres intéressants, tel que DokuWiki, dont l’absence de base de données et la simplicité d’installation et d’usage a contribué à sa popularité. Jusqu’à ce jour néanmoins, seul MediaWiki semble suffisamment stable et puissant pour gérer de manière optimale la plus grande encyclopédie de tous les temps. Une encyclopédie qui, dès sa conception, fut imaginée comme ressource libre et universelle.

L’encyclopédie libre et universelle modifier

Sans cette série d’innovations techniques et culturelles présentées précédemment, Wikipédia n’aurait donc jamais pu voir le jour, avant de devenir la plus grande encyclopédie libre et universelle connue en ce monde. Son objectif est de synthétiser la totalité du savoir humain. Ce qui n’est autre, finalement, qu’un vieux rêve de notre humanité. Car trois cents ans avant Jésus-Christ et durant la création de la bibliothèque d’Alexandrie, ce désir était aussi celui de Ptolémée Iᵉʳ. Puis, deux siècles plus tard, celui de Denis Diderot, qui mourut en 1784 après avoir coproduit l’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. Et de manière plus récente, celui de Paul Otlet, qui s’était mis en tête de répertorier l’ensemble du savoir humain tout au long de la première moitié du vingtième siècle.

Peu connu à ce jour, ce Belge fut, en 1905, le cocréateur d’une classification décimale universelle toujours en usage dans des bibliothèques du monde entier. Mais son rêve était avant tout de cataloguer le monde en rassemblant, au sein d’un Mundaneum, toutes les connaissances humaines sous la forme d’un gigantesque répertoire bibliographique universel[78]. En 1934, dans le Traité de documentation écrit par cet homme qui voulait « classer le monde[79] », apparait un songe particulièrement visionnaire. Dans celui-ci, Otlet décrit en effet d’une étonnante manière, pour son époque, comment le savoir et l’information pourrait être un jour partagés[80] :

Ici, la Table de Travail n’est plus chargée d’aucun livre. À leur place se dresse un écran et à portée un téléphone. Là-bas, au loin, dans un édifice immense, sont tous les livres et tous les renseignements, avec tout l’espace que requiert leur enregistrement et leur manutention…

De là, on fait apparaître sur l’écran la page à lire pour connaître la question posée par téléphone avec ou sans fil. Un écran serait double, quadruple ou décuple s’il s’agissait de multiplier les textes et les documents à confronter simultanément ; il y aurait un haut-parleur si la vue devrait être aidée par une audition. Une telle hypothèse, un Wells certes l’aimerait. Utopie aujourd’hui parce qu’elle n’existe encore nulle part, mais elle pourrait devenir la réalité de demain pourvu que se perfectionnent encore nos méthodes et notre instrumentation.

 
Figure 13. Photographie de l’intérieur du Répertoire Bibliographique Universel prise aux alentours de 1900.

Il est ainsi incroyable qu’une utopie décrite en 1934 par Otlet se réalise exactement, ou à peu de chose près, au cours des années 2000. Car pour la plupart des usagers du réseau Internet, trouver une information se résume à accomplir ce qui est décrit dans ce songe visionnaire. Premièrement, allumer un écran d’ordinateur, avec ou sans fil, ensuite poser une question dans un moteur de recherche, puis, se voir rediriger, dans près de 88.7 % des cas, vers la célèbre encyclopédie libre[81].

Comme autre fait surprenant concernant l’histoire des encyclopédies, il y eut aussi ce qui fut réalisé cinq ans avant la naissance de Wikipédia par Aaron Swartz. À l’âge de douze ans seulement, cet activiste de la culture libre qui s’est donné la mort avant son procès pour fraude électronique, avait effectivement lancé une sorte de site encyclopédique, qui déjà se voulait être produite et gérée par ses usagers[82]. Intitulé The Info Network, ce projet lui aura même valu la remise du prix d’ArsDigita Prize, offert aux jeunes créateurs d’un projet « utiles, éducatifs, collaboratifs et non commerciaux[83] ».

Ensuite, il est important de signaler que le concept d' « encyclopédie libre et universelle » fut formulée pour la première fois par Richard Stallman en 1998, soit un an avant la naissance de Wikipédia, dans un essai intitulé The Free Universal Encyclopedia and Learning Resource[84]. Repris ci-dessous, un extrait de ce texte, qui, selon l’auteur, fut rédigé deux ans avant sa publication sur la liste de diffusion du projet GNU en décembre 2000[85], suffit à démontrer que le projet Wikipédia ne fut pas entièrement conceptualisé par ses fondateurs.

Le World Wide Web a le potentiel de devenir une encyclopédie universelle couvrant tous les domaines de la connaissance et une bibliothèque complète de cours d’enseignement. Ce résultat pourrait être atteint sans effort particulier, si personne n’intervient. Mais les entreprises se mobilisent aujourd’hui pour orienter l’avenir vers une voie différente, dans laquelle elles contrôlent et limitent l’accès au matériel pédagogique, afin de soutirer de l’argent aux personnes qui veulent apprendre.

Nous ne pouvons pas empêcher les entreprises de restreindre l’information qu’elles mettent à disposition ; ce que nous pouvons faire, c’est proposer une alternative. Nous devons lancer un mouvement pour développer une encyclopédie libre universelle, tout comme le mouvement des logiciels libres nous a donné le système d’exploitation libre GNU/Linux. L’encyclopédie libre fournira une alternative aux encyclopédies restreintes que les entreprises de médias rédigeront[86].

 
Figure 14. Jimmy Wales en 2016.

Lorsque Stallman fait référence à un « mouvement pour développer une encyclopédie libre universelle », il anticipe de la sorte, et bien avant l’heure, la venue du mouvement Wikimédia qui ne fut finalement conceptualisé que plusieurs années après la création du projet Wikipédia. Et dans la soixantaine de paragraphes qui décrivent son projet, on retrouve d’ailleurs à peu de choses près les 5 principes fondateurs[87] qui furent édités lors de la création de Wikipédia.

Le premier de ces principes consistait bien sûr à créer une encyclopédie. Le deuxième fit appel à une recherche de neutralité de point de vue[88], alors même que Stallman stipulait déjà qu’« en cas de controverse, plusieurs points de vue seront représentés ». Le troisième principe, marquait l’usage et le respect des droits d’auteur et l’adoption d’une licence libre, qui rappelons-nous fut produite à l’époque par Richard Stallman. Le quatrième, inscrivait le projet dans une démarche collaborative, alors que Stallman spécifiait que « tout le monde est le bienvenu pour écrire des articles ». Et le cinquième, finalement, stipulait qu’il n’y a pas d’autres règles fixes, chose commune dans la philosophie des hackers.

 
Figure 15. Larry Sanger en 2010.

Le projet Wikipédia ne fut donc pas une idée originale en soi, mais plutôt une opportunité saisie par la société Bomis, pour enrichir son encyclopédie commerciale en ligne intitulée Nupedia. Celle-ci avait été créée en avril de l’année 2000, soit environ dix mois avant Wikipédia et sa rédaction était assurée par des experts engagés au sein d’un processus éditorial formel[89]. Malheureusement pour la firme, le nombre d’articles progressait très lentement. Ceci jusqu’à ce que Larry Sanger, docteur en philosophie et rédacteur en chef de Nupedia, fasse installer un logiciel wiki sur les serveurs de l’entreprise, malgré le manque d’enthousiasme de son employeur Jimmy Wales[90].

Ainsi donc commença l’histoire de Wikipédia[91]. C’était le quinze janvier 2001 et précisément le même mois où Richard Stallman avait ouvert son propre projet d’encyclopédie libre et universelle intitulé GNUPedia, avant d’être rebaptisée « GNE » compte tenu du fait que les noms de domaines gnupedia .com .net et .org avaient déjà été achetés par Jimmy Wales[92]. Un fait quelque peu surprenant quand on sait que Wales affirma un jour[93] : « n’avoir eu aucune connaissance directe de l’essai de Stallman lorsqu’il s’est lancé dans son projet d’encyclopédie[94] ».

Ce qui ne fait aucun doute par contre, c’est que le site GNE ne se présentait pas comme une encyclopédie, mais plutôt comme un blog collectif[95]. Certains ont même qualifié le projet de base de connaissance[96], alors que sa page d’accueil stipulait clairement qu’il s’agissait plutôt d’une bibliothèque d’opinions[97]. Ensuite, et même si le projet engagea une personne pour assumer sa modération, celle-ci s’avéra plus compliquée que prévu. Tandis que du côté de Wikipédia et en raison sans doute des spécificités de l’environnement Wiki, une certaine organisation fut spontanément mise en place par la communauté active au sein du projet.

 
Figure 16. Évolution graphique du nombre d’articles sur Wikipédia.
 
Figure 17. Évolution graphique du nombre d’articles sur Citizendium.

Par la suite, et probablement en raison de la concurrence crée par le développement du projet GNE, Jimmy Wales abandonna le copyright que Bomis détenait sur son encyclopédie, pour le remplacer par une licence Nupedia Open Content[98], juste avant d’adopter finalement la licence de documentation libre GNU précédemment créé par Stallman. Ce fut là une action stratégique payante, vu que l’initiateur du logiciel libre décida finalement de suspendre le projet GNE, avant de transférer son contenu au sein de Nupedia, tout en encouragea les gens à contribuer sur Wikipédia[99].

Comme autre action de Jimmy Wales favorable à la réussite du projet Wikipédia, il y eut ensuite celle d’ouvrir le projet aux « gens ordinaires[100] ». C’était un choix qui s’opposait aux idéaux de Larry Sanger, qui de loin préférait le modèle de Nupedia avec sa relecture par un comité d’experts. Mais il avait pour avantage, aux yeux de l’homme d’affaires, de garantir une croissance plus rapide du contenu de son encyclopédie[93].

Par la suite, l’éclatement de la bulle spéculative Internet et des restrictions budgétaires qui suivirent le Krach boursier de 2001-2002, placèrent la société Bomis en incapacité de payer le salaire de Sanger. En mars 2002 et suite à un mois d’activité bénévole, l’ex-employé de la firme décida de quitter ses fonctions au sein du projet Nupedia et Wikipédia[101]. Ce qui n’empêcha pas le projet Wikipédia, par la suite, de poursuivre son développement avec le concourt d’une communauté bénévole soutenue par Jimmy Wales. Et il en alla ainsi jusqu’en septembre 2003, où, faute de productivité, ce fut finalement le projet Nupedia qui vit ses articles transférés vers Wikipédia.

Trois ans plus tard cependant, Larry Sanger n’avait pas dit son dernier mot. Il décida de lancer en septembre 2006 et sur fonds propres, un projet analogue à Nupedia intitulée Citizendium. Il s’agissait d’une encyclopédie écrite en anglais, qui reposait sur un système d’expertise dans lequel les contributrices et les contributeurs doivent s’enregistrer sous leur identité réelle. En 2010 cependant, Citizendium ne dépassait pas les 30 000 articles, alors que le projet Wikipédia rédigé en anglais dépassait, pour sa part et à cette même période, les 3 millions d’articles.

En poursuivant le projet Wikipédia, Jimmy Wales a donc contribué à la construction d’une encyclopédie dont la taille et la visibilité n’avait jamais été égalée auparavant. Une encyclopédie qui rapidement, à l’image de sa version francophone apparue un peu moins de quatre mois après le projet en anglais[102], fut déclinée en de nombreuses versions linguistiques, et ce, jusqu’à constituer les premières bases d’une organisation mondiale.

Pendant ce temps, un autre fait remarquable allait contribuer à la création du mouvement Wikimédia. Ce fut l’apparition de plus d’une dizaine d’autres projets pédagogiques et collaboratifs en ligne. Appelés en français « projets frères de Wikipédia », ceux-ci se multiplièrent à leur tour, en de nombreuses versions linguistiques parallèles à celles de Wikipédia, tout au long du processus de création du mouvement Wikimédia.

L'arrivée des projets frères modifier

 

Après Wikipédia, d’autres projets éditoriaux collaboratifs virent le jour dans l’écosystème Wikimedia, dans le but de développer des contenus pédagogiques, qui ne trouvaient pas leurs places au sein de l’encyclopédie. Tous ces projets furent par la suite répertoriés chronologiquement sur une page web accessible par le code QR repris à droite de ce paragraphe et qui se trouve sur Méta-Wiki, la plate-forme de référence en ce qui concerne tout ce qui est commun à l’ensemble des projets Wikimédia. Comme autre vue synthétique de l’arrivée des projets, il y a ensuite un graphique créé par Guillaume Paumier, à l’occasion du dixième anniversaire de Wikipédia. Accessible via le code QR repris à côté du prochain paragraphe, cette illustration permet de visualiser sur une ligne du temps, l’apparition des différents projets ainsi que d’autres évènements notoires.

 
Graphique illustrant l’apparition des projets, sites et autres évènements notoires au sein du mouvement Wikimédia.
 

Dans la partie libellée « sister projects » de ce document, on découvre que le premier site web créée après les premières versions linguistiques de Wikipédia fut Méta-Wiki. Suite à l’apparition de nombreuses versions linguistiques au niveau de l’encyclopédie libre, la nécessité de centraliser les questions communes aux projets devint effectivement une priorité. Méta-Wiki ne cessa ensuite de se développer, jusqu’à devenir aujourd’hui la plate-forme dédiée à la coordination et la communication entre tous les projets pédagogiques, mais aussi entre ceux-ci, la Fondation et tous les organismes affiliés au mouvement.

 
Vidéo 1. Présentation des projets frères dans le cadre du WIKIMOOC 2016.

Pendant que les nouvelles versions linguistiques de Wikipédia ne cessèrent de se joindre au projet initial en anglais, sept autres projets de partage de la connaissance firent leur apparition avant de se voir distribués en plusieurs versions linguistiques. En général cela se réalise à l’initiative d’un petit groupe de personnes actives au sein d’un projet existant. Le projet Wiktionnaire en anglais, par exemple, créé le douze décembre 2002, fut ainsi le deuxième projet à voir le jour après Méta-Wiki, alors qu’il fallut encore attendre deux ans, soit jusqu’en mars 2004, pour que la version francophone du projet lexical soit mise en place[103].

Il est d’ailleurs intéressant de signaler que cette version n’a pas pris naissance au sein du projet anglophone, mais bien dans le projet Wikipédia en français où se développa un débat dans lequel apparaissaient les avis contraires sur la création du projet repris ci-dessous[104] :

En fait, ce qui me peine vraiment avec le projet Wiktionary, c’est que alors qu’on essaie de rassembler les gens (pas facile) pour créer une sorte de tour de Babel de la connaissance (tâche bien longue et difficile), ce nouveau projet va disperser les énergies pour une raison qui ne me semble pas valable. C’est la création de Wiktionary qui va créer des redondances. À mon avis il existera rapidement des pages sur le même mot, mais ne contenant pas les mêmes informations. Pour quelle raison ces connaissances devraient-elles être séparées ? Les encyclopédies sur papier devaient faire des choix à cause du manque de place, mais nous, pourquoi le ferions-nous ??? "Wikipédia n’est pas un dictionnaire" n’est pas un argument à mon avis... si vraiment c’était pas un dictionnaire, il faudrait virer tout un tas d’article. Je ne comprends vraiment pas cette volonté de séparer la connaissance entre ce qui est "encyclopédique" et ce qui n’est "qu’une définition".

Pour moi ce qu’est Wiktionary, c’est une partie de Wikipédia s’intéressant plus particulièrement aux aspects linguistiques des mots. La différence que je verrais entre la partie dictionnaire de Wikipédia et sa partie dite encyclopédique, c’est que la partie dictionnaire s’intéresserait au sens des mots eux-mêmes alors que la partie encyclopédie s’attache plus à faire ressortir un état des connaissances à un moment donné. Le pourquoi de la séparation d’avec la partie encyclopédie tient plus à des raisons techniques qu’à une volonté de monter un projet indépendant, en effet, à mon humble avis, un dictionnaire nécessite une plus grande rigueur (de présentation) qu’une encyclopédie. Ceci entraîne beaucoup de problème et entre autres le choix de la mise en forme des articles du dictionnaire.

Dans le cas du projet Wiktionnaire en français, sa séparation de Wikipédia fut donc motivée par des besoins techniques, mais également par un désir d’autonomie quant à la manière de concevoir et de présenter des ressources lexicales. Et ce désir ne fut toutefois pas partagé par tous, notamment compte tenu d’une fatale dispersion des énergies. Créer un nouveau projet, c’est effectivement créer un nouveau site web qui devra faire l’objet d’une nouvelle gestion, tant au niveau des serveurs de la Fondation, qu’au niveau d’une communauté nouvelle et forcément plus modeste. Bien sûr, il est toujours possible d’importer des pages d’autres projets frères ou de traduire celles d’une autre version linguistique, mais cela duplique alors aussi leurs maintenances et leurs mises à jour. Le choix de scinder un projet au profit d’une plus grande liberté a donc un prix.

Ce genre de considérations n’auront toutefois pas empêché le projet anglophone Wikibooks de faire son apparition le dix juin 2003, soit près d’un an avant la version francophone, apparue le vingt-deux juillet 2004, peu de temps avant que le projet soit rebaptisé Wikilivres. Cette création avait de nouveau été débattue à l’intérieur du projet Wikipédia en français et non dans celui du Wikibooks en anglais, bien que dans les deux camps linguistiques, l’objectif était de créer une « bibliothèque de livres pédagogiques libres que chacun peut améliorer[105] ».

Au niveau du projet anglophone, apparut ensuite en 2004 un nouvel espace de noms intitulé Wikijunior. Dans le but de répondre à un financement de la fondation Beck, il s’agissait en gros de créer un espace spécifique au sein du projet pour produire de la littérature pour des enfants de huit à onze ans[106]. Une fourchette d’âge qui passa de zéro à douze ans, quand le projet se développa sur le site du projet en français[107].

Un an plus tard, et à la suite de quelques débats apparus dans le projet anglophone[108], vint ensuite l’idée de créer un nouveau sous-projet intitulé Wikiversity. L’objectif était cette fois de « créer une communauté de personnes qui se soutiennent mutuellement dans leurs efforts éducatifs[109][110] ». Cependant, le douze août 2005, une longue discussion remit en question l’existence de ce sous-projet éducatif au sein de Wikibooks. Et il fut même question de le supprimer, juste avant que finalement, on décide de transférer son contenu vers le projet Méta-Wiki[111].

Après ce transfert, de nouvelles discussions aboutirent à l’idée de faire de Wikiversité un nouveau projet indépendant[112]. Les membres de la communauté Wikimédia furent ainsi invités à participer à un vote qui permit de rassembler une majorité des deux tiers en faveur de la création du projet, tel que cela avait été demandé par le conseil d’administration de la Fondation Wikimédia[113]. Cependant, le treize novembre 2005, le projet ne fut pas accepté par cinq membres du conseil qui demandèrent une « réécriture de la proposition pour en exclure la remise de titre de compétence, la conduite de cours en ligne, et de clarifier le concept de plate-forme e-learning[114][115] ».

Rectification faite, le projet pu ainsi bénéficier d’une période d’essai avant de trouver sa place de manière définitive au sein du mouvement. Voici repris ci-dessous et extrait des premiers débats tenus au sujet du lancement du projet, un commentaire qui commente des réticences présumées du conseil d’administration, concernant le lancement du projet[111] :

La principale raison pour laquelle la Fondation Wikimédia ne veut pas "lâcher le morceau" est une simple question de bureaucratie et la crainte que le projet ne devienne une autre Wikispecies. Wikispecies est une idée cool, mais les "fondateurs" du projet se sont dégonflés à mi-chemin de la mise en place du contenu et ont décidé de faire une révision majeure qui a pris plus de temps que ce que tout le monde était prêt à mettre. Le même problème s’applique à Wikiversity en ce qui concerne la Fondation, parce que les objectifs et les buts de ce projet ne sont pas clairement définis, et il semble que les participants essaient de mordre plus qu’ils ne peuvent mâcher en proposant une université de recherche multi-collèges entière (avec un statut de recherche et une accréditation Carnegie-Mellon également) à former de toutes pièces plutôt qu’un simple centre d’éducation pour adultes avec quelques classes. Si plus de réflexion est faite sur la façon de "démarrer" ce projet entier, peut-être que quelques pensées sur la façon de convaincre le conseil de la Fondation de laisser un wiki séparé être lâché pour laisser ce projet essayer de se développer par lui-même peuvent être faites[116].

Il fallut donc attendre le trente-et-un juillet 2006, soit neuf mois supplémentaires, pour que les amendements apportés au projet de départ[117] soient acceptés par le special projects commitee, spécialement conçu pour soulager le conseil d’administration de la Fondation dans ses fonctions[118]. Et c’est suite à ce feu vert, que le site Beta-Wikiversity, en tant qu’espace de lancement des différentes versions linguistiques, fut mis en place[119], avec pour objectif d’élaborer durant six mois les lignes directrices concernant les utilisations potentielles du projet Wikiversité dans le cadre de recherches collaboratives[120]. Depuis lors, à chaque fois qu’une nouvelle version linguistique développée sur Beta-Wikiversity connaît plus de 10 modifications par mois, et qu’elle regroupe au moins 3 participants, un nouveau site web est créé pour en permettre un développement autonome.

Avec la plateforme de lancement Wikisource multilingue[121], Beta-Wikiversity apparaît donc comme le deuxième espace de création de versions linguistiques externes au site Wikimedia Incubator[122]. La mission de cette dernière plate-forme créée à la même époque que Beta-Wikiversité, est de lancer les nouvelles versions linguistiques des projets éditoriaux Wikimédia à l’exception de Wikisource et Wikiversité.

Un transfert des activités de Wikivesity Beta vers Incubator fut aussi discuté, en 2008[123], 2013-2015[124] et 2017[125], mais toujours sans succès. Les raisons de ces refus furent essentiellement le manque d’enthousiasme de la communauté, la quantité de travail que cela représente et la prise en compte des spécificités d’un projet dans lequel on produit des recherches originales, des exercices, etc.

Dans un autre cas de figure, le projet Wikivoyage fit son apparition dans le mouvement d’une manière différente aux autres projets. Ce guide de voyage vit en effet le jour en 2003 dans un Wiki extérieur au mouvement Wikimédia intitulé Wikitravel[126]. Comme cela arrive parfois, ce projet, au départ sans but lucratif, fut racheté par une entreprise commerciale en 2006. Suite au changement de gouvernance et à l’introduction de publicités sur le site web, une scission est apparue au sein de la communauté d’éditeurs. Celle-ci déboucha sur la création de Wikivoyage, un projet parallèle à Wikitravel qui reçut en 2007, le Webby Award du meilleur guide de voyage Internet[127].

Puis, en 2012, un appel à commentaires rassembla plus de 540 personnes en faveur de l’intégration de Wikivoyage dans l’écosystème Wikimédia[128]. Comme cette nouvelle déclenchait une migration importante de personnes de Wikitravel vers Wikivoyage, une plainte fut alors déposée par la société commerciale. Mais comme celle-ci fut rejetée par le tribunal en charge de son traitement, le projet Wikivoyage pu alors prendre l’ampleur au sein du mouvement Wikimédia, avec la création de nouvelles versions linguistiques[129].

 
Figure 18. Logo de la Fondation Wikimédia entouré de 15 autres logos de projets actifs au sein du mouvement.

Il faut ensuite savoir que de nouveaux projets ou sous-projets pédagogiques sont toujours susceptibles de voir le jour au sein du mouvement Wikimédia. Comme exemple, il y a le WikiJournal apparu sur Wikiversité en anglais avant d’obtenir l’Open Publishing Awards en 2019[130]. Une récompense qui n’empêcha pas pour autant la demande de lancement du projet sur un nouveau site web, de rester en fil attente tant que le conseil d’administration de la Fondation considèrera que le projet n’est pas suffisamment abouti[131].

Tout comme Wikijournal, des centaines de demandes d’ouvertures de sites web dédiés à de nouveaux projets[132] sont ainsi en attente d’évaluation. Ces attentes se soldent bien souvent par un refus, à l’image du projet WikiLang[133] dont le but était de lancer un laboratoire linguistique. Ce qui n’empêche pas parfois certains projets de voir le jour, comme ce fut le cas du projet Abstract Wikipedia[134] et son extension Wikifunctions qui fut accepté par le conseil d’administration en mai 2020[135].

Il s’agit là de deux projets interconnectés de grande envergure, dont l’ambition consiste à produire des articles encyclopédiques automatiquement traduit dans la panoplie des langages naturels. Les phrases seraient formées par des fonctions informatiques qui tireraient profit de la gigantesque base de données sémantiques produites dans Wikidata, un autre projet relativement récent créé en octobre 2012. À terme, le contenu de Wikidata devrait donc se retrouver traduit et agencé par Wikifunctions, dans le but de produire des articles encyclopédiques rassemblés sur Abstract Wikipedia[136].

Il peut arriver ensuite qu’un projet vienne à disparaître, et il existe d’ailleurs sur la plateforme Méta-Wiki, une liste de sites web proposés à la suppression[137]. Dans celle-ci, on retrouve essentiellement des versions linguistiques de projets qui n’ont pas réussi à poursuivre leurs développements.

En 2005 et peu de temps après son lancement, le recueil de citations Wikiquote en français a ainsi failli disparaitre. Il était en effet accusé d’avoir récupéré le contenu d’une base de données soumise à un droit d’auteur incompatible avec la licence Creative Commons appliquée sur l’ensemble des projets éditoriaux Wikimédia. La plainte fut adressée à l’association Wikimédia France avant de parvenir sur le site Méta-Wiki où il fut question de fermier le projet[138]. Celui-ci fut toutefois maintenu, mais avec pour conditions de repartir de zéro et d’établir une charte pour garantir la traçabilité des citations reprises par le projet[139].

Sans prendre le temps de faire le tour de tous les projets apparus au sein du mouvement, voici donc de quoi se faire une idée sur la manière dont les projets frères et leurs versions linguistiques font leurs apparitions. Les exemples repris ci-dessus suffisent effectivement pour comprendre les principes généraux qui sous-tendent leurs créations.

Au-delà de sites Méta-Wiki, Wikidata, Wikifunctions, Abstract Wikipedia et Wikimedia Commons qui ont répondu à certains besoins de coordination et de centralisation, les autres projets semblent effectivement provenir d’un désir de spécialisation d’un projet préexistant au sein du même régime linguistique. Une idée généralement débattue avant son transfère sur la plate-forme Méta-Wiki, en attente qu’une autorisation de lancement soit accordée par le conseil d’administration de la Fondation. Cela alors que les nouvelles versions linguistiques des projets déjà existant doivent simplement faire leurs preuves sur le site Incubator, Beta-Wikiversité ou Wikisource Multilingue, avant de bénéficier d’un site web indépendant.

D’un point de vue chronologique enfin, il reste à signaler que certains projets frères et versions linguistiques, sont apparus avant même que le terme Wikimédia soit créé. Ce qui veut dire que bien avant que l’on parle de mouvement, toute une série de projets s’était déjà développée dans un brassage de langues et de cultures différentes, et avec l’aide d’une coordination centrale réalisée sur la plateforme Méta-Wiki. La naissance de Wikimédia en ce sens ne fut donc pas un événement ponctuel en soi, mais plutôt la réalisation d’un long processus, qui fut un jour identifié comme un mouvement social à par entière.

L'apparition du mouvement modifier

Avant de parler de la conceptualisation du mouvement Wikimédia, on est en droit de se questionner sur l’origine d’une appellation aussi étrange pour un mouvement. On peut ensuite se demander si tous les sites dont les noms contiennent l’expression Wiki sont en relation avec le mouvement. Alors qu’en réalité, 95 % des 20 000 sites web fonctionnant sur une technologie wiki n’ont aucun lien avec celui-ci, à l’exception peut-être qu’ils utilisent le logiciel MediaWiki développé par la Fondation Wikimédia[140].

WikiLeaks par exemple, créé par Julian Assange dans le but de publier des documents classifiés provenant de sources anonymes, n’est à ce titre ni un projet Wikimédia, ni un site collaboratif ouvert à tous. À l’inverse, le recueil universel et multilingue de guides illustrés WikiHow, fonctionne quant à lui de manière collaborative et avec le logiciel MediaWiki développé par la Fondation Wikimédia[141]. Néanmoins, son ergonomie, radicalement différente de celle des projets Wikimédia, permet de comprendre au premier coup d’œil que ce site web ne fait pas partie du mouvement.

Le projet Wikimini, qui est une encyclopédie libre pour enfants, a en revanche une apparence très proche de celle des projets Wikimédia. Mais contrairement au souhait de Laurent Jauquier qui en fut le créateur, ce projet n’aura jamais été accepté par la Fondation Wikimédia, très frileuse à l’idée de gérer du contenu pour jeune public. Suite à quoi, les projets WikiTribune et Fandom (anciennement intitulé Wikia), jettent encore un peu plus le trouble concernant une éventuelle appartenance au mouvement. Ces deux projets furent en effet fondés par Jimmy Wales, tout comme Wikipédia et la Fondation Wikimédia[142], alors qu’il n’a jamais été question de les intégrer au sein du mouvement, vu qu’ils sont tous deux à finalité lucrative.

Concernant l’étymologie du mot « Wikimédia », retenons que celui-ci est un mot-valise composé du suffixe média et du préfixe « wiki » que l’on doit à cette expression hawaïenne « wiki wiki », qui peut se traduire par « vite, vite[143] » en français. Récupéré une première fois par Ward Cunningham, le créateur du premier moteur Wiki, la formule fut ensuite utilisée dans la composition d’autres noms de logiciels wiki. Ce fut le cas du programme UseModWiki, utilisé par la firme Bomis pour commencer à héberger son projet d’encyclopédie collaborative. Le terme wiki fut ensuite gardé pour créer le mot Wikipédia, en association avec le suffixe « pedia » qui fait référence au mot anglais encyclopedia, selon un principe qui fut ensuite repris lors de la création des nouveaux projets au sein du mouvement.

 
Figure 19. Florence Devouard en 2017.

Quant au mot Wikimédia, il n’est apparu que le seize mars 2003, lors d’une discussion concernant la déclinaison possible de l’encyclopédie en d’autres types de projets éditoriaux participatifs. Durant celle-ci, l’écrivain américain Sheldon Rampton eu l’idée d’associer au terme wiki celui de « média » afin de mettre en évidence la variété des médias produits et partagés par Wikipédia et ses projets frères[144].

Quelques mois plus tard, le terme fut adopté lors de la création de la Fondation Wikimédia, après que Jimmy Wales décide d’y transférer les avoirs de sa firme Bomis que sont les noms de marques, noms de domaines et copyrights[145]. Il fallut ensuite attendre le mois de juin 2008, soit cinq années supplémentaires, pour que finalement Florence Devouard, présidente de la Fondation à cette époque, utilise le mot Wikimédia pour désigner le mouvement social qu’elle voyait apparaître à travers le développement d’une multitude de projets.

Affirmer que ce moment précis coïncide avec la naissance du mouvement serait quelque peu arbitraire. Car si l’on peut déterminer plus ou moins facilement l’apparition d’une expression dans les archives numériques, tout le monde sait qu’un mouvement social ne se forme pas en un jour. Dans le contexte du mouvement Wikimédia, sa naissance est aussi liée à celle du projet Wikipédia, ainsi qu’à tout ce qui permit la création de cette encyclopédie libre. Alors que dans une autre perspective, la naissance du mouvement pourrait tout aussi bien être associée à celle de la Fondation Wikimédia, créée le 20 juin 2003[146], ou encore à la mise en ligne de la plate-forme Méta-Wiki, déjà présentée précédemment.

Quoi qu’il en soit, l’expression « Wikimedia movement », apparut bel et bien sous la plume de Florence Devouard, dans un message datant de juin 2008, peu de temps avant qu’elle ne quitte son poste de présidente de la Fondation Wikimédia[147]. Sur la liste de diffusion de celle-ci[148], elle partagea en effet l’idée d’utiliser le nom de domaine Wikimedia.org pour y placer un site vitrine de présentation du mouvement Wikimédia selon cette description :

Le mouvement Wikimédia, comme je l’entends est

– une collection de valeurs partagées par les individus (liberté d’expression, connaissance pour tous, partage communautaire, etc.)

– un ensemble d’activités (conférences, ateliers, wikiacadémies, etc.)

– un ensemble d’organisations (Wikimedia Foundation, Wikimedia Allemagne, Wikimedia Taïwan, etc.), ainsi que quelques électrons libres (individus sans chapitres) et des organisations aux vues similaires[149]

Avant cette date clef, les personnes actives dans les projets éditoriaux en ligne ou dans les organismes affiliés, faisaient donc partie de ce que Ralf Dahrendorf appellerait un « quasi-groupe[150] ». Ou autrement dit, un ensemble d’individus qui ont un mode de vie semblable, une culture commune, mais dont les points communs ne gravitent pas autour d’une prise de conscience de leur position commune dans la relation d’autorité[151].

Constituer un mouvement à partir d’un ensemble de communautés d’éditeurs distribués sur des projets en ligne et hors ligne, eux-mêmes déclinés dans une multitude de langues, aura donc pris plus d’une dizaine d’années. Sans compter qu’aujourd’hui, de nombreuses personnes actives dans les projets Wikimédia, contrairement aux personnes qui participent aux rencontres physiques organisées au sein du mouvement, ne réalisent tout simplement pas qu’elles prennent part aux activités d’un mouvement social. Et c’est là une raison de croire que les activités organisées par la Fondation et ses différents organismes affiliés, ont joué un rôle crucial dans la création d’un sentiment d’appartenance à une cause commune.

La création des organismes affiliés modifier

Si c’est grâce à l’arrivée des groupes et des organismes affiliés à la Fondation Wikimédia que l’idée d’un mouvement apparut autour des projets Wikimédia, il est alors intéressant d’en décrire aussi leurs processus de création. Mais étant donné que cela représente plusieurs centaines d’instances, présenter l’histoire de chacune d’entre elles serait une entreprise beaucoup trop fastidieuse.

De plus, s’il existe énormément d’archives web concernant la naissance des sites Wikimédia, ce n’est pas le cas pour ces organismes qui se forment et se développent principalement durant des rencontres ou des réunions hors ligne qui ne font l’objet d’aucun enregistrement, ni d’aucun archivage. Du reste, une bonne part des échanges effectués au sein de ces associations se font au travers de canaux de communications privés auxquels seuls les membres actifs ont accès.

Je me limiterai donc ici à parler de l’association Wikimédia Belgique pour laquelle je fis partie des membres fondateurs. Celle-ci fut fondée le huit octobre 2014 en tant qu’association sans but lucratif et fut reconnue le six août par le conseil d’administration de la Fondation[152], suite à plus de trois ans d’activités et de rencontres[153].

Sous l’impulsion de Maarten Deneckere qui assuma le premier mandat de présidence, nous étions 8 personnes à signer la première version des statuts de l’association[154], dont l’objet social consiste jusqu’à ce jour à « impliquer tout un chacun dans la connaissance libre[155] ». Notre création ne connut malheureusement pas l’essor de Wikimédia Deutchland, la première association nationale qui vit le jour le treize juin 2004. En mai 2021, celle-ci rassemblait plus de 85 000 membres et près de 150 employés[156], tandis qu’à cette même date, l’association belge fonctionnait toujours sans salarié et comprenait seulement 115 membres[157].

 
Figure 20. Les membres du comité d’affiliation en 2018.

Avant d’être reconnues par le comité d’affiliations chargé de seconder le conseil d’administration de la Fondation, toutes les associations nationales, dites « chapters » en anglais, doivent réaliser un bon nombre de démarches. Celles-ci consistent à répondre à un ensemble de prérequis qui ont évolué suite à la création du comité en avril 2006[158]. Parmi ces obligations qui diffèrent d’un groupe d’utilisateurs et utilisatrices d’une association locale ou thématique, on retrouve par exemple : un nombre minimum de membres et de référents, une mission et un règlement d’ordre intérieur conformes aux attentes du mouvement, la remise de plans et de rapports d’activités annuels, etc.[159].

On comprend donc qu’il n’est pas évident de créer une nouvelle instance au sein du mouvement. Car pour bénéficier du soutien logistique et financier de la Fondation réservé aux organismes affiliés, c’est finalement toute une série de rapports qu’il faut alors transmettre à divers comités et commissions chargés de leurs évaluations. Cela représente une quantité de tâches administratives qu’il n’est pas toujours facile d’assumer, surtout lorsque les membres de l’organisme affilié sont tous des bénévoles. D’où sans doute cette disparition régulière d’affiliations, pendant que d’autres se créent ou réapparaissent en fonction des énergies et du dynamisme disponibles dans les équipes.

Les activités liées à la récolte et la redistribution des dons offerts au mouvement, ainsi que les autorisations d’usage de marques déposées, contrastent ainsi quelque peu avec les valeurs de libre partage et d’autonomie maintenues au sein des projets pédagogiques. Ce qui laisse présumer que la partie hors ligne du mouvement est plus influencée par les habitudes d’un système économique dominant, pendant que la partie en ligne semble plus fidèle à l’héritage philosophique de la contre-culture des années 60.

L'héritage d'une contre-culture modifier

 
Figure 21. Logos du mouvement Wikimédia et de sa Fondation.
 
Figure 22. Logo du mouvement hippie et de la contre-culture.

Au terme de cette première partie d’ouvrage, il apparait évident que la révolution numérique, que l’on considère généralement comme une révolution technique, fut aussi, et peut-être avant tout, une révolution sociale et culturelle. Au cours de cette récente révolution, qui prit cours en ce début de XXIe siècle, le mouvement Wikimédia s’est ainsi développé, pour finalement apparaitre comme un symbole de contre-culture. Ce symbole est bien sûr moins visible que celui des années 60, apparut dans un mouvement d’opposition à la guerre du Viêt Nam, ainsi qu’à une hégémonie culturelle favorable à la marchandisation du monde. Mais le symbole du mouvement Wikimédia, tout comme celui des années 1960, repose sur des bases philosophiques similaires.

D’ailleurs, avec un peu d’imagination, le renversement du logo du mouvement Wikimédia et de sa Fondation, ne fait-il pas penser au renversement de celui du mouvement Hippie ? Si cette démonstration n’est pas convaincante, on peut alors se référer à ce qui lie le mouvement Wikimédia à Richard Stallman, le gourou de la contre-culture hacker[160] et le père du système d’exploitation hippie[161], dont la philosophie fut largement commentée en cette première partie d’ouvrage. Un lien parfaitement illustré encore une fois, par une photo reprise ci-dessous, où l’on voit apparaitre Richard Stallman, barbe grisonnante et cheveux long, dans une attitude triomphante face au drapeau Wikimédia, lors de la première rencontre internationale du mouvement Wikimédia.

Quant aux enjeux des valeurs de la contre-culture du mouvement Wikimédia transmises par celui des logiciels libres, André Gorz, père de la décroissance[162] et théoricien de l’écologie politique[163], nous en offre sa propre synthèse[164] :

La lutte engagée entre les "logiciels propriétaires" et les "logiciels libres" (libre, "free", est aussi l’équivalent anglais de "gratuit") a été le coup d’envoi du conflit central de l’époque. Il s’étend et se prolonge dans la lutte contre la marchandisation de richesses premières – la terre, les semences, le génome, les biens culturels, les savoirs et compétences communs, constitutifs de la culture du quotidien et qui sont les préalables de l’existence d’une société. De la tournure que prendra cette lutte dépend la forme civilisée ou barbare que prendra la sortie du capitalisme.

 
Figure 23. Photo de Richard Stallman lors du premier rassemblement Wikimania de 2005.

En possédant le seul nom de domaine non commercial du top 50 des sites les plus fréquentés du Web[165], le mouvement Wikimédia apparaît donc comme l’une des pierres angulaires de cette lutte entre monde libre et monde propriétaire. Car au-delà du code informatique, s’il y a bien une chose qui se voit marchandisé au sein de l’écoumène numérique, c’est sans aucun doute le savoir. Un savoir dans lequel se retrouve aussi tout type d’informations relatives à l’identité et aux comportements des personnes actives dans les espaces web. Un « nouvel or noir » disent certains, alors que d’autres préfèrent parler de « capitalisme 3.0[166] » ou de « capitalisme de surveillance[167][168] ».

Il est évident que les enjeux de cette lutte ne sont pas faciles à comprendre, en raison notamment de la complexité de l’infrastructure informatique, mais aussi parce que ce combat s’inscrit dans une révolution que Rémy Rieffel décrit à juste titre, comme : « instable et ambivalente, simultanément porteuse de promesse et lourde de menaces ». Cela alors qu’elle prend place « dans un contexte où s’affrontent des valeurs d’émancipation et d’ouverture d’un côté et des stratégies de contrôle et de domination de l’autre[169] ».

D’ailleurs, en fait d’ambivalence, n’est-il pas étonnant de découvrir que Jimmy Wales, qui finança le projet Wikipédia à ses débuts, est aussi un adepte de l’objectivisme ? Soit une philosophie politique dans laquelle le capitalisme est perçu comme la forme idéale d’organisation de la société[170] et pour laquelle, l’intention morale de l’existence est la poursuite de l’égoïsme rationnel[171].

Dix ans après les avertissements d’André Gorz, les enjeux soulevés par les logiciels libres au début des années quatre-vingt restent au cœur des problématiques actuelles. Pour s’en convaincre, il suffit d’observer que Tim Berners-Lee ne cesse d’implorer la « redécentralisation[172] » et la « régulation[173] » de l’espace numérique dont il fut le créateur, cela alors que dans un mouvement tout à fait inverse, des milliards d’objets connectés repris au sein d’un marché qui dépasserait déjà les 2.6 milliards d’euros rien qu’en France pour l’année 2020[174], collectent des informations à tout-va, colportées par de nouvelles technologies de transfert qui, en peu de temps, sont passées de la 3G à la 5G.

Au-delà de tous ces aspects économiques, il nous reste encore à tenir compte de la dimension politique de l’héritage contre-culturel transmis par les hackers. Au niveau du mouvement Wikimédia, cela se concrétise en effet par un désir de s’émanciper des contrôles étatiques. Une position qui parfois entraine la censure des projets Wikimédia par des gouvernements. Comme ce fut le cas en Turquie, en Russie, en Iran, au Royaume-Uni et même de manière permanente en Chine[175].

Des procédures juridiques peuvent aussi être mobilisées pour intimider les membres du mouvement. Ce fut le cas en France, lorsque le directeur de l’association locale fut menacé de poursuites pénales par la Direction Centrale du Renseignement Intérieures, dans le cadre d’une affaire liée à un article Wikipédia crée au sujet d’une station militaire[176]. Une intimidation qui dans ce cas se limita à des menaces, alors qu’en Biélorussie, l’éditeur Mark Bernstein fut condamné à quinze jours de prison suivit de trois ans d’assignation à résidence, en raison de propos tenus sur la guerre en Ukraine[177].

À côté de cela, l’espace Web se voient dominer par des projets monopolistiques et à but lucratif, à l’image des GAFAM, BATX, NATU et autres géants du web, qui sont souvent critiqués pour leurs abus de position dominante. Ceci pendant qu’en sens inverse, et toujours suite à un échec économique semble-t-il, des projets à prétentions commerciales, peuvent un jour donner naissance à des projets de partage autonomes. Avec pour exemple le projet commercial Nupedia qui abouti à la création de Wikipédia, ou encore le navigateur web commercialisé par la firme Netscape Communications, qui finalement permit la création du navigateur open source Mozilla Firefox.

Ensuite, un succès commercial tel que celui de la messagerie instantanée MSN Messenger, peut aussi promouvoir l’apparition d’autres succès commerciaux, à l’image des nombreux réseaux sociaux qui ont envahi le web. Alors qu’au niveau de la sphère du partage, un succès non commercial tel que le projet Wikipédia, aura inspiré la création d’autres projets collaboratifs et sans but lucratif, parmi lesquels figure le projet OpenStreetMap dédié à la cartographie du monde sous licence libre.

 
Figure 24. Sculpture en bronze de Davide Dormino intitulée Anything to say? à l’honneur des trois lanceurs d’alertes que sont de gauche à droite : Edward Snowden, Julian Assange et Chelsea Manning.

Tout se passe donc comme si au sein de l’espace numérique se perpétuait une lutte éternelle entre d’un côté, une recherche de pouvoir économique et politique centralisé au profit de quelques acteurs privilégiés, et de l’autre, un perpétuel désir de partage et d’autonomie ressenti par une autre couche de la population humaine.

Ce que l’on peut encore retenir de cette première partie d’ouvrage, c’est que certains courants sociaux que l’on pourrait croire entièrement disparus continuent à influencer la manière dont fonctionnent nos sociétés. Car cinquante ans plus tard, et même si les termes ont évolués, il semble évident que certaines figures emblématiques contemporaines, comme celle du lanceur ou de la lanceuse d’alerte, sont étroitement liées aux prises de consciences issues la contre-culture des années 60.

Certains Wikimédiens tels que Aaron Swartz, Bassel Khartabil, Pavel Pernikov, Ihor Kostenko et Mark Bernstein ont en effet perdu leur vie ou leur liberté pour défendre les valeurs présentées tout au long de cette première partie d’ouvrage. De manière similaire à Julian Assange, Edward Snowden et Chelsea Manning, on peut dire d’eux, qu’ils « ont perdu leur liberté pour défendre la nôtre »[178].

Au sein de la communauté Wikimédia, apparaissent ainsi des héros de ce qu’on appelle aujourd’hui la crypto-anarchie. Une philosophie qui prône la liberté d’information et le secret de la communication face à « l’interférence du gouvernement et des grandes sociétés[179] ». Ce qui est, somme toute, une nouvelle façon de lutter contre de nouvelles formes d’hégémonie culturelle[180], développées dans un monde toujours plus global et numérique.

Notes et références modifier

  1. Pekka Himanen, The Hacker Ethic and the Spirit of the Information Age, Vintage, (ISBN 978-0-09-942692-9).
  2. Pekka Himanen, L'éthique hacker et l'esprit de l'ère de l'information, Exils, (ISBN 2-912969-29-8 et 978-2-912969-29-3, OCLC 51085264).
  3. Karl Polanyi, Fred Block et Joseph E Stiglitz, The great transformation: the political and economic origins of our time, Beacon press, (ISBN 978-0-8070-5643-1, OCLC 1277370048).
  4. Texte original avant sa traduction par www.deepl.com/translator : « subordinates human purposes to the logic of an impersonal market mechanism ».
  5. Les serveurs informatiques de la Fondation Wikimedia.
  6. Sites web.
  7. Wikimedia Foundation Governance Wiki et Wikimedia VRT.
  8. Projets pédagogiques.
  9. Page Web.
  10. Adresses IP.
  11. GAFAM, NATU, BATX, etc.
  12. Méta-Wiki, « Contribution d'IP : Amélioration de la confidentialité et limitation des abus ».
  13. Wikipédia.
  14. Wikilivres et Wikisource.
  15. Wiktionnaire.
  16. Wikinews.
  17. Wikiversité.
  18. Wikivoyage.
  19. Wikispecies.
  20. Wikiquote.
  21. Wikimedia Commons.
  22. Wikidata.
  23. Espace de noms.
  24. MediaWiki, Wikitech, Phabricator, etc.
  25. Méta-Wiki.
  26. Wikimedia VRT.
  27. Wikimedia outreach.
  28. Christian Vandendorpe, « Le phénomène Wikipédia: une utopie en marche », dans Le Débat, Gallimard, vol. 148, no 1, 2008, p. 17 (ISSN 0246-2346) .
  29. Théo Henri, Wikipédia : une utopie réalisée ?, Université de Poitier, , 98 p. (lire en ligne).
  30. Frédéric Joignot, « Wikipédia, bazar libertaire », sur Le Monde, .
  31. Wikipédia, « Wikipédia: Interprétation créative des règles ».
  32. Steven Levy et Gilles Tordjman, L'éthique des hackers, Globe, (ISBN 978-2-211-20410-1, OCLC 844898302).
  33. Méta-Wiki, « Revision history of "Terms of use" ».
  34. Wikipédia, « Wikipédia:Règles et recommandations ».
  35. Wikimedia Foundation Governance Wiki, « Policy:Universal Code of Conduct/fr ».
  36. Richard M Stallman et Sam Williams, Richard Stallman et la révolution du logiciel libre - Une biographie autorisée, Eyrolles, (OCLC 708380925, lire en ligne).
  37. Richard Stallman, « Système d'exploitation GNU – Annonce initiale », sur GNU, .
  38. Karl Pradène, « Qu'est-ce que le logiciel libre ? », sur GNU, .
  39. Brandon Griggs, « The Commodore 64, that '80 s computer icon, lives again », sur CNN, .
  40. Étienne Combier, « Abus de position dominante : les plus grosses amendes de la Commission européenne », Les Échos, .
  41. Marc Rees, « Pourquoi la justice européenne a sanctuarisé la vente liée PC et OS », sur nextinpact.com, Next INpact, .
  42. Linus Torvalds, David Diamond et Olivier Engler, Il était une fois Linux, Osman Eyrolles Multimédia, (ISBN 978-2-7464-0321-5, OCLC 48059105).
  43. Linus Torvalds et David Diamond, Just for fun : the story of an accidental revolutionary, HarperBusiness, (ISBN 978-0-06-662073-2, OCLC 1049937833).
  44. Texte original avant sa traduction par www.deepl.com/translator : « I'm doing a (free) operating system (just a hobby, won't be big and professional like gnu) for 386(486) AT clones. This has been brewing since april, and is starting to get ready. I'd like any feedback on things people like/dislike in minix, as my OS resembles it somewhat (same physical layout of the file-system (due to practical reasons)among other things) ».
  45. Christophe Lazaro, La liberte logicielle, Academia Bruylant, coll. « Anthropologie Prospective », , 56 p. (ISBN 978-2-87209-861-3, OCLC 1104281978).
  46. Méta-Wiki, « Wikimedia servers ».
  47. Eric Steven Raymond, Cathedral and the bazaar, SnowBall Publishing, (ISBN 978-1-60796-228-1, OCLC 833142152).
  48. Eric S. Raymond (trad. Sébastien Blondeel), « La cathédrale et le bazar », sur Linux France, .
  49. Sam Williams, Richard M Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre : une biographie autorisée, Livio éditions, (ISBN 978-2-35455-034-9, OCLC 1163855816), p. 180.
  50. Richard Stallman, « Le projet GNU », sur GNU, .
  51. Richard Stallman, « Pourquoi l'« open source » passe à côté du problème que soulève le logiciel libre », sur GNU, .
  52. Steven J. Vaughan-Nichols, « L’Open Source a 20 ans : comment cette philosophie a-t-elle révolutionné la programmation ? », sur ZDNet, .
  53. Andrew M St. Laurent, Understanding open source & free software licensing [guide to navigating licensing issues in existing & new software, Sebastopol, Ca : O'Reilly Media Inc., (ISBN 978-0-596-00581-8, OCLC 314704943).
  54. Creative Commons, « Foire Aux Questions - À propos de CC ».
  55. Creative Commons, « Foire aux questions ».
  56. 56,0 et 56,1 Laurent Chemla, Biens publics à l'échelle mondiale et Coopération solidarité développement aux PTT, Les télécommunications, entre bien public et marchandise, Une histoire d'Internet, ECLM (Charles Leopold Mayer), (ISBN 978-2-84377-111-8, OCLC 833154536), p. 73 & 63 (par ordre de citation).
  57. 57,0 et 57,1 Alexandre Serres, Christian Le Moënne et Jean-Max Noyer, « Aux sources d'internet : l'émergence d'Arpanet : exploration du processus d'émergence d'une infrastructure informationnelle : description des trajectoires des acteurs et actants, des filières et des réseaux constitutifs de la naissance d'Arpanet : problèmes critiques et épistémologiques posés par l'histoire des innovations », dans Thèse de doctorat, Université Rennes 2, 2000, p. 481 & 488 (par ordre de citation) [texte intégral] .
  58. Stephen Denneti, ARPANET Information Brochure, Defense Communications Agency, , 46 p. (OCLC 476024876, lire en ligne), p. 4.
  59. Solange Ghernaouti-Hélie et Arnaud Dufour, Internet, Presses universitaires de France, (ISBN 978-2-13-058548-0, OCLC 795497443).
  60. Étienne Combier, « Les leçons de l’Internet Society pour sauver la Toile », sur Les Echos, .
  61. Michel Elie, « Quarante ans après : mais qui donc créa l'internet ? », sur Vecam, .
  62. E. D. Hirsch, The Dictionary of Cultural Literacy, Houghton Mifflin, , 419 p. (ISBN 978-0-395-65597-9)
  63. Theodore Roszak et Claude Elsen, Vers une contre-culture. Réflexions sur la société technocratique et l'opposition de la jeunesse, Paris, Stock, , 318 p. (ISBN 978-2-234-01282-0, OCLC 36236326), p. 266-267.
  64. Fred Turner, Aux sources de l'utopie numérique: De la contre-culture à la cyberculture, Stewart Brand, un homme d'influence, C & F Éditions, (ISBN 978-2-37662-032-7).
  65. Guillaume de Lamérie, « Aux sources de l’utopie numérique, de la contre-culture à la cyberculture », sur Association française pour l’Information Scientifique, .
  66. Andrew L. Russell, « 'Rough Consensus and Running Code' and the Internet-OSI Standards War », dans IEEE Annals Hist. Comput. IEEE Annals of the History of Computing, vol. 28, no 3, 2006, p. 48–61 (ISSN 1058-6180) .
  67. Texte original avant sa traduction par www.deepl.com/translator : « We reject kings, presidents and voting. We believe in rough consensus and running code »
  68. W3C, « Tim Berners-Lee : WorldWideWeb, the first Web client ».
  69. W3C, « La mission du W3C ».
  70. Quentin Jardon, Alexandria : les pionniers oubliés du web : récit, Paris, Gallimard, (ISBN 978-2-07-285287-9, OCLC 1107518440), p. 154.
  71. James Gillies et Robert Cailliau, How the Web Was Born – The Story of the World Wide Web, Oxford University Press, , 372 p. (ISBN 978-0-19-286207-5).
  72. Wiki.c2, « Wiki Wiki Web Faq ».
  73. Brion Vibber, « MediaWiki's big code & usability code & usability push », sur Leuksman, .
  74. Wiki.c2, « Top Ten Wiki Engines ».
  75. MediaWiki, « Main page ».
  76. MediaWiki, « Category:EMWCon ».
  77. David Strine, « MediaWiki is the software that underpins Wikipedia. This conference shows all the other ways it can be used », sur Wikimedia Foundation News, .
  78. Alex Wright, Cataloging the world : Paul Otlet and the birth of the information age, Oxford University Press, (ISBN 978-0-19-993141-5, OCLC 861478071).
  79. Françoise Levie, L' homme qui voulait classer le monde: Paul Otlet et le Mundaneum, Impressions Nouvelles, (ISBN 978-2-87449-022-4, OCLC 699650184).
  80. Paul Otlet, Traité de documentation : Le Livre sur le livre, théorie et pratique, Bruxelles, Editions Mundaneum, , 431 p., p. 428.
  81. Alexa, « Wikipedia.org Competitive Analysis, Marketing Mix and Traffic ».
  82. Brian Knappenberger, « The Internet's own boy: The Story of Aaron Swartz|The Internet's own boy: The Story of Aaron Swartz », Participant Medi, , p. 6:29 - 7:31 min.
  83. David Amsden, « The Brilliant Life and Tragic Death of Aaron Swarz », sur Penske Media Corporation, .
  84. Richard Stallman, « The Free Universal Encyclopedia and Learning Resource (1998 draft) », sur GNU, .
  85. Richard Stallman, « The Free Universal Encyclopedia and Learning Resource », sur GNU, .
  86. Texte original avant sa traduction par www.deepl.com/translator : The World Wide Web has the potential to develop into a universal encyclopedia covering all areas of knowledge, and a complete library of instructional courses. This outcome could happen without any special effort, if no one interferes. But corporations are mobilizing now to direct the future down a different track--one in which they control and restrict access to learning materials, so as to extract money from people who want to learn. […] We cannot stop business from restricting the information it makes available ; what we can do is provide an alternative. We need to launch a movement to develop a universal free encyclopedia, much as the Free Software movement gave us the free software operating system GNU/Linux. The free encyclopedia will provide an alternative to the restricted ones that media corporations will write.
  87. Wikipédia, « Principes fondateurs ».
  88. Wikipedia, « Information for "Wikipedia: Neutral point of view" ».
  89. Ned Kock, Yusun Jung et Thant Syn, Wikipedia and e-Collaboration Research: Opportunities and Challenges, vol. 12, IGI Global, , 1–8 p. (ISSN 1548-3681, DOI 10.4018/IJeC.2016040101, lire en ligne).
  90. Larry Sanger, « Let's make a wiki », sur Nupedia-l, .
  91. Geere Duncan, « Timeline:Wikipedia's history and milestones », sur Wired UK, .
  92. Jimmy Wales, « Re: [Bug-gnupedia] gnupedia.org resolves to nupedia », sur GNU Mailing Lists, .
  93. 93,0 et 93,1 Marshall Poe, « The Hive », sur The Atlantic, .
  94. Texte original avant sa traduction par www.deepl.com/translator : « had no direct knowledge of Stallman’s essay when he embarked on his encyclopedia project »
  95. Jonathan Zittrain, The Future of the Internet--And How to Stop It, Yale University Press, , 140 p. (ISBN 9780300145342, lire en ligne).
  96. Joseph Michael Reagle, Good Faith Collaboration: The Culture of Wikipedia, MIT Press, , 54 p. (ISBN 9780262014472, lire en ligne).
  97. GNE, « Home ».
  98. Andrew Lih, The Wikipedia revolution: how a bunch of nobodies created the world's greatest encyclopedia, Aurum, (ISBN 978-1-84513-516-4, OCLC 717360697), p. 35.
  99. GNU, « Le projet d'encyclopédie libre ».
  100. Timothy, « The Early History of Nupedia and Wikipedia : A Memoir », sur Slashdot, .
  101. Meta-Wiki, « My resignation ».
  102. Jason Richey, « new language wikis », sur Wikipedia-l, .
  103. Wiktionnaire, « Wiktionnaire:Historique du Wiktionnaire ».
  104. Wiktionnaire, « Wiktionnaire:Historique du Wiktionnaire/Discussion Wikipédia:Wiktionary ».
  105. Wikilivres, « acceuil ».
  106. Méta-Wiki, « Wikijunior/proposal to Beck Foundation ».
  107. Wikilivres, « Wikijunior ».
  108. Méta-Wiki, « Talk:Wikiversity/Old ».
  109. Texte original avant sa traduction par www.deepl.com/translator : « create a community of people who support each other in their educational endeavors »
  110. Wikibooks, « Wikiversity ».
  111. 111,0 et 111,1 Wikibooks, « Wikibooks:Requests for deletion/Wikiversity ».
  112. Méta-Wiki, « Wikiversity ».
  113. Méta-Wiki, « Wikiversity/Vote/fr ».
  114. Texte original avant sa traduction par www.deepl.com/translator : « rewriting the proposal to exclude credentials, exclude online-courses and clarify the concept of elearning platform »
  115. Wikimedia Foundation Wiki, « Meetings/November 13, 2005 ».
  116. Texte original avant sa traduction par deepl.com/translator : « The main reason why the Wikimedia Foundation doesn't want to "turn it loose" is pure bureaucratic BS and a fear that it will turn into another Wikispecies. Wikispecies is a cool idea, but the "founders" of the project got cold feet part-way into putting in content and decided to do a major revision that took more time than anybody was willing to put into it. The same issue applies to Wikiversity so far as the Foundation is concerned, because the goals and purposes of this project are not clearly defined, and it seems like the participants are trying to bite off more than they can chew by proposing an entire multi-college research university (with Carnegie-Mellon research status and accreditation as well) to be formed out of whole cloth rather than a simple adult education center with a few classes. If more thought is done on how to "bootstrap" this whole project, perhaps some thoughts on how to convince the Foundation board to let a separate wiki be kicked loose to let this project try to develop on its own can be made.--Rob Horning 11:21, 14 August 2005 (UTC) »
  117. Méta-Wiki, « Wikiversity/Modified project proposal ».
  118. Méta-Wiki, « Difference between revisions of "Special projects committee/Resolutions" - Meta ».
  119. Wikiversité, « Wikiversité ».
  120. Texte original avant sa traduction par www.deepl.com/translator : « six months, during which guidelines for further potential uses of the site, including collaborative research, will be developed »
  121. Wikisource, « Wikisource ».
  122. Wikimédia Incubator, « Welcome to Wikimedia Incubator! ».
  123. Méta-Wiki, « Proposals for closing projects/Closure of Beta Wikiversity ».
  124. Méta-Wiki, « Proposals for closing projects/Move Beta Wikiversity to Incubator ».
  125. Méta-Wiki, « Proposals for closing projects/Move Beta Wikiversity to Incubator 2 ».
  126. Giles Turnbull, « The DIY travel guide », sur BBC News, .
  127. Jake Coyle, « On the Net: Web Sites to Travel By », sur Fox News, .
  128. Méta-Wiki, « Requests for comment/Travel Guide ».
  129. Steven Musil, « Wikimedia, Internet Brands settle Wikivoyage lawsuits », sur CNET, .
  130. Open Publishing Awards, « Results ».
  131. Wikimedia Foundation Wiki, « Minutes/2020-02 ».
  132. Méta-Wiki, « Proposals for new projects ».
  133. Méta-Wiki, « WikiLang »
  134. Wikimedia Foundation Wiki, « Resolution:Abstract Wikipedia ».
  135. Wikimedia Fundation, « Resolution:Abstract Wikipedia »
  136. Thomas Douillard, « Abstract Wikipédia - LinuxFr.org », sur Linux Fr, .
  137. Méta-Wiki, « Proposals for closing projects ».
  138. Méta-Wiki, « Wikiquote FR/Closure of French Wikiquote ».
  139. Jean-Baptiste Soufron, « Redémarrage du Wikiquote Francophone / French Wikiquote Relaunch », sur Foundation-l, .
  140. WikiIndex, « the index of all wiki ».
  141. WikiHow, « wikiHow:Powered and Inspired by MediaWiki ».
  142. Terry Collins, « Wikipedia co-founder launches project to fight fake news », sur CNET, .
  143. Wiktionnaire, « wiki ».
  144. Sheldon Rampton, « WikiEN-l Re:Current events », sur Wikimedia-l, .
  145. Jimmy Wales, « Announcing Wikimedia Foundation », sur Foundation-l, .
  146. Division of Corporations - State of Florida, « Wikimedia Foundation, INC. ».
  147. Florence Devouard, « Candidacy to the board of WMF », sur Foundation-l, .
  148. Méta-Wiki, « Talk:Www.wikimedia.org template/2008 ».
  149. Texte original avant sa traduction par deepl.com/translator : « The Wikimedia Movement, as I understand it, is a collection of values shared by individuals (freedom of speech, knowledge for everyone, community sharing, etc.) a collection of activities (conferences, workshops, wikiacademies, etc.) a collection of organizations (Wikimedia Foundation, Wikimedia Germany, Wikimedia Taiwan, etc.), as well as some free electrons (individuals without chapters) and similar-minded organizations. »
  150. Ralf Dahrendorf, Classes et conflits de classes dans la société industrielle., Mouton, (OCLC 299690912).
  151. Pierre Desmarez, Sociologie générale (syllabus), Bruxelles, Presses universitaires de Bruxelles, , 10e éd., 194 p., p. 34.
  152. Wikimedia foundation Wiki, « Resolution:Recognition of Wikimedia Belgium ».
  153. Wikimedia Belgium, « History ».
  154. Moniteur Belge, « Wikimedia Belgium vzw ».
  155. Wikimédia Belgique, « Wikimédia Belgique ».
  156. Medieninsider, « Christian Humborg wird Vorstandschef von Wikimedia Deutschland », sur Medieninsider, .
  157. Wikimédia Belgique, « General Assembly 2021 ».
  158. Wikimedia Foundation Wiki, « Resolution chapters committee ».
  159. Méta-Wiki, « Template:Wikimedia movement affiliates/Requirements comparison ».
  160. Divers auteurs, L'Éthique Hacker, U.C.H Pour la Liberté, version 9.3, 56 p. (lire en ligne), p. 11.
  161. Gavin Clarke, « Stallman's GNU at 30: The hippie OS that foresaw the rise of Apple — and is now trying to take it on », sur Theregister, .
  162. David Murray, Cédric Biagini, Pierre Thiesset et Cyberlibris ScholarVox International, Aux origines de la décroissance: cinquante penseurs, (ISBN 978-2-89719-329-4, 978-2-89719-330-0 et 978-2-89719-331-7, OCLC 1248948596).
  163. André Gorz, Ecologie et politique: nouv. ed. et remaniee., Éditions du Seuil, (ISBN 978-2-02-004771-5, OCLC 796186896).
  164. André Gorz, « Le travail dans la sortie du capitalisme », sur Revue Critique d'Écologie Politique, .
  165. Alexa, « Top sites ».
  166. Philippe Escande et Sandrine Cassini, Bienvenue dans le capitalisme 3.0, Albin Michel, (ISBN 978-2-226-31914-2, OCLC 954080043).
  167. Shoshana Zuboff, L'âge du capitalisme de surveillance, Zulma, (ISBN 978-2-84304-926-2, OCLC 1199962619).
  168. Christophe Masutti et Francesca Musiani, Affaires privées : aux sources du capitalisme de surveillance, Caen : C&F éditions, coll. « Société numérique », (ISBN 978-2-37662-004-4, OCLC 1159990604).
  169. Rémy Rieffel, Révolution numérique, révolution culturelle ?, Folio, (ISBN 978-2-07-045172-2, OCLC 953333541), p. 20.
  170. Ayn Rand, Nathaniel Branden, Alan Greenspan et Robert Hessen, Capitalism: the unknown ideal, (ISBN 978-0-451-14795-0, OCLC 1052843511).
  171. Ayn Rand, La vertu d'égoïsme, Les Belles lettres, (ISBN 978-2-251-39046-8, OCLC 937494401).
  172. Liat Clark, « Tim Berners-Lee : we need to re-decentralise the web », sur Wired UK, .
  173. Elsa Trujillo, « Tim Berners-Lee, inventeur du Web, appelle à la régulation de Facebook, Google et Twitter », sur Le figaro, .
  174. Tristan Gaudiaut, « Infographie: L'essor de l'Internet des objets », sur Statista Infographies, .
  175. Christine Siméone, « Censurée en Turquie et en Chine, remise en cause en Russie, ces pays qui en veulent à Wikipédia », sur France Inter, .
  176. Stéphane Moccozet, « Une station hertzienne militaire du Puy-de-Dôme au cœur d'un désaccord entre Wikipédia et la DCRI », sur France 3 Auvergne-Rhône-Alpes, .
  177. Charter97, « Entrepreneur, Activist Mark Bernstein Detained In Minsk - Charter'97 :: News from Belarus - Belarusian News - Republic of Belarus - Minsk », sur Charter97, .
  178. B.D., « Berlin: Des statues à l'effigie des lanceurs d'alerte Snowden, Manning et Assange », sur 20minutes.fr, .
  179. [[w:Timothy C. May|]], « Manifeste Crypto-Anarchiste », sur La Revue des Ressources, .
  180. Antonio Gramsci, Textes, Editions Sociales, (ISBN 978-2-209-05518-0, OCLC 12842792), p. 210.