La reine rouge, séquence4 - Mémoire fixation, mémoire flux


8 - L'une des choses qui me frappent le plus dans ces textes de D'Alembert et de Diderot, c'est bien qu'il ne se contentent pas de justifier leur démarche et leurs méthodes, mais qu'ils pensent aussi l'encyclopédie comme un processus et, d'une certaine façon, comme un instrument de savoir ayant lui-même une valeur créatrice. Cette valeur est pédagogique, mais elle est aussi philosophique et politique. C'est peut-être ce qui fait d'abord le lien entre l'Encyclopédie et le projet qui anime wikipedia. Mais ce lien n'est pas immédiat, il passe par le mouvement qui s'exprime au travers des différentes propositions qui se sont succédées au cours du XXme siècle et qui ont contribué à transformer de façon radicale non seulement la notion d'encyclopédie, mais le dispositif même dans lequel peut se penser le rapport à la mémoire collective et à l'accès à la connaissance dans leur intégration à l'activité personnelle de recherche comme de divertissement. Ce qui se joue dans ces différentes propositions, c'est une transformation profonde de la place de la connaissance dans l'activité sociale. Disons les choses autrement, le mouvement dont je voudrais évoquer rapidement certaines des étapes participe sans doute d'un processus de développement cohérent dans son objet, mais ce n'est en même temps qu'une facette d'une transformation bien plus large et qui touche à la place relative de ce qu'on pourrait appeler de grandes "fonctions" sociales, ou de vaste champs dans lesquels s'organisent les activités d'une société comme la façon dont elle se les représente : bref, les frontières que nous avons l'habitude de tracer entre économie, culture, politique, divertissement sont en train de se déplacer et ces déplacements questionnent jusqu'à la réalité même des territoires que ces concepts identifient.

Il n'est évidemment pas question de s'attaquer à une pareille montagne ici, mais simplement d'évoquer ce qui se dessine dans la série de ces utopies de la connaissance, dont le projet s'est chaque fois condensé dans un nom avancé comme un défi symbolique, un nom qui appelle l'idée d'une totalité organique et d'un dispositif global : le Mundaneum de Paul Otlet au début du XXme siècle, le Memex de Vannevar Bush au sortir de la deuxième guerre mondiale, le Xanadu de Ted Nelson dans les années soixante. Dans sa brièveté, la série s'infléchit de façon significative, y compris "musicalement", sonnant d'abord comme du Jules Vernes (le Mundaneum) pour transiter par la BD ou la littérature populaire (le Memex) et finir dans les eaux de la science fiction cyber punk (Xanadu). Wikipedia peut se situer alors dans le prolongement de ces grands projets. Mais si le projet de l'Encyclopédie de Diderot et D'Alembert était, ou espérait être, si l'on me permet cette expression anachronique, une chronophotographie du savoir en mouvement, on entre progressivement dans une logique du flux.

La personnalité et l'oeuvre de Paul Otlet (1868-1944) , après une longue éclipse, semble avoir suscité ces dernières années un intérêt renouvelé (22). La question centrale est pour lui de rendre la connaissance accessible à ceux qui en ont besoin. Cette question est abordée d'un point de vue technique, organisationnel et théorique. Il est, avec son ami Henri La Fontaine, le père de la Classification Décimale Universelle, établie dés les dernières années du XIXme siècle et qui régit encore aujourd'hui largement le travail des documentalistes. De fait, le point de départ de la recherche d'Otlet est un travail de classification et de constitution d'un stock accessible de documents. Et ce stock vise réellement la totalité mouvante du savoir, à l'échelle de la planète. Le modèle reste fondamentalement celui de la bibliothèque, mais d'une bibliothèque élargie et en réseau dans laquelle le livre, s'il demeure central, devient un document complété par d'autres documents de natures diverses - textes, affiches, journaux, photographies, films, archives sonores, etc. Il met en oeuvre un double projet d'universalisation des ressources et l'homogénéisation des formes de leur accessibilité. Il pose clairement la question politique du libre accès au savoir pour tous et l'inscrit dans la perspective d'une contribution à la paix entre les nations, à l'époque même où s'exacerbent les nationalismes et où l'imbécilité patriotique devient l'outil privilégié de la manipulation des opinions au service des politiques d'expansion. Dans des termes qui évoquent la pensée de Kant quand il écrit un "Projet de Paix Perpétuelle", l'objectif d'Otlet devient la réalisation d'une "encyclopédie universelle et perpétuelle" ayant pour collaborateurs "tous les savants de tous les temps et de tous les pays". Il se met à travailler à un projet de Société des Nations (ce qui est aussi un concept kantien) qui garantirait la concorde par l'arbitrage des conflits. Dès octobre 1914, il publie son "Traité de paix générale", charte mondiale déclarant les droits de l'humanité et organisant la confédération des États. En 1916, il préside à Lausanne le Congrès des nationalités qui préfigure la création effective de la Société des Nations.

L'activité d'Otlet s'incarne très vite dans le projet d'une grande oeuvre, le Mundaneum (23), conçue comme une sorte de super centre de documentation, immense espace d'archivage qui voudrait être en correspondance avec des bibliothèques du monde entier. Et dans son "Traité de documentation", publié en 1934, il projette l'avenir du livre et du document dans ce qui me semble être la première manifestation d'une figure appelée à un grand avenir, celle du bureau comme métaphore de dispositif technologique : ".. la table de travail ne serait plus chargée d’aucun livre. À leur place se dresse un écran et à portée un téléphone. Là-bas au loin, dans un édifice immense, sont tous les livres et tous les renseignements… De là, on fait apparaître sur l’écran la page à lire pour connaître la réponse aux questions posées par téléphone, avec ou sans fil. Un écran serait double, quadruple ou décuple s’il s’agissait de multiplier les textes et les documents à confronter simultanément ; il y aurait un haut parleur si la vue devait être aidée par une donnée ouïe, si la vision devait être complétée par une audition. Utopie aujourd’hui, parce qu’elle n’existe encore nulle part, mais elle pourrait bien devenir la réalité pourvu que se perfectionnent encore nos méthodes et notre instrumentation. Et ce perfectionnement pourrait aller jusqu’à rendre automatique l’appel des documents sur l’écran, automatique aussi la projection consécutive.. ».

Comme on peut bien l'imaginer, on a vu là une préfiguration d'internet. La question n'est pas pour moi celle d'une quelconque anticipation, mais plutôt de la façon dont se met en place un espace d'investigation, à la fois technique, scientifique, et politique, qui se centre sur la question de l'accès, de la circulation et de l'intermodalité des contenus de connaissance. Ce qui est important, c'est de voir qu'avec l'invention du concept de "document", c'est la nature de l'archive qui se modifie, passant du statut d'objet immobilisé dans la gangue d'un dispositif de conservation, à celui d'un élément mobile ou en tout cas mobilisable, intégré dans un système de normes qui assure l'interrelation d'acteurs placés dans une situation de communication.

C'est cette figure du bureau qu'on retrouve au coeur du célèbre texte que Vannevar Bush, conseiller scientifique de Roosevelt, chercheur au MIT, publie un an après la mort d'Otlet, en 1945, dans "The Atlantic Monthly", sous le titre "As we may think" (24). Ce texte, contemporain des recherches qui conduiront à la première cybernétique et à la création du premier ordinateur, est tout entier une projection dans la potentialité d'un devenir des modes d'accès aux connaissances. Les premières lignes de cet article méritent vraiment d'être rappelées : "Imaginons un appareil de l'avenir à usage individuel, une sorte de classeur et de bibliothèque personnels et mécaniques. Il lui faut un nom et créons-en un au hasard. "Memex" fera l'affaire. Un memex, c'est un appareil dans lequel une personne stocke tous ses livres, ses archives et sa correspondance, et qui est mécanisé de façon à permettre la consultation à une vitesse énorme et avec une grande souplesse. Il s'agit d'un supplément agrandi et intime de sa mémoire.

Cet appareil se compose d'un bureau et bien que l'on puisse présumer le faire fonctionner à distance, c'est surtout le meuble où l'on travaille. Sur le dessus, on trouve des écrans translucides inclinés sur lesquels des documents peuvent être projetés pour une lecture confortable. On y trouve un clavier et plusieurs ensembles de boutons et de leviers. Autrement, on dirait un bureau ordinaire."

La première chose à souligner est certainement la façon dont d'emblée, le Memex est présenté comme une machine dont l'usage est par nature individuel. Le Mundaneum d'Otlet a disparu comme établissement institutionnel. Il est remplacé par le bureau personnel du chercheur - en fait, le bureau de tout un chacun, ou plutôt il recule derrière le bureau conçu comme terminal, et se transforme en espace de stockage plus ou moins privé, plus ou moins partageable. Instrument individuel, personnel, le Memex est identifié comme une extension de la mémoire, une prothèse où vont pouvoir être stockés à la fois des éléments d'ordre personnel et intime et des éléments d'ordre général et public.

La seconde est que le Memex n'est pas seulement un récepteur d'information, mais un moyen de stocker des contenus à volonté. L'utilisateur est à la fois un usager et un producteur d'information, il est à la fois destinataire et émetteur, et les informations ne sont plus hiérarchisées.

Et cela nous conduit au troisième élément caractéristique du Memex, le classement qu'on pourrait dire horizontal, "par association" dit Vannevar Bush, qui permet de constituer à volonté des liaisons rassemblant en une entité flexible n'importe quel document en fonction de n'importe quel critère que l'utilisateur trouvera utile, de sorte qu'un document pourra en appeler un ou plusieurs autres. Vannevar Bush précise son idée de la façon suivante :
"Une étape s'avère indispensable au classement par association, dont le principe reposerait sur un système permettant à tout article d'en sélectionner immédiatement et automatiquement un autre. C'est ce processus reliant deux articles l'un à l'autre qui caractérise le memex.
Quand l'utilisateur construit une piste, il lui donne d'abord un nom, qu'il note dans son manuel des codes avant de le composer sur son clavier. Devant lui, les deux documents à assembler sont projetés sur des écrans voisins. En bas de chacun, on peut voir un certain nombre d'espaces destinés à recevoir le code, et un curseur est prêt à indiquer l'un d'eux sur chaque document. L'utilisateur n'a plus qu'à appuyer sur une touche pour que les articles se trouvent définitivement rassemblés...
Ainsi, à tout moment, quand l'un de ces documents est visible, l'autre peut être rappelé instantanément en pressant une touche sous l'espace du code correspondant. En outre, il est possible de les consulter tour à tour, plus ou moins rapidement, en actionnant un levier tout comme celui qui permet de faire défiler les pages d'un livre. C'est exactement comme si on avait rassemblé les documents réels pour faire un nouveau livre, en mieux car chaque article est relié à une multitude de pistes."
Et il ajoute plus loin :"Des formes entièrement nouvelles d'encyclopédies vont apparaître, prêtes à l'emploi avec un réseau de pistes fonctionnant par association les traversant, prêtes à être insérées et amplifiées dans le memex."

Ici, l'encyclopédie comme ouvrage édité sous la forme d'un livre, ou plus généralement comme rassemblement de documents réunis dans un corps particulier, éclate au profit d'un dispositif de circulation des données. La fonction du stockage est toujours présente, et il reste derrière la machine Memex la réalité d'une bibliothèque, serait-elle dupliquée sous la forme de microfilms. Mais le stock tend à devenir second par rapport au modèle de la circulation des documents, et le mode d'existence du document est déjà la copie.

C'est bien évidemment sous les concepts d'hyperlien, d'hypertexte et d'hypermédia, créés par Ted Nelson dans les années soixante, que l'idée de classement par association de Vannevar Bush trouve sa formulation théorique et ce n'est que bien plus tard et lentement, avec le développement de la micro informatique, le développement d'un système d'interface graphique qui réintroduit métaphoriquement l'idée du bureau et la mise en service de logiciels comme hypercard (1987) qu'il voit le commencement de sa concrétisation. Mais les concepts de Ted Nelson ne s'inscrivent déjà plus dans les limites d'une machine individuelle, ils sont indissociable d'un fonctionnement en réseau que le projet Xanadu, énoncé dès 1965, va exprimer sous la forme de 17 règles destinées à le régir. Ce qui constitue Xanadu, ce n'est plus un centre de stockage ou une bibliothèque, ce n'est plus non plus une machine considérée comme une prothèse, c'est un mode de fonctionnement assurant l'architecture de la circulation des données entre serveurs et utilisateurs, c'est un réseau de services assurant l'accessibilité permanente des stocks qui sont eux-mêmes des données dupliquées et enrichies par chacun. Voici les 17 règles qui constituent en tant que telles l'énoncé du projet Xanadu :
"1.    Chaque serveur Xanadu est unique et sécurisé.
2.    Chaque serveur Xanadu peut être mis en service séparément ou en réseau.
3.    Chaque utilisateur est unique et identifié.
4.    Chaque utilisateur peut rechercher, récupérer, créer et stocker des documents.
5.    Chaque document peut consister en un nombre quelconque de parts donc chaque élément peut être constitué de quelque genre que ce soit.
6.    Chaque document peut contenir des liens de tous types, voire de copies virtuelles ("transclusions") d'un autre document accessible par son propriétaire.
7.    Les liens sont visibles et peuvent être suivis depuis les deux extrémités.
8.    La permission de lier vers un document est explicitement garantie par l'acte de publication même.
9.    Chaque document peut contenir un mécanisme de rétribution, à un degré quelconque de granularité, pour assurer le paiement de chaque portion accédée, en incluant les copies virtuelles («transclusions») de tout ou partie d'un document.
10.    Chaque document est identifié, unique et sécurisé.
11.    Chaque document peut avoir des règles d'accès sécurisés.
12.    Chaque document peut rapidement être recherché, stocké et récupéré sans que l'utilisateur ne sache où il est physiquement situé.
13.    Chaque document est automatiquement enregistré sur un moyen de stockage approprié vis-à-vis de sa fréquence d'accès depuis n'importe quel point de consultation.
14.    Chaque document est automatiquement enregistré de façon redondante, pour maintenir sa disponibilité même en cas de désastre.
15.    Chaque fournisseur de service XANADU peut facturer à sa discrétion ses utilisateurs pour le stockage, la récupération, et la publication de documents.
16.    Chaque transaction est sécurisée et reste perceptible seulement par les parties l'effectuant.
17.    Le protocole de communication client-serveur XANADU est un standard librement publié. Le développement et l'intégration de tierces parties sont encouragés.

De fait, la problématique s'est profondément transformée. Ce que détermine le projet Xanadu, ce n'est plus vraiment une machine au sens traditionnel du terme, mais une modalité machinique autoconstituante dans laquelle une sphère de circulation se met en place comme entité spécifique. Xanadu suppose le réseau des machines à partir duquel il dessine une sphère de flux qui ne se réduit pas à la somme des échanges, mais qui s'affirme comme un processus de production de savoir. Ce qui est définit de cette façon, c'est un protocole dont l'existence n'est plus spatialement délimitée, mais fonctionnellement généré. C'est le projet, au delà de l'hypertexte et de l'hypermédia, de ce que j'appellerais l'hypermachine.

Jean-Pierre Balpe, projette, au delà du prolongement prothétique de la mémoire, le concept de ce qu'il appelle l'hypermonde, dont il pourra dire : "Ce qui est alors en jeu ce sont les problèmes du sens dans l’hypermonde : un monde d’objets de toute nature informative interconnectés, porteurs d’une information dynamique, mouvante et toujours totalement accessible en chacun de ses points. Chacun y est producteur d’information, producteur passif (inconscient) mais aussi actif (conscient et en mesure d’influer sur les informations produites en dehors de lui) et, comme dans les surgénérateurs nucléaires, ces informations sont sans cesse réactivées, réactivables, surgénérées par les contextes qui les englobent. Ce qui n’est pas sans poser quantité de problèmes techniques : liberté-contrôle, autorité-indépendance, associativité-unicité, automatismes-maîtrise, actions-interactions, contextualisation-décontextualisation, adaptativité-intégrité, etc. Il va donc désormais falloir apprendre à penser à la fois le mobile, le flou, l’incertain, le proche et le lointain." (25)

9 - Or ce que Jean-Pierre Balpe décrit de cette façon correspond assez bien à certains aspects de ce que Tim O'Reilly a appelé, avec le succès que l'on sait, le web 2.0 (26) et dont des sites comme wikipédia (ou You Tube, Flickr, del.icio.us, mais aussi Google, EBay, Amazon,etc.) sont exemplaires, c'est à dire une conception du web comme plate-forme, dans laquelle ce ne sont plus les logiciels et les fournisseurs de programmes mais les contenus, les données et leurs utilisations qui deviennent centraux, où ce sont les formes participatives et collaboratives qui deviennent motrices : "Les liens hypertextes sont le fondement du web. Au fur et à mesure que les utilisateurs ajoutent des contenus, celui-ci est intégré à la structure du web par d'autres utilisateurs qui les découvrent et placent des liens vers ceux-ci. Telles des synapses formant un cerveau où les associations se renforcent à force de répétitions et d'intensité, les connections au sein du web se multiplient organiquement à la mesure que leur dicte l'activité de l'ensemble des utilisateurs".

Mais utiliser la métaphore du cerveau pour rendre compte du fonctionnement du Web ne signifie pas que le Web soit un prolongement du cerveau. Bien au contraire, c'est insister sur la façon dont se constituent, sur la base de protocoles spécifiques, des entités dont le fonctionnement s'autonomise. Nous sommes plutôt devant une transformation du milieu, l'émergence d'un environnement dans lequel les modalités de notre rapport au savoir, et plus généralement de notre rapport à l'espace et au temps se trouve profondément modifiées. L'anthropologue André Leroi-Gourhan écrivait il y a presque cinquante ans que "Le fait humain par excellence est peut-être moins la création de l'outil que la domestication du temps et de l'espace, c'est-à dire la création d'un temps et d'un espace humains" (27). C'est bien devant un moment de cette création que nous sommes, et c'est bien ce que suggère la notion d'hypermonde telle que Jean-Pierre Balpe l'ennonce. Simplement, nous nous trouvons devant un milieu qui a perdu sa capacité à s'aligner sagement sur le plan régulier et homogène d'un espace passivement objectal, tranquillement ramené à la neutralité continue du même, objectivé dans l'homogénéité d'un plan. La métaphore du cerveau a au moins l'avantage de nous poser la question de ce qui se joue de dynamique dans une métastructure qui tend à se développer comme une totalité organique et multidimensionnelle.

C'est certainement une part de ce qui a animé l'imaginaire investi dans la figure du cyberespace, dont il ne faut pas oublier qu'elle est d'abord issue des romans de William Gibson. Mais c'est aussi l'une des raisons pour lesquelles le livre de Frances Yates a rencontré un tel écho dans le milieu des créateurs qui étaient confrontés à l'émergence des nouveaux médias électroniques et numériques, la vidéo, bien sûr, et les hypermédias en général. En témoignent certains textes de Bill Viola, évoqués par Anne Marie Duguet dans la présentation du travail qu'elle a initié sous le titre générique d'Anarchive, sur la mémoire de l'art vidéo (28).
"Dans un texte de 1982 « Y-aura-t-il copropriété dans l’espace des données ? » («Will there be a condominium in data space ?») Bill Viola commentant les anciens systèmes de mémoire (Yates, 1975), remarque qu’ils « présupposent l’existence d’un lieu, ou réel ou graphique, qui possède ses propres structures et architecture » (...) d’ « un espace entier, qui existe déjà dans sa totalité». Il introduit alors la notion de holisme pour caractériser ces nouveaux espaces de données : « L’ordinateur numérique et la technologie software sont holistiques : ils se pensent en termes de structure globale. » Evoquant différents principes d’organisation des données dans le vidéodisque numérique, il préfère à la structure arborescente, la structure « matrice », grille non linéaire d’information permettant au spectateur d’ « entrer n’importe où, aller dans n’importe quelle direction, à n’importe quelle vitesse, partir et revenir n’importe où. » Ainsi « le spectacle devient l’exploration d’un territoire, le voyage dans un espace de données. Nous nous déplaçons dans un espace d’idées, dans un monde de pensées et d’images telles qu’elles existent dans le cerveau et non pas sur les plans d’un urbaniste. Avec l’intégration des images et de la vidéo dans le domaine de la logique informatique, nous entreprenons la tâche de dresser la carte des structures conceptuelles de notre cerveau d’après la technologie ». (Viola, 1988)"

Encore Viola pense-t-il d'abord aux formes relativement close que constituent à cette époque les CD-Rom. Et c'est encore le cas de Chris Marker présentant Immemory (1997), cette tentative de cinéaste pour explorer le post-cinéma dans une oeuvre hypermédia. Là encore s'exprime l'idée que la mémoire doit se penser "en terme de géographie".
"Mon hypothèse de travail était que toute mémoire un peu longue est plus structurée qu'il ne semble. Que des photos prises apparemment par hasard, des cartes postales choisies selon l'humeur du moment, à partir d'une certaine quantité commencent à dessiner un itinéraire, à cartographier le pays imaginaire qui s'étend au dedans de nous. En le parcourant systématiquement j'étais sûr de découvrir que l'apparent désordre de mon imagerie cachait un plan, comme dans les histoires de pirates. Et l'objet de ce disque serait de présenter la "visite guidée" d'une mémoire, en même temps que de proposer au visiteur sa propre navigation aléatoire. Bienvenue donc dans "Mémoire, terre de contrastes" - ou plutôt, comme j'ai choisi de l'appeler, Immémoire : Immemory."
Et il ajoute plus loin : "La structure d'Immemory ? Difficile pour un explorateur de dresser la carte d'un territoire en même temps qu'il le découvre... Je ne peux guère que montrer quelques outils d'exploration, ma boussole, mes lorgnettes, ma provision d'eau potable. En fait de boussole, je suis allé chercher mes repères assez loin dans l'histoire. Curieusement, ce n'est pas le passé immédiat qui nous propose des modèles de ce que pourrait être la navigation informatique sur le thème de la mémoire. Il est trop dominé par l'arrogance du récit classique et le positivisme de la biologie. "L'Art de la Mémoire" est en revanche une très ancienne discipline, tombée (c'est un comble) dans l'oubli à mesure que le divorce entre physiologie et psychologie se consommait. Certains auteurs anciens avaient des méandres de l'esprit une vision plus fonctionnelle, et c'est Filipo Gesualdo, dans sa Plutosofia (1592), qui propose une image de la Mémoire en termes d'"arborescence" parfaitement logicielle, si j'ose cet adjectif (je l'ose). Mais la meilleure description du contenu d'un projet informatique comme celui que je prépare, je l'ai trouvée chez Robert Hooke (l'homme qui a pressenti, avant Newton, les lois de la gravitation, 1635-1702) :
"Je vais maintenant construire un modèle mécanique de représentation sensible de la Mémoire. Je supposerai qu'il y a un certain endroit ou point dans le Cerveau de l'Homme où l'Ame a son siège principal. En ce qui concerne la position précise de ce point, je n'en dirai rien présentement et je ne postulerai aujourd'hui qu'une chose, à savoir qu'un tel lieu existe où toutes les impressions faites par les sens sont transmises et accueillies pour contemplation ; et de plus que ces impressions ne sont que des mouvements de particules et de Corps."
Autrement dit, lorsque je proposais de transférer les régions de la Mémoire en termes géographiques plutôt qu'historiques, je renouais sans le savoir avec une conception familière à certains esprits du 17e siècle, et totalement étrangère à ceux du 20e siècle."

Ce à quoi renvoie cette géographie, ce n'est pas tant à une spatialité constitutive de l'espace algorithmique qu'à une topologie générée par la pratique même de la navigation, une spatialisation générative fondée sur le mouvement spécifique des trajectoires et des stratégies de recherche et d'échanges. En 1996, et toujours sur la base de la forme transitoire que représente le CD-Rom, qui sera vite dépassée par le développement des pratiques en réseau et définitivement liquidée par le Web 2.0, c'est bien ce qu'évoque Louise Merzeau (29) : "Objet paradoxal, l’hypermédia fonctionne sur le double principe d’une topologie navigationnelle et d’une déspatialisation de l’information (Lévy 1990 et 1995). Dans le livre, la position de chaque item dans l’ordre séquentiel du texte est toujours prioritaire par rapport aux instructions de renvoi. Dans l’hyperdocument, la séquence n’est au contraire que le produit d’un agencement particulier de pointeurs (Lebrave 1994). Le CD-Rom ne se prête donc ni à une lecture continue, ni à un balayage en diagonal, ni même à un accès direct et sélectif : il appelle un cheminement discontinu, où le navigateur saute de proche en proche, dans un système de voisinage sans vis-à-vis. "..."La page-écran n’est pas une grille, mais un viseur où passent des configurations de noeuds et de liens en perpétuelle métamorphose. Dans ce diaphragme, textes, images et sons se rapprochent et s’éloignent selon tous les degrés possibles de juxtaposition, d’incrustation, de superposition et de transition. A la page comme repère élémentaire d’inscription mémorielle, se substitue donc une dynamique interstitielle qui défie toute cartographie. Loin de se limiter à des difficultés de manipulation, ces problèmes d’orientation ont bien pour enjeu l’élaboration d’une mémoire propre à l’hypermédia. Car mémoriser, c’est cartographier le savoir, en le réduisant à une échelle et à un jeu de différences qui permettront de s’orienter dans le passé qu’est la pensée (Stiegler 1994)."

Et très logiquement, Louise Merzeau fait la relation avec les Arts de la mémoire, tout en essayant de prendre ses distances avec le modèle qu'ils proposent : "On a souvent suggéré que cette organisation du savoir en parcours virtuels réactiverait la technique antique des palais de mémoire, progressivement abandonnée au profit des processus mémoriels liés à l’imprimé (Lebrave 1994). De fait, navigation électronique et méthode des lieux semblent relever d’une même topologie du sens, où l’inscription des données est régie par des rapports de proximité, et la connaissance régénérée par une circulation en réseau. Dans les deux cas, l’accès au savoir passe par une immersion dans une architecture mentale, où sont stockées des images fonctionnant comme indices de récupération de blocs d’information.
Mais si dans les arts de la mémoire, la connaissance procède de sa spatialisation, dans les hypermédias, elle naît plutôt de la virtualisation de l’espace simulé, autrement dit de sa mise en question. La visite virtuelle ne produit en effet du sens que lorsque le navigateur s’en extrait, pour activer les liens hypertextuels où la topographie vole en éclats. Qu’on la définisse comme une structure qui relie ou comme une différence qui engendre une différence (Bateson 1977), l’information ne se construit pas dans la linéarité du parcours, mais dans les décrochages qui visent à la problématiser. Aussi fiable et intense que puisse être la simulation d’une architecture, elle ne peut donc être le moteur d’une organisation mémorielle à long terme, qui nécessite l’inscription dynamique des connexions informationnelles. La visite virtuelle met davantage en œuvre une mémoire à court terme, dont la fonction est de stocker temporairement des indices pour les assembler en un nouvel arrangement (Lieury 1993). Pour passer d’une salle à une autre ou pour tourner autour d’un objet, le visiteur doit mémoriser quelques repères, mais il doit aussi les oublier dès que se présente une autre configuration. La mémoire à long terme exige en revanche une élaboration, qui inscrive l’information cible dans un réseau durable d’associations, d’autant plus performant qu’il sera complexe."

Ce qui est frappant dans cette analyse, c'est la façon dont elle reste, à ce moment là, c'est à dire dans les années 90, rivée sur l'horizon limité que nous propose la situation d'une "visite", ou d'une circulation hypertextuelle dans une organisation préalablement constituée de données qui continuent d'être pensées de façon statique. Le fait architectural est alors celui du CD-Rom, qui reste un support relativement figé, stockant une information définie et structurée. Simplement la structure du stockage de l'information n'est pas perceptible dans le mouvement de la lecture et n'est pas susceptible de l'être sans la couche ajoutée de l'interface de navigation. La question est du coup de penser l'articulation entre les deux niveaux de l'organisation arborescente des informations d'une part et de la navigation, avec ses décrochages et ses effets de surface d'autre part. Et c'est effectivement tout à fait autre chose qui se joue quand on bascule entièrement sur le réseau et que c'est en ligne que se construisent les contenus, comme des masses elles-mêmes mouvantes de textes, d'images, de sons. D'une certaine façon c'est bien ce que réalise le Web 2.0. La circulation n'est plus d'abord celle de la visite, de la navigation de celui qui continuait d'être pensé comme un lecteur, elle est celle des données elles-mêmes qui se définissent dans le mouvement de l'échange. Et ce que mobilise cette circulation, ce sont des sphères d'interactions qui tendent à se constituer comme les support de communautés. Alors, ces espaces extérieurs dont parle Viola prennent-ils une tout autre réalité. Ils sont bien des totalités, mais des totalités par définition inachevées et mouvantes, des totalités qui n'existent que comme des objets temporels. Ce qu'on appelle les sites sociaux, avec le côté horripilant des effets de modes auxquels ils donnent lieu et encore davantage des stratégies de concentration commerciale et de contrôle des comportements qu'ils autorisent, en sont aussi les manifestations.

Clairement, ces transformations entraînent une série d'interrogations, des interrogations qui naissent de la façon dont des césures jusqu'alors relativement lisibles sont troublées. Jean-Pierre Balpe nous en donnait tout à l'heure quelques exemples. L'une des frontières qui se voit la plus évidemment brouillée est celle qui pouvait distinguer la mémoire individuelle et la mémoire collective, ou d'une façon très différente bien sûr, la mémoire publique constituée par un savoir organisé et validé et la mémoire privée et subjective qui rendait compte des modalités singulières de réappropriation ou d'invention de ces connaissances. Une autre tient aux modes de production et de validation des connaissances. Une autre encore, qui leur est immédiatement liée est celle des formes de leur appropriation et de leur partage. Ces questions là ne sont pas tout à fait nouvelles, mais elles prennent une autre dimension, une ampleur et une forme sociale d'existence qui en modifie profondément le sens.

L'un des exemples qu'on peut évoquer est celui, devenu classique, des modalités de développement des logiciels libres, telles qu'elles ont été par exemple exprimées par Eric Raymond dans le célèbre texte dans lequel il développe métaphoriquement l'opposition entre la cathédrale et le bazar (30). Le texte, qui s'appuie principalement sur l'exemple de l'élaboration par coopération de Linux et qui l'oppose aux processus centralisés et hiérarchisés des industries classiques, a une portée bien plus large, que les termes choisis pour exprimer métaphoriquement les deux logiques de fonctionnement, avec ce qu'elles impliquent d'une logique économique aussi bien que sociétale restituent de façon significative. Il écrivait par exemple : "Le style de développement de Linus Torvalds - distribuez vite et souvent, déléguez tout ce que vous pouvez déléguer, soyez ouvert jusqu’à la promiscuité - est venu comme une surprise. À l’opposé de la construction de cathédrales, silencieuse et pleine de vénération, la communauté Linux paraissait plutôt ressembler à un bazar, grouillant de rituels et d’approches différentes (très justement symbolisé par les sites d’archives de Linux, qui acceptaient des contributions de n’importe qui) à partir duquel un système stable et cohérent ne pourrait apparemment émerger que par une succession de miracles."

Je ne développerai pas ici les questions engagées par les logiciels libres, ce qu'ils impliquent du point de vue de la propriété intellectuelle, ce qu'ils éclairent des enjeux devenus déterminants de la place du savoir dans la société capitaliste aujourd'hui (31). Mais c'est bien le figure du bazar que reprend wikipédia, et c'est bien par là qu'elle se constitue comme un contre modèle qui s'oppose aux contrôles exercés sur la circulation de la connaissance par les grandes firmes ou à des projets éditoriaux dominés par les intérêts financier d'entreprises et propose un mode distribué de production de la connaissance contre un modèle centralisé de rédaction. Dans le processus classique de publication d'articles de nature scientifique, la garantie de la qualité et de la crédibilité des contenus est obtenu par la reconnaissance institutionnelle des contributeurs en fonction de leurs diplômes, de leurs fonctions et de leurs statuts, puis par le passage des articles par un comité de lecture qui vise à valider les contenus comme la forme donnée au savoir. Comme l'écrit Julien Levrel dans la thèse qu'il lui consacre : "Le projet Wikipedia ne s'interpose pas en tant que concurrent direct de cette formalisation du savoir, mais en tant qu'alternative active de ceux qui ont été trop vite caractérisés comme lecteurs. Une des clés interprétatives majeures de l'ensemble du projet demeure la potentialité des lecteurs à devenir des auteurs, exacerbant leur intérêt à participer, notamment par la correction d'erreurs ou l'apport de connaissance à une thématique. En ce sens, les contenus de l'encyclopédie Wikipedia ne sont pas validés, mais surveillés. Aucune garantie n'est apportée quant aux contenus disponibles. En perpétuelle évolution et co-construction, la valeur de l'article ne s'acquiert, à l'oeil du lecteur, qu'après une démarche personnelle, critique et réflexive de mobilisation de traces de construction. Cette démarche réflexive abolit dans certains cas et dans certaines configurations personnelles, la frontière entre lecteur et auteur." (32)

Et c'est aussi cette logique qui donne au projet encyclopédique son caractère ouvert et indéfini quant à l'horizon des informations traitées ou abordables, aussi large que la diversité des intérêts des internautes sur le réseau, donc potentiellement infinie. C'est évidemment elle qui génère sa temporalité propre de construction permanente, un processus composite d'éléments susceptibles d'être toujours corrigés, complétés, développés, une temporalité fractionnée, composée, démultipliée par la possibilité d'accéder, pour chacun des items, à l'historique particulier de ses états successifs et des discussions auxquelles il aura pu donner lieu. Wikipédia manifeste ainsi clairement le passage entre le mode monumental d'une mémoire arrêtée, fixée, image projetée d'un moment du savoir, serait-elle accompagnée du projet de la perspective historique d'une série de "mises à jour" successives, à une mémoire en mouvement, coopérative et constamment réajustée. Une mémoire qui se nourrit du processus immanent de sa propre génération.

Julien Levrel reprend à propos de la communauté des contributeurs à Wikipedia l'expression de communauté distante, proposée par Didier Demazière, François Horn et Nicolas Jullien dans une étude de 2004 (33). Ces communautés se caractérisent par la grande hétérogénéité des statuts de leurs membres et le développement de formes de coopération qui ne supposent ni organisation commune, ni organigramme. C'est même cela qui contribue à la constituer comme communauté, régie par un principe d'échange, des règles de fonctionnement et de "politesse", des modalités d'organisation des discussions et de la gestion des conflits. On a beaucoup insisté sur le rapprochement entre ces communautés distantes et la communauté scientifique, universitaire. C'est ce que fait Pekka Himanen dans L'éthique hacker, c'est aussi ce que fait Julien Levrel. Mais les communautés du "libre" ne sont pas assujetties au critère d'appartenance à l'université ou à une institution scientifique, à la reconnaissance statutaire des compétences, elles sont ouvertes, fondées pragmatiquement sur la réalité des contributions, diversement hiérarchisées selon les situations et la particularité des histoires. La communauté scientifique repose à la fois sur l'existence d'institutions universitaires et sur un modèle de la connaissance scientifique. Elles participent d'une certaine façon au modèle de la cathédrale. Les communautés du libre, dans leur grande diversité, reposent sur des protocoles d'échanges non sélectifs et participent davantage de la figure du bazar.

Mais la figure des "communautés distantes" ne suffit certainement pas à rendre compte de l'intégralité de ce qui se joue dans l'immanence de la mémoire flux. La façon même dont elle abonde dans l'image simple, et souvent simpliste, de la déspatialisation ne peut manquer d'être problématique et de donner lieu à toute une série de paradoxes - pour le moins à l'économie de ce qui se joue dans la relation à l'espace concret. Or la circulation des flux ne se conçoit pas elle-même en dehors d'un rapport à l'espace, elle induit une géographie qui ne peut manquer de jouer avec la géographie de l'espace vécu, arpenté, habité. On peut même penser que c'est dans cette articulation, dans la multiplicité des modes de l'interpénétration entre espace virtuel et espace réel que se manifestent beaucoup des enjeux à la fois politiques et esthétiques de notre époque. Et ce n'est pas vraiment un hasard si tant de projets, en particulier sur le terrain de l'art, viennent aujourd'hui y converger. (34)

Je me contenterai ici d'évoquer rapidement la démarche de Federico Casalegno à propos de ce qu'il appelle une "approche écologique de la mémoire" (35). Cette démarche s'est développée dans la mise en oeuvre d'un projet appelé "Living memory", conçu comme un système de production d'une mémoire liée à un territoire particulier et à la population qui y vit : "..nous nous trouvons en face d’un système de communication ouvert, qui vibre et vit grâce à l’apport des personnes et qui accompagne l’existence ordinaire, dans les aléas imprécis du vécu social, aidant les membres d’une communauté dans leur conquête du présent ." Or ce qui m'intéresse dans ce projet, c'est la façon dont il aborde l'espace concret : "Ici, écrit-il, le territoire devient un tissu connectif, une interface de mémoire entre les hommes et les sociétés" et le réseau devient un mode de l'engrammation du territoire.

A la différence de l'espace mental des Arts de la mémoire, les lieux et des images de mémoire ne sont plus alors individuels et intransmissibles, mais ils sont objectivés dans des espaces opératoires et interactifs. Ils ne sont pas à proprement parler communs, ou collectifs, parce qu'ils ne prennent sens que dans les dérives, les navigations, les explorations que chacun développe et qui sont largement personnels. Ou encore, ici, le commun n'est pas ce qui est identique pour tous, mais ce qu'il est donné à tous de parcourir, ce qui n'existe pas en dehors des modes de circulations dans le réseau. Et Federico Casalegno choisit significativement de parler à propos de son expérience et de sa relation à la population réelle, telle qu'elle est concernée par son dispositif d'interfaces dispersées sur le territoire, de communautés fractales.

La question posée par la "wikimémoire" n'est pas alors à proprement parler celle de la vitesse, ni même celle de la fragmentation. La "vitesse", ou ce qui est souvent dit et vécu comme de la vitesse, n'est ici que le mode temporel d'existence des "objets" constitués par et dans l'interaction, ou si l'on préfère, le temps réel. Il en est en quelque sorte comme pour pour les pièces interactives, qui n'existent effectivement que dans l'usage qu'on en fait, que dans la mesure où on les active. Dans la bibliothèque, le livre fait oeuvre, serait-il en attente d'être lu. La bibliothèque est encore un "objet", ou une collection d'objets qui coexistent. Le réseau n'existe qu'en terme de flux et de mouvements, il ne consiste pas dans la coprésence l'objets réunis dans le même endroit, et l'existence des serveurs ne suffit pas à en constituer l'équivalent. La fragmentation renvoie encore trop à l'idée d'une cohérence brisée, d'un ensemble réduit à l'éclatement de ses éléments. La difficulté réside certainement dans l'idée que cette mémoire n'est plus fixe mais mobile ou mouvante. Mais, d'une certaine façon, c'est bien le fait de toute mémoire, même celles qui se fondent sur un stock fixé. Ce dont il est question, c'est d'un autre mode d'existence des objets du savoir et d'une autre façon de circuler parmi eux. Dans le texte auquel je faisais plus avant référence, Jean-Pierre Balpe décrit les pratiques d'écriture en réseau dans des termes qui peuvent être largement repris ici : "Douglas Hofstadter, dans Ma Thémagie (Paris, Interéditions, 1988) fait à ce sujet remarquer que tout mode d’écriture, tout dispositif d’archive qui favorise « l’établissement de connexions par la bande, sans rien devoir à la causalité », qui rend plus manifeste, pour chaque idée énoncée, chaque proposition narrative formulée, le fait d’être « entourées d’un amas, d’un halo de variantes d’elles-mêmes, qui peuvent être suggérées par le glissement (la traduction) d’un quelconque des innombrables traits qui les caractérisent », et qui est au centre de la notion de pensée, tout dispositif de ce type peut aujourd’hui être exploré, expérimenté . Cela est d’autant plus important que cette possibilité technique change, transforme, les rapports de vitesse et de lenteur tout le long des échelles des pratiques d’écriture et lecture, ainsi que des pratiques cognitives : écrire au temps des hypermédias n’est plus écrire au temps du livre triomphant et ce mode « d’écriture » — que je préfère à ce niveau désigner sous le terme plus large « d’engrammation » — reste pour nous en grande partie à inventer."

Jean Cristofol, 2008-2009


notes
1 Accélération, JRP/Ringier, 2007.
2 Raphaël Bessis, Dialogue avec Marc Augé autour d'une anthropologie de la mondialisation, L'Harmattan, 2004.
3 Ce colloque a été organisé par Avatar, dans le cadre du Mois Multi, à Québec, en février 2008.
3 Milan Kundera, La lenteur, Gallimard, 1995.
4 Frances Yates, L'art de la mémoire, NRF Gallimard, 1975.
5 Jacques Roubaud, L'invention du fils de Leoprepes, Poésie et mémoire, Circé, 1993.
6 Selon la traduction proposée par Frances Yates.
7 Roubaud, pp. 30 - 31
8 Yates, pp. 58 - 60
9 Roubaud, p. 21
10 Roubaud, p. 31
11 Roubaud, p. 32
12 Michel Serres, Atlas, Champs Flammarion, 1996, p. 18
13 François Dagognet, Une épistémologie de l'espace concret, Vrin.
14 André Leroi-Gourhan, Technique et Langage, Chapitre 2.
Il écrit par exemple : "Tout le monde animal, dés ses débuts, s'est réparti dans un nombre relativement limité de types fonctionnels, le choix se faisant, avec des compromis, entre l'immobilité et le mouvement, entre la symétrie radiale et la symétrie bilatérale. Du point de vue de la "réussite biologique" l'une et l'autre voie on conduit vers des buts aussi brillants…Les gagnants de cette course interminable, la méduse et l'homme, marquent les deux bornes extrêmes de l'adaptation, entre eux se situent les millions d'espèces qui fournissent le buisson de la généalogie terrestre"
15 "..Il y a, dans la vie sociale, une option biologique fondamentale au même titre que dans la symétrie bilatérale par opposition à la symétrie radiale, ou que dans la spécialisation du membre antérieur pour la préhension." (TL chapitre V, l'organisme social)
16 Roubaud, p. 51.
17 Yates, p 151.
18 Roubaud, pp. 49 - 50.
19 Roubaud, p. 47.
20 Diderot, article encyclopédie.
21 D'Alembert, Discours préliminaire à l'Encyclopédie.
22 Sur Paul Otlet, on peut consulter : http://savoirscdi.cndp.fr/culturepro/biographie/otlet/otlet.htm
23 http://www.mundaneum.be/
24 lucdall.free.fr/workshops/IAV07/documents/memex_vannevar_bush.pdf
25 http://hyperfiction.blogs.liberation.fr/hyperfiction/2007/10/des-hypertextes.html
26 Tim O'Reilly, Qu'est-ce que le web 2.0 ? Par exemple : http://www.internetactu.net/2006/04/21/quest-ce-que-le-web-20-modeles-de-conception-et-daffaires-pour-la-prochaine-generation-de-logiciels/
27 Dans la "La mémoire et les rythmes", second tome de cette somme que constitue "Le geste et la parole", Albin Michel, 1965.
28 Anne-Marie Duguet, L'art des mémoires numériques de l'art. Pour une "anarchive", www.ichim.org/ichim03/PDF/054C.pdf
29 Louise Merzeau, "L'organisation mémorielle des informations
dans les hypermédias", 10e Congrès National des Sciences de l'Information & de la Communication
Grenoble, 1996.
30 Eric S. Raymond, La cathédrale et le bazar, 1998. http://seddisoft.kelio.org/cathedrale-bazar.htm
31 Je renvoie entre autre à :
Pekka Himanen L'éthique hacker et l'esprit de l'ère de l'information. Exils éditeurs, essais, 2001.
Philippe Aigrain, Cause commune.
Richard M. Stallman : "Logiciel Libre : Liberté et coopération". Université de New-York. 29 Mai 2001.
32 Julien Levrel, Le développement des contenus libres sur Internet - Wikipedia, 2005.
33 Didier Demazière, François Horn et Nicolas Jullien, Le travail des développeurs de logiciels libres, La mobilisation dans des "communautés distantes", 2004.
34 Dans un texte paru en 2002 (Spatialités, temporalités, pensée complexe et logique dialectique moderne, EspacesTemps.net, Textuel), Pascal Buleon écrit :
"La combinaison accrue des échelles spatiales de développement des phénomènes est aussi une caractéristique de la réalité du dernier tiers de ce siècle. L’internationalisation de la sphère économique et financière, le développement exponentiel des transports (route, rail à grande vitesse et avion), la diminution considérable de la distance-temps et la révolution de la transmission des données et des informations à distance (images - flux d’informations -- flux financiers) sont les moteurs de cette combinaison des échelles qui précipite le local au milieu du vaste monde et concentre du mondial en une petite fraction d’un territoire, ville moyenne, campagne banale, frontière oubliée, vallée tranquille. Ce qui est parfois appelé de façon rapide la globalisation est la manifestation de ces processus. Ils sont une combinaison d’échelles spatiales et génèrent en même temps des développements qui se produisent simultanément à des échelles multiples. Nous voici donc face à un aspect important de la réalité contemporaine : des spatialités multiples et des combinaisons de spatialités à différentes échelles qui doivent constituer un terme essentiel de l’approche de la relation société / espace. Cette démarche en appelle immédiatement une autre, la question ne se pose pas seulement en termes de spatialités elle se pose également en termes de temps."
35 Federico Casalegno, Mémoire collective et "existence poétique" en réseau. Élements pour la compréhension des rapports entre nouvelles technologies, communautés et mémoire, Médiation et information, 2001.
36 Jack Goody, Memory in oral tradition, 1998.

plotsème v
Creative Commons. Certains droits réservés
Valid XHTML 1.0 et Valid CSS
2/176101

(cc) plotsème.net