Article intéressant (pas tout à fait récent, encore que, relativement parlant…) d’Alexander Stille sur la durée de vie des technologies, notamment celles qui sont liées au stockage et à la diffusion de l’information. Forme de visite guidée d’un laboratoire consacré aux technologies obsolètes, au sein du Department of Special Media Preservation de National Archives (Washington). Quelques observations intéressantes en marge de l’évocation de dinosaures technologiques. D’abord sur le lien intime entre le support et l’information :
One of the great ironies of the information age is that, while the late twentieth century will undoubtedly have recorded more data than any other period in history, it will also almost certainly have lost more information than any previous era.
there appears to be a direct relationship between the newness of technology and its fragility. A librarian at Yale University, Paul Conway, has created a graph going back to ancient Mesopotamia that shows that while the quantity of information being saved has increased exponentially, the durability of media has decreased almost as dramatically.
Sur les conséquences d’une incapacité à composer avec cette obsolescence :
Because of the problems posed by reconstructing obsolete hardware and software, the Archives issued an order that government agencies were free to print out their email onto paper for permanent storage.
Après un exposé assez déroutant sur la masse documentaire générée par le gouvernement américain dans le dernier demi-siècle, Stille rapproche les problèmes de conservation du processus qui fait en sorte que certaines pièces de Sophocle nous soient parvenues (multiplication des copies et valorisation de certains textes par le public => attribution d’une valeur, reconnaissance implicite d’un canon). Il clôture son article par une référence à la Bibliothèque de Babel de Borges, sur le désespoir des bibliothécaires qu’il y dépeint…
La question de la préservation des contenus numériques est critique. Elle se définit néanmoins par des aspects variés : le vieillissement rapide des supports (durée de vie d’un CD vs d’une feuille de papier) et l’obsolescence des technologies elles-mêmes (question hardware) ; la consultation parfois rendue impossible en fonction de conditions difficiles à reproduire (voir l’exemple cité par Stille sur le désalignement des têtes de lecture d’un appareil) ; l’absence d’un sens de la continuité dans l’établissement des logiciels (la non-compatibilité des logiciels d’une génération à l’autre, voire d’une version à l’autre). En ce sens, des travaux sont en cours au NT2 pour tenter de préserver des expériences de navigation d’œuvres hypermédiatiques, à défaut de pouvoir assurer les conditions matérielles et logicielles pour assurer ad vitam æternam leur consultabilité.
Corollairement, il paraît intéressant de voir que Stille appelle le phénomène de la réduplication pour expliquer la survie de la littérature antique (en raison de la nature allographique des œuvres littéraires). C’est pourtant le dada actuel de tous les tenants de l’information numérique : c’est dans la diffusion (et donc dans la multiplication des copies) qu’on assurera la survie des données actuellement disponibles. Pourtant, le défi qui est le nôtre est l’adaptabilité de l’information à une évolution des plateformes logicielles. Quelle solution ? Viser la plus faible détermination logicielle des données ? (d’où l’archivage souvent prôné en .tiff, pour conserver la qualité du document, tabler sur le plus petit dénominateur commun des standards informatiques et diminuer les contraintes éventuelles à la lisibilité du document — comme c’est une image, l’interprétation est réduite au maximum, étant in fine confiée aux yeux du lecteur) Et comment composer avec l’enrichissement des données ? Le métacodage des documents (métadonnées XML) et leur inscription dans l’actuel mouvement de sémantisation des données (RDF, linked-data) seront-ils suffisants flexibles pour assurer la survie de ce travail gigantesque que nous sommes à réaliser ou à planifier ?
La sagesse de tout projet numérique résidera sans nul doute dans la capacité de prendre en charge, voire de prioriser la pérennité de son propre travail.
(photo : « Mac G4 Cube Fish Tank », smalldog)
discussion dont je me souviens que Jean-Michel Salaun l’avait pointée lors de table ronde Montréal en novembre, et sur laquelle nous avons échangé un bon moment aussi à mon passage au NT2 il y a 2 semaines, notamment sur l’évolution de nos plate-formes de gestion MySql, par exemple après 5 ans suis quasi incapable sortir mon site de son architecture spip, alors que visiblement la communauté qui fait ces plate-formes, plug-ins, évolution, devient progressivement franco-française… et au moment où je mets ça en commentaire, je dénombre au moins 3 disques durs HS dans mon bureau, qui seront jetés à la poubelle bientôt… avec ta photo tu veux nous signifier que la « mémoire de l’eau » pourrait être une solution ? j’avais déjà entendu parler d’anciennes plate-formes pétrolières reprises par Google pour stocker des serveurs naturellement refroidis…
« avec ta photo tu veux nous signifier que la “mémoire de l’eau” pourrait être une solution ? »
bah non, même pas… j’ai toujours bien aimé ce clin d’œil ironique aux vieux Macs (on a fait les premiers Macquariums avec des Macs 128, mais ceux-là sont plus chouettes…).
mais je reste avec l’idée qu’il faut travailler en fonction des plateformes et en fonction d’un mode d’autotraduction des formats qui permette la survie des contenus en dehors de ces plateformes, sinon ce n’est travailler que pour le bref scintillement d’une étoile. suis incapable d’imaginer que le projet de dépôt numérique en littérature et culture québécoises auquel je travaille actuellement meure dans l’implosion d’une série de 0 et de 1 après quelques années de labeur. à quoi bon, si c’est là l’issue d’un travail de préservation de la mémoire ?
Problème passionnant et crucial. Je pense qu’on devrait globaliser la réflexion au lieu de la restreindre à la condition numérique de l’information. Des cris d’alarme tout aussi inquiétants sont lancés par exemple au sujet des encres poudres utilisées pour l’impression laser bon marché, ou de certaines archives d’Ancien Régime qu’on ne sait plus où caser. Les questions matérielles ne sont pas les mêmes, mais la question globale de la conservation est similaire.
Pour ma part, et ça ne te surprendra pas, je trouve que ton article est étrangement muet sur l’architecture politique de la société de l’information numérique. Je ne crois pas du tout que le problème de la pérennité de l’information vienne des supports, de leur nouveauté ou de leur vitesse de rotation. Il me semble que le problème vient de la masse critique de données (ah cette horripilante comparaison avec Babylone!) et de sa gestion politique. Or que se passe-t-il pour nou? Plus on déborde les seuils de gestion intégrée, plus on augmente les masses (l’allusion au chantier du web sémantique est parfaite), et plus on laisse au darwinisme économique libéral le soin de penser et d’administrer le système.
Ton rêve d’autotraduction des formats me semble caractéristique d’un découragement à penser politique…
I.
@Irène : masse critique, bien sûr… L’article de Stille développe en ce sens. Pour ma part, mon attitude est de m’interroger sur l’aplanissement de toute information : à l’ère du tout se vaut sur Google, on a les mêmes a prioris avec nos propres archives, et que dire de celles d’une institution. En se disant : il y a peut-être là quelque chose qui intéressera quelqu’un dans un futur inconnu, aussi bien tout garder. Et l’on se mure avec ces montagnes de données que l’on accumule à propos de tout… C’est pour ça que je reste un peu perplexe devant la montée du web sémantique, fondé non sur des documents, des objets ou des réalités, mais sur des données à mettre en lien : si l’intérêt qui se développe est du côté du lien, il faut que les objets liés soient sous leur forme la plus simple, donc il s’impose de tout conserver (et de tout lier, nous diront les Berners-Lee de cette terre). Mais réussirons-nous à tirer du sens de tout ça? Je crains un peu l’obsession de la donnée (de l’information, de la prétendue connaissance). Je m’éloigne du politique, évidemment… Pour ma part, j’opte pour l’instant me plonger dans un travail qui me permettra d’éprouver cette expérience de la Babylone-data ; les enjeux de gestion m’accompagneront, mais sans en faire mon point d’entrée… on verra si j’aurai eu tort de penser ainsi.
Que non! Tu ne t’éloignes pas du politique, au contraire. Car il s’agit bien de penser les données, en amont de leur conservation. La question n’est pas seulement « comment garder », mais « quoi garder ». Et je te rejoins absolument sur les métadonnées: ce n’est qu’une fuite en avant, à mes yeux. Trois ans de direction d’un centre de télé-enseignement m’ont sacrément instruite: des sommes formidables sont investies dans le référencement des « ressources en ligne », mais pas un sou dans l’évaluation de tout ça (« ressources », plutôt que « cours » ou « leçons », dit déjà cet aplanissement). Du coup, on archive aussi bien un petit topo de méthodo qu’un exercice de phonétique ou qu’un cours fondamental sur l’histoire des transports. C’est d’un triste! Et aux commandes de ce chantier, beaucoup d’ingénieurs, peu de chercheurs, en raison de la difficulté technologique que tu pointais (l’obsolescence des formats). D’où ma réaction. C’est plus qu’un souci de gestion, je pense.
I.