Dessiner le DÉCALCQ, premiers traits

logoLes morceaux (administration, ressources humaines, espaces de travail) tombent tranquillement en place. Ca démarre donc tout aussi tranquillement, mais là, décidément, ça va vers l’avant. Un centre de recherche sur la littérature et la culture au Québec prend conscience de ses fonds documentaires, des outils développés, des stocks de fiches / articles / références / grilles d’analyse entreposés par les chercheurs à Québec, à Montréal, dans des universités participantes. Trouver à saisir ces fonds documentaires, les structurer, les pérenniser, les diffuser. Voilà le (gigantesque) objectif que se fixe le CRILCQ, à travers le projet DÉCALCQ : Dépôt électronique et vitrine de consultation des archives en littérature et culture québécoises. Et je prête mon intérêt pour la technologie et les enjeux de diffusion pour mener la barque.

Le DÉCALCQ constitue le projet central (mais pas unique) du « Laboratoire Ex situ. Études littéraires et technologie », mis en place grâce à une subvention d’infrastructure sur quatre ans. Principale thématique : les outils pour la recherche et la diffusion des savoirs en SHS. Moyens modestes, temps disponible limité (puisqu’en parallèle de recherches sur la littérature contemporaine et la théorie du récit), mais néanmoins : plateforme d’expérimentation, qui se lie à des projets apparentés (NT2, CLÉO, etc.).

Les prochains billets seront l’occasion de lancer les problématiques sensibles interpellées par le projet DÉCALCQ : logiciels de dépôts institutionnels, opposition entre dépôts institutionnels et dépôts thématiques, droit d’auteur et diffusion en ligne, protocoles d’interopérabilité, pérennité du référencement des documents numériques… Le projet est complexe, tentaculaire. Il s’alimente toutefois aux enjeux actuels posés par les politiques d’open-access, par le livre numérique, par les projets de numérisation, par Google Books tiens… Vos suggestions, remarques et encouragements seront les bienvenus!

Share

L'obsolescence de la technologie

Article intéressant (pas tout à fait récent, encore que, relativement parlant…) d’Alexander Stille sur la durée de vie des technologies, notamment celles qui sont liées au stockage et à la diffusion de l’information. Forme de visite guidée d’un laboratoire consacré aux technologies obsolètes, au sein du Department of Special Media Preservation de National Archives (Washington). Quelques observations intéressantes en marge de l’évocation de dinosaures technologiques. D’abord sur le lien intime entre le support et l’information :

One of the great ironies of the information age is that, while the late twentieth century will undoubtedly have recorded more data than any other period in history, it will also almost certainly have lost more information than any previous era.

there appears to be a direct relationship between the newness of technology and its fragility. A librarian at Yale University, Paul Conway, has created a graph going back to ancient Mesopotamia that shows that while the quantity of information being saved has increased exponentially, the durability of media has decreased almost as dramatically.

Sur les conséquences d’une incapacité à composer avec cette obsolescence :

Because of the problems posed by reconstructing obsolete hardware and software, the Archives issued an order that government agencies were free to print out their email onto paper for permanent storage.

Après un exposé assez déroutant sur la masse documentaire générée par le gouvernement américain dans le dernier demi-siècle, Stille rapproche les problèmes de conservation du processus qui fait en sorte que certaines pièces de Sophocle nous soient parvenues (multiplication des copies et valorisation de certains textes par le public => attribution d’une valeur, reconnaissance implicite d’un canon). Il clôture son article par une référence à la Bibliothèque de Babel de Borges, sur le désespoir des bibliothécaires qu’il y dépeint…

La question de la préservation des contenus numériques est critique. Elle se définit néanmoins par des aspects variés : le vieillissement rapide des supports (durée de vie d’un CD vs d’une feuille de papier) et l’obsolescence des technologies elles-mêmes (question hardware) ; la consultation parfois rendue impossible en fonction de conditions difficiles à reproduire (voir l’exemple cité par Stille sur le désalignement des têtes de lecture d’un appareil) ; l’absence d’un sens de la continuité dans l’établissement des logiciels (la non-compatibilité des logiciels d’une génération à l’autre, voire d’une version à l’autre). En ce sens, des travaux sont en cours au NT2 pour tenter de préserver des expériences de navigation d’œuvres hypermédiatiques, à défaut de pouvoir assurer les conditions matérielles et logicielles pour assurer ad vitam æternam leur consultabilité.

Corollairement, il paraît intéressant de voir que Stille appelle le phénomène de la réduplication pour expliquer la survie de la littérature antique (en raison de la nature allographique des œuvres littéraires). C’est pourtant le dada actuel de tous les tenants de l’information numérique : c’est dans la diffusion (et donc dans la multiplication des copies) qu’on assurera la survie des données actuellement disponibles. Pourtant, le défi qui est le nôtre est l’adaptabilité de l’information à une évolution des plateformes logicielles. Quelle solution ? Viser la plus faible détermination logicielle des données ? (d’où l’archivage souvent prôné en .tiff, pour conserver la qualité du document, tabler sur le plus petit dénominateur commun des standards informatiques et diminuer les contraintes éventuelles à la lisibilité du document — comme c’est une image, l’interprétation est réduite au maximum, étant in fine confiée aux yeux du lecteur) Et comment composer avec l’enrichissement des données ? Le métacodage des documents (métadonnées XML) et leur inscription dans l’actuel mouvement de sémantisation des données (RDF, linked-data) seront-ils suffisants flexibles pour assurer la survie de ce travail gigantesque que nous sommes à réaliser ou à planifier ?

La sagesse de tout projet numérique résidera sans nul doute dans la capacité de prendre en charge, voire de prioriser la pérennité de son propre travail.

(photo : « Mac G4 Cube Fish Tank », smalldog)

Share

Do Tags Work? (ou quand l'information nous sort par les oreilles) [MàJ]

2389348226_90048e1dfe_mCathy Marshall, dans le dernier numéro de Tekka (revue d’Eastgate nouvellement accessible gratuitement), témoigne de son investigation à propos de l’utilité réelle des tags. Son texte est empreint de désillusion, malgré une volonté initiale de comprendre le fonctionnement des folksonomies. Les conclusions n’en sont pas moins tranchantes :

What I mean to say is: tags can be a rich source of noise.

Tags are indeed miscellaneous, and that miscellany may make them less than useful.

Le premier réflexe est de vouloir savoir si elle a raison, comment elle se trompe — bouleversée dans ses convictions, ou ne serait-ce que dans sa confiance en l’air du temps, notre lecture conduit naturellement à en faire un enjeu de vérité. C’est pourtant, d’abord et avant tout, un enjeu épistémologique : quel rôle jouent aujourd’hui les contenus populaires ? (ça nous ramène à des questions de valeur autant qu’à des questions d’usage…) quelle leçon tirer de ce mouvement de partage, de cette mise en commun d’une quasi infinité de documents, de références, d’informations qui ne peuvent être traités ? à quoi nous conduit un monde où l’information dépasse, en visibilité, en volume et en valeur (par leur saillance dans la sphère publique), son traitement, son interprétation et sa capacité de signification ?

Si le Web 2.0 est actuellement à l’heure du bilan (financier, pour commencer [src @jafurtado]), c’est à ce fondement cognitif et axiologique de l’information dans notre société qu’il faut s’attarder… alors que le Web 3.0 s’annonce pour être encore plus dans les nuages, il n’est peut-être pas mauvais de s’interroger sur les usages de cette socialisation de l’information (ou, pour le dire plus justement, une socialisation de la donnée) et sur l’arrimage social de la technologie — il semble bien que la société existe encore en dehors d’Internet…

(via Mark Bernstein ; photo : « Tagging : Maldives Style», nattu, licence CC)

[Mise à jour] À mettre en lien, tout à fait dans la même lignée : « J’ai oublié de ne pas me souvenir » (via O.Ertzscheld)

Share

Google retire le projet Palimpsest

Peter Suber relaie l’information que Google met un terme à son projet (jamais vraiment lancé) Palimpsest, visant à héberger de larges quantités de données scientifiques. Google qui retire ses billes ?

« As you know, Google is a company that promotes experimentation with innovative new products and services. At the same time, we have to carefully balance that with ensuring that our resources are used in the most effective possible way to bring maximum value to our users, » wrote Robert Tansley of Google on behalf of the Google Research Datasets team to its internal testers.

Utilisation la plus efficace, viser la plus grande valeur : on parle des usagers ou du chiffre d’affaires de G. ? À l’évidence, la valeur commerciale importe plus que la valeur symbolique rattachée à cet hébergement (et au pouvoir lié à la masse des connaissances).

Share

Colliger et archiver des « Born-Digital Literary Materials » : nous y voilà

draftsMatt Kirschenbaum entame un projet à l’image de ce que l’on souhaitait tous secrètement qu’il advienne : comment gérer, colliger et archiver des documents numériques dans la sphère littéraire… C’est toute la question du brouillon numérique qui est ici envisagée : à la conjonction, donc, de la technologie, de la génétique littéraire et de la médiologie. Il s’attaquera ni plus ni moins aux vieux laptops de Salman Rushdie, à titre de matériau expérimental…

Today nearly all literature is « born digital » in the sense that at some point in its composition, probably very early, the text is entered with a word processor, saved on a hard drive, and takes its place as part of a computer operating system. Often the text is also sent by e-mail to an editor, along with ancillary correspondence. Editors edit electronically, inserting suggestions and revisions and e-mailing the file back to the author to approve. Publishers use electronic typesetting and layout tools, and only at the very end of this process almost arbitrarily and incidentally, one might say is the electronic text of the manuscript (by now the object of countless transmissions and transformations) made into the static material artifact that is a printed book. (Hamlet.doc ?)

Travaux à suivre de près, considérant les énormes besoins auxquels feront face les archivistes et généticiens littéraires dans les prochaines années…

(photo: « did i mention… », gish700, licence CC)

Share