Dessiner le DÉCALCQ, premiers traits

18 octobre 2009

logoLes morceaux (administration, ressources humaines, espaces de travail) tombent tranquillement en place. Ca démarre donc tout aussi tranquillement, mais là, décidément, ça va vers l’avant. Un centre de recherche sur la littérature et la culture au Québec prend conscience de ses fonds documentaires, des outils développés, des stocks de fiches / articles / références / grilles d’analyse entreposés par les chercheurs à Québec, à Montréal, dans des universités participantes. Trouver à saisir ces fonds documentaires, les structurer, les pérenniser, les diffuser. Voilà le (gigantesque) objectif que se fixe le CRILCQ, à travers le projet DÉCALCQ : Dépôt électronique et vitrine de consultation des archives en littérature et culture québécoises. Et je prête mon intérêt pour la technologie et les enjeux de diffusion pour mener la barque.

Le DÉCALCQ constitue le projet central (mais pas unique) du « Laboratoire Ex situ. Études littéraires et technologie », mis en place grâce à une subvention d’infrastructure sur quatre ans. Principale thématique : les outils pour la recherche et la diffusion des savoirs en SHS. Moyens modestes, temps disponible limité (puisqu’en parallèle de recherches sur la littérature contemporaine et la théorie du récit), mais néanmoins : plateforme d’expérimentation, qui se lie à des projets apparentés (NT2, CLÉO, etc.).

Les prochains billets seront l’occasion de lancer les problématiques sensibles interpellées par le projet DÉCALCQ : logiciels de dépôts institutionnels, opposition entre dépôts institutionnels et dépôts thématiques, droit d’auteur et diffusion en ligne, protocoles d’interopérabilité, pérennité du référencement des documents numériques… Le projet est complexe, tentaculaire. Il s’alimente toutefois aux enjeux actuels posés par les politiques d’open-access, par le livre numérique, par les projets de numérisation, par Google Books tiens… Vos suggestions, remarques et encouragements seront les bienvenus!

FacebookPartager/Marquer

Catégorie : Recherche et diffusion,Technologie | Commentaires fermés

L'obsolescence de la technologie

31 mars 2009

Article intéressant (pas tout à fait récent, encore que, relativement parlant…) d’Alexander Stille sur la durée de vie des technologies, notamment celles qui sont liées au stockage et à la diffusion de l’information. Forme de visite guidée d’un laboratoire consacré aux technologies obsolètes, au sein du Department of Special Media Preservation de National Archives (Washington). Quelques observations intéressantes en marge de l’évocation de dinosaures technologiques. D’abord sur le lien intime entre le support et l’information :

One of the great ironies of the information age is that, while the late twentieth century will undoubtedly have recorded more data than any other period in history, it will also almost certainly have lost more information than any previous era.

there appears to be a direct relationship between the newness of technology and its fragility. A librarian at Yale University, Paul Conway, has created a graph going back to ancient Mesopotamia that shows that while the quantity of information being saved has increased exponentially, the durability of media has decreased almost as dramatically.

Sur les conséquences d’une incapacité à composer avec cette obsolescence :

Because of the problems posed by reconstructing obsolete hardware and software, the Archives issued an order that government agencies were free to print out their email onto paper for permanent storage.

Après un exposé assez déroutant sur la masse documentaire générée par le gouvernement américain dans le dernier demi-siècle, Stille rapproche les problèmes de conservation du processus qui fait en sorte que certaines pièces de Sophocle nous soient parvenues (multiplication des copies et valorisation de certains textes par le public => attribution d’une valeur, reconnaissance implicite d’un canon). Il clôture son article par une référence à la Bibliothèque de Babel de Borges, sur le désespoir des bibliothécaires qu’il y dépeint…

La question de la préservation des contenus numériques est critique. Elle se définit néanmoins par des aspects variés : le vieillissement rapide des supports (durée de vie d’un CD vs d’une feuille de papier) et l’obsolescence des technologies elles-mêmes (question hardware) ; la consultation parfois rendue impossible en fonction de conditions difficiles à reproduire (voir l’exemple cité par Stille sur le désalignement des têtes de lecture d’un appareil) ; l’absence d’un sens de la continuité dans l’établissement des logiciels (la non-compatibilité des logiciels d’une génération à l’autre, voire d’une version à l’autre). En ce sens, des travaux sont en cours au NT2 pour tenter de préserver des expériences de navigation d’œuvres hypermédiatiques, à défaut de pouvoir assurer les conditions matérielles et logicielles pour assurer ad vitam æternam leur consultabilité.

Corollairement, il paraît intéressant de voir que Stille appelle le phénomène de la réduplication pour expliquer la survie de la littérature antique (en raison de la nature allographique des œuvres littéraires). C’est pourtant le dada actuel de tous les tenants de l’information numérique : c’est dans la diffusion (et donc dans la multiplication des copies) qu’on assurera la survie des données actuellement disponibles. Pourtant, le défi qui est le nôtre est l’adaptabilité de l’information à une évolution des plateformes logicielles. Quelle solution ? Viser la plus faible détermination logicielle des données ? (d’où l’archivage souvent prôné en .tiff, pour conserver la qualité du document, tabler sur le plus petit dénominateur commun des standards informatiques et diminuer les contraintes éventuelles à la lisibilité du document — comme c’est une image, l’interprétation est réduite au maximum, étant in fine confiée aux yeux du lecteur) Et comment composer avec l’enrichissement des données ? Le métacodage des documents (métadonnées XML) et leur inscription dans l’actuel mouvement de sémantisation des données (RDF, linked-data) seront-ils suffisants flexibles pour assurer la survie de ce travail gigantesque que nous sommes à réaliser ou à planifier ?

La sagesse de tout projet numérique résidera sans nul doute dans la capacité de prendre en charge, voire de prioriser la pérennité de son propre travail.

(photo : « Mac G4 Cube Fish Tank », smalldog)

Catégorie : Recherche et diffusion,Technologie | 5 commentaires

Do Tags Work? (ou quand l'information nous sort par les oreilles) [MàJ]

17 janvier 2009

2389348226_90048e1dfe_mCathy Marshall, dans le dernier numéro de Tekka (revue d’Eastgate nouvellement accessible gratuitement), témoigne de son investigation à propos de l’utilité réelle des tags. Son texte est empreint de désillusion, malgré une volonté initiale de comprendre le fonctionnement des folksonomies. Les conclusions n’en sont pas moins tranchantes :

What I mean to say is: tags can be a rich source of noise.

Tags are indeed miscellaneous, and that miscellany may make them less than useful.

Le premier réflexe est de vouloir savoir si elle a raison, comment elle se trompe — bouleversée dans ses convictions, ou ne serait-ce que dans sa confiance en l’air du temps, notre lecture conduit naturellement à en faire un enjeu de vérité. C’est pourtant, d’abord et avant tout, un enjeu épistémologique : quel rôle jouent aujourd’hui les contenus populaires ? (ça nous ramène à des questions de valeur autant qu’à des questions d’usage…) quelle leçon tirer de ce mouvement de partage, de cette mise en commun d’une quasi infinité de documents, de références, d’informations qui ne peuvent être traités ? à quoi nous conduit un monde où l’information dépasse, en visibilité, en volume et en valeur (par leur saillance dans la sphère publique), son traitement, son interprétation et sa capacité de signification ?

Si le Web 2.0 est actuellement à l’heure du bilan (financier, pour commencer [src @jafurtado]), c’est à ce fondement cognitif et axiologique de l’information dans notre société qu’il faut s’attarder… alors que le Web 3.0 s’annonce pour être encore plus dans les nuages, il n’est peut-être pas mauvais de s’interroger sur les usages de cette socialisation de l’information (ou, pour le dire plus justement, une socialisation de la donnée) et sur l’arrimage social de la technologie — il semble bien que la société existe encore en dehors d’Internet…

(via Mark Bernstein ; photo : « Tagging : Maldives Style», nattu, licence CC)

[Mise à jour] À mettre en lien, tout à fait dans la même lignée : « J’ai oublié de ne pas me souvenir » (via O.Ertzscheld)

Catégorie : Recherche et diffusion,Technologie | Commentaires fermés

Google retire le projet Palimpsest

20 décembre 2008

Peter Suber relaie l’information que Google met un terme à son projet (jamais vraiment lancé) Palimpsest, visant à héberger de larges quantités de données scientifiques. Google qui retire ses billes ?

« As you know, Google is a company that promotes experimentation with innovative new products and services. At the same time, we have to carefully balance that with ensuring that our resources are used in the most effective possible way to bring maximum value to our users, » wrote Robert Tansley of Google on behalf of the Google Research Datasets team to its internal testers.

Utilisation la plus efficace, viser la plus grande valeur : on parle des usagers ou du chiffre d’affaires de G. ? À l’évidence, la valeur commerciale importe plus que la valeur symbolique rattachée à cet hébergement (et au pouvoir lié à la masse des connaissances).

Catégorie : Recherche et diffusion,Technologie | 2 commentaires

Colliger et archiver des « Born-Digital Literary Materials » : nous y voilà

6 mars 2008

draftsMatt Kirschenbaum entame un projet à l’image de ce que l’on souhaitait tous secrètement qu’il advienne : comment gérer, colliger et archiver des documents numériques dans la sphère littéraire… C’est toute la question du brouillon numérique qui est ici envisagée : à la conjonction, donc, de la technologie, de la génétique littéraire et de la médiologie. Il s’attaquera ni plus ni moins aux vieux laptops de Salman Rushdie, à titre de matériau expérimental…

Today nearly all literature is « born digital » in the sense that at some point in its composition, probably very early, the text is entered with a word processor, saved on a hard drive, and takes its place as part of a computer operating system. Often the text is also sent by e-mail to an editor, along with ancillary correspondence. Editors edit electronically, inserting suggestions and revisions and e-mailing the file back to the author to approve. Publishers use electronic typesetting and layout tools, and only at the very end of this process almost arbitrarily and incidentally, one might say is the electronic text of the manuscript (by now the object of countless transmissions and transformations) made into the static material artifact that is a printed book. (Hamlet.doc ?)

Travaux à suivre de près, considérant les énormes besoins auxquels feront face les archivistes et généticiens littéraires dans les prochaines années…

(photo: « did i mention… », gish700, licence CC)

Catégorie : Recherche et diffusion | Commentaires fermés

Preserving Virtual Worlds

25 août 2007

Matt G. Kirschenbaum a récemment diffusé l’annonce du financement d’un projet voué aux enjeux posés par l’archivage des fictions interactives (de la littérature électronique jusqu’aux univers virtuels à la Second Life) :

The Preserving Virtual Worlds project will explore methods for preserving digital games, interactive fiction, and shared realtime virtual spaces. Major activities will include developing basic standards for metadata and content representation and conducting a series of archiving case studies for early video games and electronic literature, as well as Second Life, the popular and influential multi-user online world. [...] In addition to contributing to the work on Second Life, Maryland will take the lead on interactive fiction/electronic literature as a sub-domain of the project, and will be occupied with all aspects of scoping, metadata, intellectual property, evaluation, and archiving of these materials.

Le défi technologique est immense, mais l’ingénierie conceptuelle tout autant : c’est à une poétique des formes qu’on se confronte inévitablement lorsqu’on tente de sérier, de classer, de préserver de façon organisée. Le problème est constamment sous la lorgnette des chercheurs depuis le début des années 90, mais de façon bien théorique ; est-ce qu’un défi plus concret conduira à une réponse plus pragmatique ? Fraistat, Kirschenbaum et Kraus en proposeront sûrement une ; reste à voir si elle tiendra la route.

Catégorie : Littérature électronique | Commentaires fermés

La diffusion du discours savant en évolution : livre, articles, web… (ou la fable des six aveugles indiens)

31 juillet 2007

Ben Vershbow, sur if:book, fait écho et commente les réflexions de Thomas Mann, un bibliothécaire qui s’interroge sur le rôle que ses collègues et lui pourront tenir dans la recherche scientifique. Son prétexte: à partir d’une question posée par un étudiant (sur la guerre du Péloponnèse), il tente d’évaluer la pertinence et l’efficacité d’une recherche en bibliothèque et d’une recherche sur Internet. C’est toute la problématique de la recherche documentaire qui émerge : cohérence des résultats, liens à établir entre les pièces trouvées, hiérarchisation des résultats, validation, etc. [Il y a là matière à un bel exposé sur les principes de la recherche documentaire, sur sa logique et son fonctionnement...]

La fable des six aveugles indiens (l’un décrivant l’éléphant dont il touche la patte comme un arbre, l’autre effleurant le flanc le figurant comme un mur…) sert à montrer comment l’entrelacs des données (toutes partielles) est fondamental dans la perception de la complexité d’une question (toutes les descriptions des aveugles étant insuffisantes pour donner un aperçu satisfaisant de la structure d’ensemble de l’éléphant). Mann aborde également la question des folksonomies, qu’il replace fort à propos dans son contexte (outil complémentaire aux catalogages classiques et non panacée).

Vershbow termine son article sur la question de l’avenir du discours savant : qu’arrivera-t-il si les chercheurs délaissent les formats conventionnels (monographies, ouvrages offrant des synthèses) au profit de formats mieux adaptés aux TIC, aux médias électroniques ? Et donc, à quoi serviront les bibliothécaires ?

True, librarians have gotten very good at organizing books over time, but that’s not necessarily how scholarship will be produced in the future.

C’est toute la question de l’innovation qui rejaillit, celle permettant de se coller aux besoins exprimés par les chercheurs.

La question est ouverte, est nécessaire, mais reste bien peu cadrée : les enjeux sont légion, et il importerait de les identifier, de les interroger. Conceptualisation et rédaction de discours scientifiques appuyés par de nouvelles structures logicielles; validation des contenus, édition, distribution, pérennité; indexation, catalogage, tagging… Voilà autant de balises (d’obstacles diront certains, de défis diront d’autres) qu’il faut prendre en considération dans cette volonté de s’ouvrir à de nouvelles voies pour le discours savant.

Catégorie : Recherche et diffusion | Commentaires fermés

The April 16 Archive

2 mai 2007

vt.jpg

The April 16 Archive uses electronic media to collect, preserve, and present the stories and digital record of the Virginia Tech tragedy of April 16, 2007.

The April 16 Archive, projet élaboré par des gens de Virginia Tech, se donne comme seule mission : « Collecting and Preserving the Stories of the Virginia Tech Tragedy ». Cette initiative, il faut le souligner, a été mise en place avec rapidité, pour tenter de fixer la mémoire en dehors de la seule trace qu’en laissent les médias.

Au-delà de la mission d’exutoire, de sa visée cathartique, c’est à la préservation de la mémoire que ce projet est dédié :

The April 16 Archive is part of ongoing efforts to use the Internet to preserve the past through « digital memory banks, » with these records accessible to a wide audience for generations to come.

On se questionnera peut-être sur la participation de la population locale à cette initiative: y aura-t-il appel explicite à collaboration ? Comment ces histoires parviendront-elles au site ? Se fie-t-on simplement au besoin de s’exprimer des gens pour alimenter cette archive ? Comme il s’agit de faire passer le souvenir personnel dans la zone de la mémoire collective, il y a nécessité de générer des embrayeurs ? moteurs de la migrance de soi vers le commun. Espérons que ce projet saura contribuer à développer cette conscience partagée du passé, du monde.

Catégorie : Littérature électronique | Commentaires fermés

L'expression « revue savante » ne s'accorde plus au singulier

15 avril 2007

On l’oublie trop souvent : la revue savante n’est pas tant un médium de transmission immédiate (on pourrait même dire, en caricaturant : n’est pas un médium d’actualité), mais bien un support voué à la pérennisation des savoirs. Publier un article en revue, c’est faire entrer dans la durée une réflexion, une enquête, une analyse, c’est les fixer pour qu’elles traversent le temps. Verba volant, scripta manent. Mais au régime de l’oralité volatile ou de l’écriture pérenne nos aïeux auraient-ils associé le web, cette écriture virtuelle…?

Avec la venue de la numérisation des revues savantes, c’est en fait à un rappel tonitruant de leur dimension archivale que nous sommes confrontés. Ici, le geste de transmettre et le geste d’archiver se confondent ? alors qu’autrefois, la revue était d’abord distribuée, lue comme on lit l’objet-livre, puis éventuellement archivée dans les rayons de la bibliothèque (« pour référence future »). Internet fusionne ces gestes auparavant distincts en une même démarche : publier en ligne. Que l’on lise le numéro récent ou tel numéro numérisé rétrospectivement, il n’y a aucune différence dans le geste lui-même, l’actualité de l’événement étant déclassée (sauf à travers certaines pratiques circum-éditoriales comme le communiqué ou le fil RSS).

Pour nous lecteurs, le plaisir de découvrir de nouvelles recherches, des problématiques originales par la consultation d’un nouveau numéro ne se dément pas pour autant; là n’est pas la question. Mais le numéro de revue électronique que l’on consulte, médiologiquement, est déjà une archive, est déjà placé dans le bon rayon de la bibliothèque virtuelle (qui l’entreposera jusqu’à ce que flanche l’infrastructure qui l’accueille!). Publier à l’ère du web, c’est de façon encore plus flagrante contribuer directement au patrimoine scientifique du monde.

* * *Si pendant plusieurs années, publier une revue en ligne relevait du pied de nez au processus éditorial commun, si cette pratique relevait par ailleurs de l’audace technologique et donc, par conséquent, de la marge, les temps ont bien changé. Depuis les expérimentations pionnières de projets comme Muse dès 1993, la conception de la publication électronique de revues savantes a évolué de façon importante, passant donc d’une forme expérimentale à un support complémentaire au papier, voire à un support pouvant très bien remplacer le papier. Ceci dans une logique ici ouverte, là (et plus souvent là) marchande et commerciale. Et cette prise de conscience s’accompagne des problèmes conséquents : un personnel non qualifié pour assurer l’édition électronique, des revues non équipées pour assurer le stockage numérique des archives.

S’ensuit une prise de contrôle à large échelle du savoir. À l’heure de la centralisation des connaissances, de larges conglomérats se développent pour assurer/faciliter cette transition. Et où il faut bien saisir les enjeux posés par ce geste : non pas simplement agir comme partenaires pour la transmission du savoir, mais aussi, par le fait même, pour l’archivage de ce savoir ? car on le sait maintenant ces deux gestes sont à peu près indissociables.

Suivant cette logique, des entités énormes émergent autour de nous. Le projet Érudit, d’abord centré sur la publication numérique, poursuit son travail par de la numérisation rétrospective. Si ce projet était questionnable par son fonctionnement (un dépôt OAI fermé, une interface unique pour des dizaines de revues, une DTD spécifique, une orientation plutôt commerciale), il semble trouver un nouvel élan par son affiliation au large projet Synergies, dirigé par Michael Eberle-Sinatra, projet qui a été récemment subventionné de façon importante (plus d’une dizaine de millions $CAN). Indices de cette possible ouverture : mobilisation du logiciel Open Journal Systems développé à UBC, mise en place d’un moteur de recherche commun à 170 revues scientifiques en SHS subventionnées par le CRSH, accès majoritairement gratuit (euh, quid de la visée commerciale mise en place par Érudit? cette « majorité » vise-t-elle les archives de plus de 2 ou 5 ans?). Projet longuement mûri dans les coulisses du CRSH (ici, ou encore , il répond à un impératif tant scientifique que national (la FCI étant un organisme visant à propulser la recherche canadienne au niveau international).

Il faudra voir comment le projet Synergies se placera par rapport aux recommandations des rapports produits sur la question de la numérisation : centralisation des données ou protocole assurant l’interopératibilité ? Le projet pourrait sembler se situer entre les deux, cinq universités partenaires assurant le fonctionnement. Seront-elles les dépositaires des contenus produits? Rappelons pour mémoire l’une des recommandations du rapport Chan-Groen-Guédon (« Étude de faisabilité sur la publication en accès libre des revues bénéficiant de l?aide pour les revues de recherche et de transfert du CRSH »), à savoir la recommandation pour des dépôts institutionnels (plutôt que centralisés par un organisme agrégateur) :

en ce qui concerne les dépôts institutionnels (organes d?’archivage) : que le CRSH collabore avec l?’ABRC (Association des bibliothèques de recherche du Canada) (et autres associations de même type) à la promotion et au développement des dépôts institutionnels, afin d’?assurer leur interopérabilité et d?’améliorer leur rôle dans la conservation du patrimoine savant canadien. Le CRSH devrait également envisager de travailler de concert avec l?’AUCC ainsi qu’?avec la Fédération canadienne des sciences humaines en vue d?’appuyer l?’auto-archivage à l’?échelon des établissements

(En ce sens, on renverra aux projets d’archivage développés par les institutions ; à titre d’exemple, Archimède et Papyrus.)

Si la situation canadienne se trouve ainsi en piste d’accélération pour la numérisation des revues savantes, la France n’est pas en reste. Longtemps en position incertaine, avec la cohabitation de projets semi-apparentés mais clairement concurrents (Persée, le CENS du CNRS, le projet Revues.org…), elle tend tranquillement à mettre en place une stratégie plus construite. En témoigne la mise en place récente du très grand équipement Adonis, en partenariat avec le Centre pour l’édition électronique ouverte (CLEO) à créer bientôt. La fédération de revues Revues.org s’y trouve rattachée (avalée?). Persée demeure toujours concurrente, mais avec une mission légèrement distincte.

Dans cet esprit émergeront également des projets encore plus larges, à l’instar de Scientific Journals International, avec une prétention encyclopédique discutable, ne serait-ce que par le rattachement et les visées un peu obscurs de cette entreprise.

En fin de course, il faut prendre en considération l’aspect symbolique de ces projets. Qui dit archivage dit possession ? et pouvoir. L’économie du savoir dans laquelle nous sommes pousse à prendre position, afin de se tailler une place dans l’échiquier actuel. C’est à coup de bulldozers et de dynamite que les gros projets émergents établissent leurs fondations. Espérons que les projets singuliers ne seront pas considérés comme des pièces à absorber, qu’ils pourront persister à leurs côtés, voire dynamiser ces énormes ensembles par définition monolithiques et uniformisants.

Catégorie : Recherche et diffusion | Commentaires fermés