Hubert Guillaud fait écho à un coup de gueule d’Olivier Ertzscheid sur le tempo de la publication scientifique. Mais derrière la volonté d’un accès libre, intégral et immédiat aux articles, quelle réalité contraint-elle les directions de revues ? Tentative, de ma part, de mettre en perspective, et surtout de se questionner sur les outils favorisant la diffusion rapide sans pénaliser l’équilibre économique fragile des revues savantes — voir les commentaires.
Recherche et diffusion
L'obsolescence de la technologie
Article intéressant (pas tout à fait récent, encore que, relativement parlant…) d’Alexander Stille sur la durée de vie des technologies, notamment celles qui sont liées au stockage et à la diffusion de l’information. Forme de visite guidée d’un laboratoire consacré aux technologies obsolètes, au sein du Department of Special Media Preservation de National Archives (Washington). Quelques observations intéressantes en marge de l’évocation de dinosaures technologiques. D’abord sur le lien intime entre le support et l’information :
One of the great ironies of the information age is that, while the late twentieth century will undoubtedly have recorded more data than any other period in history, it will also almost certainly have lost more information than any previous era.
there appears to be a direct relationship between the newness of technology and its fragility. A librarian at Yale University, Paul Conway, has created a graph going back to ancient Mesopotamia that shows that while the quantity of information being saved has increased exponentially, the durability of media has decreased almost as dramatically.
Sur les conséquences d’une incapacité à composer avec cette obsolescence :
Because of the problems posed by reconstructing obsolete hardware and software, the Archives issued an order that government agencies were free to print out their email onto paper for permanent storage.
Après un exposé assez déroutant sur la masse documentaire générée par le gouvernement américain dans le dernier demi-siècle, Stille rapproche les problèmes de conservation du processus qui fait en sorte que certaines pièces de Sophocle nous soient parvenues (multiplication des copies et valorisation de certains textes par le public => attribution d’une valeur, reconnaissance implicite d’un canon). Il clôture son article par une référence à la Bibliothèque de Babel de Borges, sur le désespoir des bibliothécaires qu’il y dépeint…
La question de la préservation des contenus numériques est critique. Elle se définit néanmoins par des aspects variés : le vieillissement rapide des supports (durée de vie d’un CD vs d’une feuille de papier) et l’obsolescence des technologies elles-mêmes (question hardware) ; la consultation parfois rendue impossible en fonction de conditions difficiles à reproduire (voir l’exemple cité par Stille sur le désalignement des têtes de lecture d’un appareil) ; l’absence d’un sens de la continuité dans l’établissement des logiciels (la non-compatibilité des logiciels d’une génération à l’autre, voire d’une version à l’autre). En ce sens, des travaux sont en cours au NT2 pour tenter de préserver des expériences de navigation d’œuvres hypermédiatiques, à défaut de pouvoir assurer les conditions matérielles et logicielles pour assurer ad vitam æternam leur consultabilité.
Corollairement, il paraît intéressant de voir que Stille appelle le phénomène de la réduplication pour expliquer la survie de la littérature antique (en raison de la nature allographique des œuvres littéraires). C’est pourtant le dada actuel de tous les tenants de l’information numérique : c’est dans la diffusion (et donc dans la multiplication des copies) qu’on assurera la survie des données actuellement disponibles. Pourtant, le défi qui est le nôtre est l’adaptabilité de l’information à une évolution des plateformes logicielles. Quelle solution ? Viser la plus faible détermination logicielle des données ? (d’où l’archivage souvent prôné en .tiff, pour conserver la qualité du document, tabler sur le plus petit dénominateur commun des standards informatiques et diminuer les contraintes éventuelles à la lisibilité du document — comme c’est une image, l’interprétation est réduite au maximum, étant in fine confiée aux yeux du lecteur) Et comment composer avec l’enrichissement des données ? Le métacodage des documents (métadonnées XML) et leur inscription dans l’actuel mouvement de sémantisation des données (RDF, linked-data) seront-ils suffisants flexibles pour assurer la survie de ce travail gigantesque que nous sommes à réaliser ou à planifier ?
La sagesse de tout projet numérique résidera sans nul doute dans la capacité de prendre en charge, voire de prioriser la pérennité de son propre travail.
(photo : « Mac G4 Cube Fish Tank », smalldog)
La monographie numérique, ou la goutte au bout du nez
Martyn Daniels faisait écho récemment à une décision radicale de The University of Michigan Press, celle « [to] shift its scholarly publishing from being primarily a traditional print operation to one that is primarily digital ». Rien de moins. Migration de 90% des monographies sur support numérique dans les prochaines deux années, avec béquille assurée par l’impression sur demande.
L’état de l’économie et de la rentabilité de ces entreprises est certainement en cause (d’où probablement le bel euphémisme de Daniels : « University presses are experiencing challenging times and are adapting and changing. » !) Mais je reste toujours perplexe devant l’inconscience médiologique des acteurs du monde du livre savant. Car la myopie est flagrante : ce que l’on observe, c’est la débandade du marché de la monographie savante, en lien direct avec la difficulté de rentabiliser un titre. Dépasse-t-on ce constat? Phénomène plutôt rare.
Deux éléments à prendre en compte :
— La surenchère de la production scientifique sous cette forme fait en sorte que le marché est saturé (et les chercheurs itou). À titre indicatif, dans la lettre d’information bimensuelle de Fabula que je viens de publier à l’instant, la section Publications (regroupant revues, collectifs, monographies) compte 116 entrées, ce qui est un nombre très moyen… tout ça dans le seul champ Études littéraires, dans le domaine francophone (principalement). 116 nouvelles publications signalées en deux semaines ! Et question de faire jouer les statistiques : près de 7 800 annonces de parution depuis 10 ans. Saturation, disait-on ? Et le réflexe de Daniels est de se réjouir du maintien de la cadence :
Interestingly and refreshingly in today’s climate the shift is claimed not to be designed to save money, but to make better use of the money being spent on the press and no jobs will be eliminated.
— Le point le plus sensible est probablement celui qui est le moins lié à une question d’économie de marché… c’est la problématique du livre savant. Les études littéraires, comme certaines autres disciplines des sciences humaines, restent particulièrement attachées à la brique (à la monographie volumineuse et parfois verbeuse), alors que plusieurs autres disciplines (pas nécessairement toutes du domaine des sciences inhumaines) ont considérablement fait bouger les paramètres de ce qui est recevable, disciplinairement parlant, comme contribution scientifique. C’est donc ici un très beau cas de médiologie. Nous convenons aisément que la prose académique impose un format au livre qui la reçoit ; mais acceptons-nous de considérer que le support que nous utilisons conditionne notre propos ? Et de façon encore plus sensible : acceptons-nous même l’idée que la monographie puisse délaisser sa place comme étalon de la recherche littéraire aboutie ? qu’elle délaisse le support du livre pour s’incarner sur de nouveaux supports (et ainsi, potentiellement, délaisser le filé du discours qui le caractérise [cf. Barthes, « Littérature et discontinu »]) ?
La myopie est trop grande actuellement dans la sphère scientifique : obsédés par la goutte qui leur pend au bout du nez, ses acteurs ne voient pas le tournant qui approche et qu’ils risquent de manquer. Et ce n’est pas d’abord une question de papier et d’octets.
Pas lu/visionné mais lié : « Future of the Book : Can the Endangered Monograph Survive? » et Christine Borgman, « Scholarship in the Digital Age » (et son ouvrage du même titre)
INKE, sur les rails
Gros projet subventionné, en lien avec l’histoire du livre mais peut-être encore plus des questions de literacy : INKE.
Annonce ici. Félicitations à Ray et à son équipe.
Québec Horizon Culture, suite et f…
C’était hier. Très largement, l’événement avait l’allure d’une grand-messe — même si quelques figures ont tenté d’insuffler une dynamique carnavalesque à la rencontre. Beaucoup d’annonces, d’argent, plusieurs plaidoyers, souvent un même discours : soutenir à tout prix. Difficile d’être contre la vertu… Quelques observations, à titre de post mortem :
– ce gros show de chaises avait la principale qualité de susciter un show de coulisses : les gens se sont parlé, des rencontres ont pu être provoquées, des hasards ont placé les uns et les autres sur des trajectoires convergentes ; il faut rendre à l’événement ce bénéfice de favoriser le réseautage, car la très large partie des participants présents étaient du milieu culturel (et non strictement du milieu des affaires) ;
– le ton des interventions (dites planifiées ou spontanées, quelle différence ?) était variable, de l’auto-congratulation des quelques personnes d’affaires présentes (qui, en ayant les moyens de leur support, ne pouvaient rien faire d’autre que d’étaler leurs moyens…) aux demandes d’aide des autres, d’annonces de projets déjà bien ficelés à celles d’initiatives qui ont pu être financées sur-le-champ, par la magie de l’événement ;
– qui était invité ? la question reste difficile à répondre : de toute évidence, c’est le champ restreint de la création culturelle et artistique qui était visé, au sens le plus restreint — exit les musées, les institutions d’enseignement, les fonds de recherche… —, et encore, avec une touche bien sentie du côté du techno-culturel (d’où le cri des gens de l’univers du cirque, de la chanson et du disque, pour ne penser qu’à eux) ; c’est une vision bien ciblée de la culture qu’on a privilégiée — peut-être le fallait-il ? mais encore aurait-il été prévenant d’être plus explicite ;
– qui était là ? bien des gens n’ont pas été appelés à la barre (forcément pour des raisons liées à une vision, cf. paragraphe précédent) ; toutefois, je crois que le post mortem de l’organisation devrait s’inspirer d’un examen minutieux des organismes représentés dans l’assistance : bien des gens (et par là des organismes) étaient présents, constituant des antennes pour les secteurs a priori non invités, en périphérie de la conception étroite de la création culturelle et artistique… en soi, l’intérêt et la participation de ces gens témoignent de l’envergure de l’événement, et de ses retombées possibles — pourquoi ne pas commencer par aller chercher les commentaires, les suggestions, les perceptions, les idées de ces participants, et de là entamer le dialogue souhaité ?
– enfin, je me désole de la présence fantomatique de l’Université Laval : quelques rares têtes repérées dans l’assistance, une présentation trop peu engagée/concrète/inspirée de sa direction (où les statistiques de diplomation avaient valeur d’argument), absence des secteurs arts, littérature et culture dans cette planification de l’horizon de la ville — aussi bien continuer à croire que le campus n’appartient pas à cette ville.
Je me réjouis enfin de la place réservée à la littérature — je ne me faisais pas d’illusion… Mais le dynamisme de Gilles Pellerin et de l’équipe de l’Institut canadien / Gabrielle-Roy a permis de faire émerger ce volet de la culture, a priori peu versé dans le techno-culturel (il n’y a vraiment que le titre de G@brielle-Roy 2.0, qui ne me plaît guère, qui laissait croire à cette filiation techno). Une chance que les acteurs municipaux sont là pour insuffler une vitalité à la littérature dans la cité.
(photo : « The Ivory Tower is Covered in Ivy », Billie/PartsnPieces, licence CC)