Littérature russe, XXIe siècle

Il faut avouer que je ne connais rien à la littérature russe. Je me réjouis néanmoins de constater qu’on porte attention à la pratique littéraire extrêmement contemporaine ? à titre d’exemple, ce colloque sur les cinq premières années de la littérature russe du XXIe siècle.

Je me réjouis, mais ce choix pose une question d’histoire littéraire : la périodisation fondée sur les balises chronologiques (cette désormais mythique année 2000) a-t-elle un sens dans la période contemporaine ? Si l’on a déjà bien de la difficulté à déterminer les balises de la période contemporaine en littérature (différentes selon les corpus nationaux : 1980 au Québec, 1950-60 en France?), que peut signifier le XXIe siècle de ce point de vue ?

Lire la suite

Share

iMatter

Décidément, les gens de McMaster brassent de l’air. Je pense particulièrement à Geoffrey Rockwell… (research blog) Il est un de ceux qui animent le projet TaPoR.

Maintenant, je retombe une nouvelle fois sur Interactive Matter (iMatter), initiative interdisciplinaire, à la frontière des game studies, des media arts et du humanities computing. (site général, blog iMatter) graphic2.gif

Voie intéressante qu’ils explorent : partir du principe de la création pour rassembler des artistes et des artisans du numérique (que leurs contenus soient muséographiques, archivistiques, scientifiques…). Comme quoi la création, placée dans le contexte virtuel, devient la lingua franca de tous les producteurs de contenu. Assez dérangeant, institutionnellement parlant, mais le jeu en vaut la chandelle.

Share

Persée (Érudit à la sauce française)

Le projet Persée est officiellement en route ? et surtout en ligne. Compagnon de route français du projet québécois Érudit (il en emprunte même la DTD), il joue du rouleau compresseur dans un milieu où les projets de numérisation et d’information en ligne fleurissaient.

À titre d’exemple, Revues.org, qui n’est pas un projet de numérisation à proprement parler mais un regroupement de revues électroniques, n’est pas intégré dans cette entreprise ; l’INIST, déjà responsable des banques comme Pascal et Francis, ne semble pas lié à Persée ; de même le Centre d’édition numérique scientifique (une adresse, quelqu’un ?), piloté par le CNRS et l’ENS LSH, est une initiative qui se développe parallèlement, avec pourtant les mêmes objectifs (« centre chargé de mettre en ligne l’ensemble des revues en sciences humaines et sociales afin de les rendre aisément et gratuitement accessibles aux chercheurs »).

Rappelons que le projet Persée relève du Ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche… guerre de clochers? (quelqu’un peut nous expliquer une fois pour toutes les relations ambiguës entre le Ministère et le CNRS ?)

Share

Deux avenues virtuelles pour la dissémination du savoir (suite)

(À la suite d’un renvoi de Sébastien Paquet à mon article, je reprends ici mon commentaire qui précise un peu l’état de ma réflexion.)

Il le connaît de nom [je parlais de Jean-Claude Guédon], comme tous les intervenants sur littérature et informatique qui aient quelque peu suivi l’évolution des modalités d’insertion de la recherche scientifique sur le net…

Au-delà du personnage, au-delà des réalisations passées (fondamentales, au sens où elles ont fondé quelque chose), la question de l’ancrage entre la recherche scientifique universitaire dans le domaine des humanités et les modalités offertes par les nouveaux médias demeure pour moi encore très problématique. Deux secteurs existent, aux antipodes l’un de l’autre:

– les travaux menés par des activistes du humanities computing (des lecteurs plus ou moins distraits de la liste Humanist au groupe dynamique autour du projet TAPOR, par exemple). C’est le royaume de l’informatique au service de l’analyse, mais où le transfert des résultats bruts vers le contexte d’analyse premier demande un travail significatif de transposition et de réinterprétation ? bref, l’intégration des résultats et leur mobilisation efficace supposent une dose de bon jugement…

– les calques de la réalité documentaire papier (toute la question de la migration des revues savantes sur le web, notamment, question que j’abordais ici). Ici, c’est une conception soft de la numérisation qui intervient, les modes d’appréhension des possibilités du numérique étant calqués sur ceux du monde actuel.

Ce qui me paraît déterminant, c’est l’absence de zone intermédiaire ? c’était le constat qui ressortait après ma petite excursion signalée ici. Où sont les modes de coopération? plutôt: où sont les gens prêts à travailler conjointement grâce aux possibilités offertes par les nouveaux médias? il ne faut pas se leurrer: les volontaires se comptent, en littérature au Canada, sur les doigts des mains de Guédon, de Seb et de moi-même…

Bref: oui il faut avancer dans les possibilités techniques pour les chercheurs dans les humanités, mais il ne faut pas oublier à qui elles sont destinées (ni comment les leur faire apprivoiser). L’appropriation est la phase capitale, et pourtant trop négligée. Le marteau sans menuisier est inutile; il faut favoriser l’apprentissage, possiblement par des personnes ou des outils qui auront le rôle de passeurs.

Share

Google : quand la quantité vise la qualité

Google se lance dans la numérisation de grandes bibliothèques universitaires (Stanford, Michigan, Oxford, et Harvard de façon limitée). On en parle partout (ex.: NY Times (abonnement requis), Libération). Un pas en avant pour l’accessibilité de la culture, sans nul doute.

Je ne peux m’empêcher de trouver bizarre, conceptuellement parlant, cette transformation de Google… Un moteur de recherche, une base d’indexation ? ce qu’est Google à la base ?, c’est un miroir, un reflet d’un ensemble de données extérieures à ce moteur. Mais quand le reflet se met à ajouter des éléments à l’image qu’il projette, on se retrouve avec un outil hybride, bien sûr, mais encore plus avec un changement de cap.

Que penser de cet engagement dans la diffusion du savoir, si ce n’est la volonté de prendre une place déterminante ? de faire un putsch scientifique ? Les moteurs concurrents ne pourront jamais égaler cette somme de savoirs (créée de toutes pièces pour les besoins de la grandeur de G.) ? de facto, ils sont déclassés. Déclassés dans la quantité du savoir, mais aussi dans la qualité : la validité parfois jugée douteuse des sites web se voit ainsi compensée par le poids de la science rendue accessible par la numérisation des ouvrages publiés par des éditeurs sérieux, reconnus par l’ensemble de leur production. Google rattrape l’ancien monde pour confirmer son monopole dans le cyberespace…

Ajout 1er janvier: le commentaire de Martin Lessard me conduit vers son mot sur le même sujet : Google et la bibliothèque virtuelle, où il renvoie à la page de présentation du projet par Google: Google Print. Ce qui me fait sursauter dans cette page, c’est l’absence de référence aux bibliothèques universitaires qui ont accepté de participer au projet. Comme quoi Google n’a pas besoin de la notoriété de Stanford, Harvard et Oxford pour avoir de la crédibilité… (ou est-ce la peur d’effrayer sa clientèle en faisant allusion à des universités?)

Share