À l'échelle humaine ou inhumaine ?

729822_25ba163c9a_m.jpgHigh performance computing pour les humanités : est-ce « a hammer in search of a nail » ? La question m’a souvent traversé l’esprit, au croisement de diverses allusions à cette possibilité. Simple réflexe d’une grenouille qui voit les sciences inhumaines, elles, faire la part belle à ces ressources démesurées, et ainsi souhaiter s’apparenter au boeuf ?

John Tolva, de chez IBM, se prête naïvement — mais volontairement — à la réflexion. J’avais croisé telle cogitation chez Geoffrey Rockwell, mais sans qu’il expose en toutes lettres sa position. Les questions que Tolva pose pour s’interroger sur notre méthodologie sont fascinantes… et désespérantes. Car le principal problème, souligne-t-il en creux, est l’absence de structuration des ensembles de données :

the biggest single problem we can solve with the grid in the humanities isn’t discipline-specific (yet), but is in taking digital-but-unstructured data and making it useful. OCR is one way, musical notation recognition and semantic tagging of visual art are others — basically any form of un-described data that can be given structure through analysis is promising. If the scope were large enough this would be a stunning contribution to scholars and ultimately to humanitiy.  

C’est l’ambition qui effraie et qui rend fébrile (ce « giddy » qu’il utilise pour décrire son propre état). C’est la démesure, l’ampleur, l’empan en quelque sorte. Mais est-il de mauvaise foi de prétendre que la vraie nature des humanités, c’est la profondeur et non la largeur de vue ? Comment raffiner les « données » lorsqu’on plonge dans un texte ? Ce texte n’a-t-il donc de valeur, laisse-t-on supposer avec cette approche, que dans la multitude des autres textes ?

Je n’ai pas de réponse… la question continue de me tracasser. Et appelle, en corollaire, la fascination de la technologie, ses possibilités, et la nécessité de tout chercheur de questionner son apport à ses travaux. Simple tentation geek ou ouverture à de nouvelles avenues, à de nouveaux outils, à une compréhension réinventée de nos objets de prédilection ? Il semble bien qu’il faille une part de geek-itude pour d’abord se laisser séduire, et ensuite envisager les conséquences de la dot… Car à défaut de regarder la technologie dans les yeux, il n’y a pas de moyens d’accéder aux fantasmes, à la vision qu’elle permet de dessiner d’un certain avenir. Cette vision n’est pas la seule qui puisse/doive être esquissée, pas plus qu’elle constitue une panacée. Mais difficile est le portrait de notre futur sans prise en considération des outils qui nous accompagneront.

 (photo : « book shelf project 1 ~ striatic {notes} », striatic, licence CC) 

Share

De la chose numérique (ou l’extension problématique du virtuel)

Depuis les travaux2453665709_62359f8779_m.jpg de Roberto Busa sur l’index des oeuvres de St-Thomas d’Acquin, le domaine des médias interactifs s’est attardé au texte en tant que liste de mots (“words on a page”, Blackwell Companion to Digital Humanities, 4). L’évolution des sciences humaines assistées par ordinateur (humanities computing) vers les humanités numériques (digital humanities) coïncide peut-être avec la redéfinition des frontières du concept de “texte”. À l’instar de D.F. McKenzie, nous définissons le texte en incluant les données verbales, visuelles, orales et numériques, lesquelles prennent la forme de cartes, de musiques, d’archives de fichiers sonores, de films, de vidéos et de toute information conservée en format numérique.

Lisant l’argumentaire de l’appel à communications du prochain colloque de la Société pour l’étude des médias interactifs (Society for Digital Humanities), je me questionne une fois de plus, calque anglais/français aidant, sur les enjeux liés à la définition de la discipline des digital humanities.

Le terme est séduisant : efficace, right to the point (comme sait l’être l’anglais), il renvoie à l’idée que les sciences humaines peuvent s’incarner aujourd’hui dans la sphère numérique. De cette façon, nombre de chercheurs (amateurs ou professionnels) se retrouvent sous un même chapeau. Se côtoyent ainsi les analystes textuels assistés par ordinateur, les poéticiens des arts et littératures hypermédiatiques, les sémioticiens de l’espace numérique et les archivistes intéressés par la gestion des documents numériques.

Cette conception disciplinaire — transdisciplinaire, pour sûr — permet aux gens ayant des intérêts et des compétences apparentés d’entrer en contact, d’échanger des outils / méthodes (sans compter que ça plaît aux administrateurs et subventionnaires — les sous étant liés à ces manifestations de transversalité). Une telle passerelle permet ainsi à des seiziémistes anglais de discuter avec des contemporanéistes francophones, sur la base d’un terrain commun.

Mais quelles conséquences y a-t-il à ainsi définir un tel terrain commun ? De façon caricaturale, je dirais qu’il y a actuellement la même frénésie autour du numérique que celle qu’a sûrement pu générer l’apparition du codex, avant-hier à peine : les initiés se retrouvent entre eux, qu’ils soient théologiciens ou écrivains lubriques, afin de se supporter et de partager autour de la découverte, le temps que la chose se démocratise, se diffuse — ne soit plus une découverte. Ensuite, chacun retrouve son secteur… C’est une lecture médiologique de la chose — et c’est pourtant l’enjeu qui est le nôtre aujourd’hui.

C’est la même question qui se pose aujourd’hui à propos de l’édition — j’en parlais hier à Clément, en lien avec ses trucs, nos intérêts communs et nos échanges récents avec François : quel profit, quel danger à définir largement le champ d’intérêt ? Édition de la littérature contemporaine directement en ligne (comme publie.net), éditions critiques savantes, toute modalité de publication éditoriale invoquant le support numérique, diffusion de la recherche scientifique en ligne en accès libre : tout ça se retrouve sur un terrain commun, suscitant les ah! et les oh! des personnes impliquées, qui trouvent ainsi des interlocuteurs.

Quelle conséquence y a-t-il à tout mettre sous le chapeau du numérique ? À partir de quel moment est-il nécessaire / rentable / obligatoire de retourner vers les champs disciplinaires ? Deux observations me viennent d’emblée, de deux ordres différents.

  1. On n’a pas à trancher et à définir le moment du retour vers la terre natale : l’impulsion vient probablement naturellement, tout à la fois que les échanges transdisciplinaires seront toujours profitables et stimulants.
  2. Il faut par ailleurs veiller à contrer l’effet de ghetto qui guette les nouveautés prises d’assaut par ceux que la chose intéresse, établissant un droit d’exclusivité aux seuls initiés. Il y a de cet effet (et de ses ambiguïtés) dans le cas We Tell Stories (je me promets d’y revenir sous peu, il y a longtemps que l’idée me tracasse).

Comment assurer le retour vers la discipline, comment initier le mouvement de partage des nouveautés ? Comment faire en sorte que la problématique numérique ne reste pas l’apanage de quelques initiés ? La question se pose et s’impose.La démocratisation des outils informatiques eux-mêmes a probablement pour effet, pour l’instant, de contrer la ghettoisation. Mais la présence de passeurs demeure une donnée majeure dans le portrait. Et pour revenir à la SDH/SEMI et aux digital humanities : la question est de savoir à partir de quand la maîtrise avancée des nouveaux outils par certains dissout le terrain commun, disperse l’espace partagé de dialogue et recrée l’isolement disciplinaire. À moins que le perpétuel coup de pied sur le caillou de l’innovation, roulant de fois en fois au-devant de nous et nous appelant à le suivre, n’assure le rafraîchissement de cette nouveauté à apprivoiser, à propos de laquelle il faut partager ?

(photo: « the cover », squareintheteeth, licence CC)

Share

Numériques de souche ou de formation ?

bébé ordiLe récent article d’Ana, sur la place de la technologie dans les musées, me ramène à des articles du mois de décembre que j’avais marqués d’un drapeau — toute une polémique sur les digital natives et les digital immigrants. La question que pose Ana est celle de l’accommodement que les musées pourraient faire à l’intention de leur jeune public, apparemment des digital natives (des gens ayant toujours vécu avec la technologie dans leur vie, et donc avec une relation à leur environnement qui dépend à peu près totalement de l’interface de la technologie). Elle place sa réflexion dans le contexte d’une étude qui vient remettre en question ce lieu commun :

Tout ce texte, pour en venir à vous partager une étude de la British Library au sujet de la Google generation : Information behaviour of the researcher of the future (pdf).

Ce document présente tant les idées reçues au sujet de cette génération Internet que le résultat de l’étude. Plusieurs perceptions que nous développions de façon « automatique » deviennent des mythes et c’est pour le mieux de l’avenir des musées. À la lecture de l’étude, j’en conclus qu’il n’est pas automatique que les jeunes d’aujourd’hui intègrent tous les tenants et les aboutissants de cette nouvelle ère numérique, même s’ils en sont natifs et probablement des usagers plus fluides que les plus âgés.

Prudence donc, car cette impression de la maîtrise quasi-innée de la technologie doit être révisée. Le débat a été lancé par Henri Jenkins (sous une forme nuancée, parlant du danger d’oublier les variations d’accessibilité aux technologies, d’un digital divide). Puis il a été doublement relayé par Siva Vaidhyanathan, qui insiste beaucoup (trop) sur la non-pertinence de la notion de génération, mais qui se rattrape en disant qu’il n’y a rien à gagner à généraliser cette apparente opposition entre digital native et digital immigrant.

Ce qui apparaît se démarquer, c’est le mythe autour de l’utilisation des technologies. Et c’est un mythe dont l’inexactitude se vérifie au quotidien (j’en témoigne personnellement, voyant mes étudiants faire un usage commun de Facebook mais ne sachant toujours pas faire un saut de page dans un traitement de texte). Il faut remettre les pendules à l’heure sur le rapport avec la technologie, en particulier sur la complexité de ce rapport.

1. Il paraît évident qu’il y a une aisance qui vient avec un médium lorsque celui-ci a été fortement présent au moment des années d’apprentissage les plus fulgurantes (fin de l’enfance et première moitié de l’adolescence — un psycho-cognitiviste dans la salle pour confirmer ?). L’analyse de plusieurs générations au vingtième siècle l’illustrerait sûrement avec force.

2. Il faut en revanche admettre qu’il n’y a aucun caractère inné à l’usage des technologies. Certaines interfaces tablent davantage sur des processus cognitifs courants et réduisent le gap technologique, oui. Mais il y a toujours une étrangeté à apprivoiser, une distance à franchir. Et des apprentissages sont nécessaires.

3. À l’image des objets qui nous intéressent, dont le rythme de renouvellement est effarant, tel est le rythme auquel se trouve confrontée notre capacité à adapter nos connaissances et nos compétences technologiques. Celles-ci sont sujettes à un dépassement imminent, à une rapide caducité. Et ce, que nous soyons (franchement / relativement) jeunes ou moins jeunes.

Dans ce contexte, il s’impose d’insister pour la reconnaissance (commune, par nos institutions scolaires, par nos employeurs) du rôle fondamental joué par la computer-literacy (à généraliser en une techno-literacy), qu’il faudra conséquemment maintenir, alimenter et bonifier.

(photo : « Naar Hopla kijken », Inferis, licence CC)

Share

Wikipedia et son Moyen Âge

The work of a scribeÀ travers un épique récit de l’histoire de Wikipédia (mais surtout de ses propres péripéties), Nicholson Baker fait le compte rendu de l’ouvrage Wikipedia: The Missing Manual
de John Broughton. Approche jubilatoire : récit des premières expérimentations, traces des différentes cultures ayant eu cours au sein de ce projet, puis relation des tentatives de Baker lui-même de s’inscrire dans la communauté des éditeurs de Wikipédia.

After bovine hormones, I tinkered a little with the plot summary of the article on Sleepless in Seattle, while watching the movie. A little later I made some adjustments to the intro in the article on hydraulic fluid—later still someone pleasingly improved my fixes. After dessert one night my wife and I looked up recipes for cobbler, and then I worked for a while on the cobbler article, though it still wasn’t right. I did a few things to the article on periodization. About this time I began standing with my computer open on the kitchen counter, staring at my growing watchlist, checking, peeking. I was, after about a week, well on my way to a first-stage Wikipedia dependency.

Et tranquillement Baker de se révéler un inclusionniste dans l’âme, questionnant l’attitude de plusieurs visant à sabrer dans les pages qui ne sont pas justifiées par un sujet notable.

At the same time as I engaged in these tiny, fascinating (to me) « keep » tussles, hundreds of others were going on, all over Wikipedia. I signed up for the Article Rescue Squadron, having seen it mentioned in Broughton’s manual: the ARS is a small group that opposes « extremist deletion. » And I found out about a project called WPPDP (for « WikiProject Proposed Deletion Patrolling ») in which people look over the PROD lists for articles that shouldn’t be made to vanish. Since about 1,500 articles are deleted a day, this kind of work can easily become life-consuming, but some editors (for instance a patient librarian whose username is DGG) seem to be able to do it steadily week in and week out and stay sane. I, on the other hand, was swept right out to the Isles of Shoals. I stopped hearing what my family was saying to me—for about two weeks I all but disappeared into my screen, trying to salvage brief, sometimes overly promotional but nevertheless worthy biographies by recasting them in neutral language, and by hastily scouring newspaper databases and Google Books for references that would bulk up their notability quotient. I had become an « inclusionist. »

Et on entre là dans un monde virtuel, plus près du jeu que de la communauté scientifique (car ça se révèle un terrain de jeu pour querelles et jeux de pouvoir typiques de l’enfance. Se pose la question du canon (« Still, a lot of good work—verifiable, informative, brain-leapingly strange—is being cast out of this paperless, infinitely expandable accordion folder by people who have a narrow, almost grade-schoolish notion of what sort of curiosity an on-line encyclopedia will be able to satisfy in the years to come. ») ; émerge la problématique de la définition de ce projet, dont Baker rappelle qu’il est en fait mené par un nombre très restreint d’éditeurs qui imposent leur vision d’une encyclopédie libre et ouverte — pourtant régie par des règles très sévères, pourtant constamment patrouillée par des éditeurs et des logiciels évitant sa propre implosion en raison de modifications humoristiques ou malveillantes.

Le plus stimulant, outre la prose jubilatoire de Baker, c’est certainement le mode d’autorégulation de cette communauté, qui est à l’évidence game-driven — tiens, un peu comme l’est le Nomic, mais avec une dose de responsabilité culturelle et politique, avec un sens du devoir.

Ce qui nous manque pour l’instant, c’est encore une lecture comparée des dynamiques sociales propres aux sphères linguistiques (on ne parle jamais que du Wikipédia de langue anglaise). Comment se gèrent les tensions colonialistes dans la sphère hispanophone? Quelle vision du monde est proposée par des encyclopédies issues de langues qui ne sont pas parmi les trois ou quatre lingua franca mondiales?

Baker conclut son expérience comme il clôt son texte :

I think I’m done for the time being. But I have a secret hope. Someone recently proposed a Wikimorgue—a bin of broken dreams where all rejects could still be read, as long as they weren’t libelous or otherwise illegal. Like other middens, it would have much to tell us over time. We could call it the Deletopedia.

(via Willard McCarty, Humanist) (photo : « The work of a scribe », glynnish, licence CC)

Share

ImaNote : un Flickr privé pour groupes d'annotateurs…!

carta_marina_imanote-thumb.png Passage à la version 1.0 d’un logiciel permettant d’annoter toute image, de gérer des utilisateurs et d’établir un lien avec cette annotation (URL, RSS). La modalité de Flickr rendue accessible à tous, en dehors de la plateforme de Flickr (mais peut-être un tel logiciel existait-il déjà, j’avoue là mon ignorance).

On imagine facilement un groupe de recherche l’utilisant pour construire une réflexion autour de représentations picturales, pour élaborer une édition critique d’un manuscrit, pour situer spatialement (sur une carte) les différents collaborateurs à un projet… Il suffit d’avoir un peu d’imagination!

Description du projet donnée par Lily Diaz-Kommonen, dans un message diffusé sur Humanist :

ImaNote – (Image and Map Annotation Notebook) is a web-based multi-user tool that allows you, and your friends, to display a high-resolution image or a collection of images online and add annotations and links to them. You simply mark an area on an image (e.g. a map) and write an annotation related to the point.

You can keep track of the annotations using RSS (Really Simple Syndication) or link to them from your own blog/web site/email. The links lead right to the points in the image.

The user management features include resetting lost passwords and account email verification. Through the group management features you can create communities that share images and publish annotations.

ImaNote is Open Source and Free Software released under the GNU General Public Licence (GPL).

ImaNote is a Zope product, written in Python, with a javascript-enhanced interface. Zope and ImaNote run on almost all Operating Systems (GNU/Linux, MacOS X, *BSD, etc.) and Microsoft Windows. It currently works with most modern browsers including Mozilla Firefox, IE7 and Opera.

Imanote was developed as a collaboration between the Systems of Representation and the Learning Environments research groups of the Media Lab at the University of Art and Design Helsinki, Finland.

For more information go to http://imanote.uiah.fi.

Share