Perdre Goliath dans les nuages (surcoucher Google Books ?)

J’ai traversé, comme plusieurs, la synthèse précieuse d’Olivier Ertzscheid (sur affordance.info) à propos de Google Books. Bien des enjeux me dépassent (et nous dépassent). Mais j’ai accroché sur un point précis, qui relance mes réflexions périodiques sur la fonction de filtre dans la sphère internet et l’interface que constituent les chercheurs dans le rapport avec le savoir.

L’obstacle du Good Enough

Dans son article, Ertzscheid rappelle bien le principe gouvernant la numérisation et, de façon plus spécifique, l’établissement des métadonnées liées aux documents numérisés. Il a été démontré par plusieurs, et avec force, que les erreurs sont nombreuses, voire endémiques dans les métadonnées constituées par Google Books. Si le commun des mortels s’en balance un peu (hum, beaucoup), la communauté scientifique reste préoccupée, en raison de la précision déficiente des renseignements, de la perspective tronquée sur le corpus numérisé… Mais plusieurs s’en remettent à l’idée que c’est mieux que rien — c’est là ce que résume d’Ertzscheid.

Il poursuit néanmoins en y voyant là un enjeu politique (au sens large) :

La question est de savoir si ce rêve que l’humanité poursuit depuis son origine, c’est à dire offrir à tous et en un même lieu l’ensemble des connaissances disponibles, si ce rêve aujourd’hui à portée de souris doit se satisfaire d’un « pas trop mal » et d’un « mieux que rien ». A chacun de se déterminer. Mon avis ? Mon point de vue est qu’il faut se servir de la formidable opportunité offerte par Google pour renforcer le rôle de la prescription et de la médiation publique du savoir et de la connaissance. Je ne parle pas ici de prescription « publique » par opposition à une prescription « privée » mais bien par rapport à une prescription « commerciale ». Si le politique (cf supra) ne relève pas ce défi c’est sans ambage et sans lyrisme déplacé la mort programmée de la diversité culturelle, et peut-être même celle de l’éducation à la diversité. Pour le reste, cessons de rêver : on ne contrera plus Google sur la numérisation ni même sur le commerce des livres.

La résignation gagne les troupes : c’est David contre Goliath, et Goliath a vaincu sur un plan — le caractère massif de son aire d’occupation du territoire. Personne (ni même la BNF) n’arrivera à sa cheville en volume et en vitesse de numérisation. Mais l’insatisfaction reste, tant du point de vue des droits (le combat se poursuit) que du point de vue de la qualité de la documentation produite/rendue accessible. D’où cet appel à une prescription publique.

Une métadonnée en chasse une autre (la complète, en fait)

La question reste donc de définir cette prescription publique : il ne s’agit pas, comme le laisse comprendre Ertzscheid, de politiques et de lois, mais d’action collective. Au delà de l’utopie première, comment donner forme à cet engagement pour contrer Goliath ?

La question se pose plus facilement du point de vue technique et scientifique. Le problème de Google Books, notamment (!), c’est en quelque sorte de ne pas perdre des données (des volumes entiers) dans le néant… Tout bibliothécaire vous le dira : un livre mal classé ou mal indexé peut être perdu à jamais. C’est un cas extrême, mais néanmoins envisageable dans le spectre des erreurs liées aux métadonnées des livres numérisés. De façon plus commune, c’est de ne pas pouvoir accéder au livre recherché parce que mal associé (mauvais tags attribués), c’est d’avoir une information fautive sur un livre. Et « Google, tout en étant conscient de ces erreurs, « ne considère pas leur rectification comme prioritaire » » souligne Ertzscheid, à la suite de Geoffrey Numberg ; n’imaginons pas que G. nous laissera davantage jouer dans ses codes et nous laisser les rectifier.

À défaut d’agir directement sur la source du problème, pourrait-on la contourner ? Je m’amuse là à émettre une pure hypothèse (on voudra bien me dire si techniquement c’est réalisable). Il s’agirait d’ajouter une surcouche de métadonnées à Google Books, lesquelles seraient exactes, validées et utilisables par le discours scientifique. Par un effort commun, nous pourrions constituer une interface normalisée gérant les métadonnées de la documentation scientifique, laquelle serait accessible dans Google Books dans un second temps. Comme tous les volumes sont basés sur des protocoles standardisés (à tout le moins le classique ISBN), il serait aisé d’offrir des outils permettant d’interfacer GBooks… Par Zotero, par OpenLibrary, voire par LibraryThing, des communautés scientifiques pourraient surcoucher Goliath, et ainsi le laisser se perdre dans ses nuages. GBooks resterait évidemment une couche obligée (dépositaire du contenu numérique convoité), mais on n’y accéderait que dans un second temps, pour obtenir ce contenu brut.

Des limites, pour sûr : pas nécessairement accès aux requêtes dans les textes (encore que…), pas d’accès direct à la banque d’indexation, mais tout de même : la possibilité de gérer l’information, de baliser l’accès, de filtrer la documentation. Car l’enjeu s’y trouve : si les bibliothécaires se prêtent à la mutation de leurs fonctions, c’est tout à fait là qu’ils se trouvent — interface / filtre qui permet d’accompagner des usagers, des chercheurs, des lecteurs dans leur exploration du monde du savoir.

Hypothèse futile ? projet utopique ? Surcoucher Google Books, ce serait lui ajouter le fini qui lui manque (voire la crédibilité qui lui manque en contexte scientifique) : beau rêve, qui refuse la simple démonisation du projet (et l’hypocrisie d’un usage une fois le dos tourné) ; utopie collective à explorer… sous cette forme ou sous une autre.

Share

Du flux et du livre

3767837216_266b643e99La semaine dernière, Thierry Crouzet publiait un article où il annonçait la mort des sites web dans leur état actuel. Quoi de plus normal, c’est dans l’air du temps. On ne jure plus que par les flux — forme de désincarnation de l’information, éternellement remodelable selon les plateformes, les interfaces, apparemment sans perte et sans bruit. RSS, pipes, filtres, XML : c’est le règne du tout-communicationnel.

L’argumentaire de Crouzet me laisse toutefois pantois.

Les sites web ont été imaginés pour stocker des informations et les afficher à travers des navigateurs. Ce fut une révolution, notamment grâce à l’hypertexte décentralisé, mais aussi une façon de traduire à l’écran ce que nous connaissions sur le papier. Il suffit de voir à quoi ressemblent encore les sites des journaux (où même les blogs). À des journaux traditionnels ! […] On reste dans l’ancien monde de Gutenberg. […]

Le web ressemblait au monde de la presse.

Comparer les sites web à des journaux et voir là l’allure traditionnelle des journaux…? Ils sont pourtant des agrégateurs de flux (fils d’agences de presse notamment)! Comme modèle, le journal est pourtant pas mal…

Nous avons des sources d’informations, les blogs par exemple, qui propulsent l’information pure dans le cyberspace. Puis elle circule, s’interface, se représente, se remodèle. Elle n’a plus une forme donnée, une mise en page, mais un potentiel formel qui peut s’exprimer d’une infinité de façons. Je me moque de la forme originelle
quand je lis sur un agrégateur, éventuellement ouvert sur mon mobile.

Il n’y aurait plus de forme donnée à l’information pure (hum) avec les flux ? — En comparaison avec le livre où l’on met d’un côté fond et forme, mais mise en page de l’autre côté…! C’est vouloir détacher à tout prix la syntaxe de la typographie… mais l’entre-deux se situe où ? La séparation en paragraphes s’approcherait plutôt de la première ? Et la gestion des blancs en poésie ?

C’est étrange de voir ressurgir le mythe du signifié détaché de son signifiant — d’un contenu qui circulerait sans son contenant, sans son support. Comme si la mise en page était castratrice, d’une part ; comme si, d’autre part, le choix des mots, la syntaxe, l’espacement entre les mots n’influençaient pas profondément la transmission d’un contenu autrement à l’état pur.

Si c’est une forme de révolte contre le design graphique de certains sites web, si c’est une façon de ne pas être soumis aux monopoles des logiciels de navigation, alors il faut le dire… et non pas prétendre ne pas être sous le contrôle de la forme, de la mise en page…

*   *   *   *   *   *   *   *   *   *   *   *   *   *   *   *   *   *

Le flux ressemblera au monde du livre, un monde où les livres seraient vivants, où chaque mot pointerait vers d’autres livres, où chaque phrase engendrerait des conversations avec l’auteur et les lecteurs.

C’est quand même étrange que le modèle du livre, pourtant souvent détrôné en raison de sa permanence, de son inertie, soit l’étalon du flux (il est vrai qu’il est allographique et médialement exportable), alors que le journal, agrégation de flux, soit relégué à la staticité (alors que sa tabularité en fait un objet de contacts entre les flux tout à fait privilégié).

La question, à tout prendre, c’est de se demander ce qui dépasse l’aspect cosmétique de la présentation du texte, lorsqu’on le migre d’un support à l’autre, lorsqu’un flux est affiché dans Netvibes ou en colonne de côté d’un blog. Et c’est aussi la question des formats : est-ce l’affichage lui-même qui est significatif ? Ou plus encore : comment le mode de lecture (appréhension visuelle) modifie cette lecture (comme interprétation) ? Comment le rapprochement avec d’autres flux en augmente-t-il le sens ? La stabilisation de fragments de blogs dans un objet éditorial inusité (côté plateforme, mise en page, etc.) n’est-elle pas significative que dans la lecture qu’on en propose ?

On a beau prétendre que cette conception du flux nous libère des interfaces, qu’elle achève de nous affranchir de la staticité, c’est néanmoins dans le paradigme du regard, du centrement — de l’attention, de la concentration — que se joue le fonctionnement du flux. Aussi fluide soit le flux, aussi désincarné nous apparaît-il, l’expérience de sa lecture, en général, réside dans le fait de capter quelque chose, de ne pas voir le fleuve entier qui coule vers la mer mais de saisir l’une de ses vagues. La circulation, la dissémination n’a de sens que si elle permet de transmettre — il faut quelqu’un au bout du canal, et s’il a le dos tourné, l’instantanéité du flux le rend inopérant, inutile.

Nova Spivack, chantre du flux (stream), le souligne bien qu’avec trop peu d’insistance :

One of the most difficult challenges will be how to know what to pay attention to in the Stream: Information and conversation flow by so quickly that we can barely keep up with the present, let alone the past. How will know what to focus on, what we just have to read, and what to ignore or perhaps read later?

L’atomisation, la diffraction de l’information dans le paradigme du flux a pour conséquence manifeste de la dissoudre, de la perdre dans le brouillard. D’où l’importance non des trends, mais des filtres (hashtags, oui, mais surtout des filtres humains). Des repères qui permettront à quelques autres d’assurer le relais — des repères éphémères, inévitablement, à la façon de Qfwfq qui se laisse une marque pour se retrouver, après une rotation complète de l’univers.

Attention, regard, focus : si François Bon soutenait que le livre se résume à son temps de lecture, je serais tenté de postuler que le livre existe par sa capacité à fixer l’attention — à projeter le captif dans une perception du monde, d’un monde, en accord avec la convention d’une fausse conversation (ou conversation décalée dans le temps). Le livre transmet une forme de regard-caméra sur le monde, à travers la convention du discours, du littéraire. Néanmoins persiste toujours l’ombre de la caméra — la conscience du pouvoir et de la distortion du langage. Jamais le livre ne sera totalement flux, à tout le moins flux à l’image de celui que l’on associe à la transformation actuelle du web.

Share

La piraterie à la lumière de la disponibilité

Hugh McGuire, de BookOven, résume assez bien les enjeux liés à la piraterie, au marché et à la rareté. On est loin de l’affirmation trop commune soutenant que les branchés n’ont pas de respect pour l’économie de marché et qu’ils veulent tout gratuitement. C’est plutôt l’observation inverse qui s’impose :

If you, as providers of content, give me what I want, when I want it, at a reasonable price, I’ll be happy to pay for it. But if you don’t want to give me what I want, when I want it, I’ll be compelled – when I really want something – to find other ways to get it.

Certaines mauvaises langues diront que les branchés ne veulent pas se plier à l’état du marché… mais on peut facilement y voir le contraire — le marché ne suit pas les demandes de la clientèle, dont les modes de consommation ont considérablement évolué. Tout un rafraîchissement en vue des débats interminables sur Torrent, Hadopi, iTunes, les DRM…

Share

Digital Humanities Manifesto 2.0 etc.

Publication récente de la version 2 du manifeste pour les digital humanities (à propos de la v1 : ici). Un PDF reprend le texte, mais où on tente de le dynamiser un peu (exploitation de la surface de la page, iconographie…) — bel effort, mais ça pourrait être davantage. Passons.

Tentative de saisie du champ, qui montre bien sa bicéphalité :

Digital Humanities is not a unified field but an array of convergent practices that explore a universe in which: a) print is no longer the exclusive or the normative medium in which knowledge is produced and/or disseminated; instead, print finds itself absorbed into new, multimedia configurations; and b) digital tools, techniques, and media have altered the production and dissemination of knowledge in the arts, human and social sciences. The Digital Humanities seeks to play an inaugural role with respect to a world in which, no longer the sole producers, stewards, and disseminators of knowledge or culture, universities are called upon to shape natively digital models of scholarly discourse for the newly emergent public spheres of the present era (the www, the blogosphere, digital libraries, etc.), to model excellence and innovation in these domains, and to facilitate the formation of networks of knowledge production, exchange, and dissemination that are, at once, global and local.  

Ce qui me dérange un peu dans le discours, c’est le petit côté « défenseur de la veuve et de l’orphelin » — les DH semblent intervenir sur tous les aspects où il fait bon se situer : open-source, interdisciplinarité, réinvention des approches méthodologiques, university/library without walls… Qui trop étreint, hum. Je comprends que cette perspective soit féconde, mais il serait pertinent d’identifier plus pragmatiquement les champs d’intervention, l’innovation méthodologique, plutôt que de se présenter en sauveur de la science et de la connaissance.

Proposition stimulante, néanmoins (qui fait bien ressortir l’enjeu des archives aujourd’hui, au sens le plus large possible), celle d’une interfécondité entre le curator et le scholar :

Digital Humanists recognize curation as a central feature of the future of the Humanities disciplines. 

Whereas the modern university segregated scholarship from curation, demoting the latter to a secondary, supportive role, and sending curators into exile within museums, archives, and libraries, the Digital Humanities revolution promotes a fundamental reshaping of the research and teaching landscape. It recasts the scholar as curator and the curator as scholar, and, in so doing, sets out both to reinvigorate scholarly practice by  means of an expanded set of possibilities and demands, and to renew the  scholarly mission of museums, libraries, and archives. A university museum worthy of its name must become at least as much a  laboratory as, say, a university library. An archive must become a place of teaching and hands‐on learning. The classroom must become a place of hands‐on engagement with the material remains of the past where the tasks of processing, annotating, and sequencing are integral to process of learning. Curation also has a healthy modesty: it does not insist on an ever more impossible mastery of the all; it embraces the tactility and mutability of local knowledge, and eschews disembodied Theory in favor of the nitty‐gritty of imagescapes and objecthood. 

À proximité, les enjeux de recherche collaborative en SHS : un spécial Cluster de Digital Humanities Quarterly et une liste d’exemples de projets collaboratifs en SHS. De quoi s’inspirer…

Share

Dépôts institutionnels —: maturité de la réflexion ?

Il y a toute une activité dans la réflexion autour des dépôts institutionnels et de la constitution de fonds d’archives numériques. Open Access News / http://www.earlham.edu/~peters/fos/fosblog.html en est un bon relais. J’essaie de repérer ce qui est plus immédiatement lié à mes projets (quand il est question de Fedora, la solution envisagée, des protocoles d’interopérabilité, des logiciels concurrents). Récemment, fusion DSpace et Fedora / http://www.duraspace.org/pressrelease.html , qui fait réfléchir… Suivre le flux Delicious / http://delicious.com/reneaudet (voir sur cette page, la section « Repéré sur le web ») pour remonter le fil de certaines lectures (faites ou à faire).

Share