Rockwell: Web Mining for Research

Geoffrey Rockwell propose « Web Mining for Research », un white paper / manifeste pour statuer sur l’intérêt du web comme objet de recherche. Révélateur que le geste soit nécessaire… encore aujourd’hui…

Il reprend des exemples tirés du Journal of Computer-Mediated Communication pour montrer où se situe l’intérêt:

Studying Popular Culture is possible using the Web. You can track the controversy around the Dixie Chicks and their comments about George W. Bush through the news stories and blogs about them.

Studying the Epidemiology of Ideas is possible using the Web. You can look at how « postmodernism » appears in academic discourse – how it is taught and how it discussed outside the academy.

Studying Everyday Language Use is possible with the Web. You can gather examples of usage of words or patterns in blogs or discussion lists.

Studying a Brand like « Nike » is possible by gathering examples of how the brand is discussed by a target population in their blogs or web sites.

Studying a Community like Hamilton teens is possible if you can identify teen web sites and blogs from Hamilton. What are they interested in? How are their concerns different from Toronto teens?

Est-il étonnant ou indicatif que l’usage du web pour étudier de nouvelles formes littéraires ne soit pas dans cette liste ? que Rockwell lui-même n’en fasse pas mention ? Il faut dire que son environnement, à ce que je sache, est davantage celui du text analysis

Petite ouverture néanmoins, en conclusion de son article :

Research in the digital age will not simply be a matter of using online facsimiles of print resources, or creating ever larger textbases of the same stuff we studied before. Digital research has to consider the Web as evidence of human behaviour, art and commerce. Our research practices have to evolve to not just use the web but to think through it.

Share

Influence, copie et propriété : vers une conception étendue de l'allographisme ?

Suivant l’invitation de Ben Vershbow (sur if:book), je traverse l’article de Jonathan Lethem, « The Ectasy of Influence », publié dans le Harper’s. Propos intéressant, fondé sur le principe que dans la culture, le plagiat, l’emprunt et l’allusion sont des pratiques courantes, voire fondamentales. La tonalité de son article va plutôt du côté du droit, en raison des enjeux posés par le copyright et la propriété intellectuelle (il fait allusion ironiquement aux scouts qui devraient payer des droits d’auteur pour entonner quelques chansons autour du feu de camp). Il en vient à prôner pour « a commons of cultural materials ».

Il émet quelques hypothèses intéressantes, ici sous la forme d’énoncés efficaces (« Blues and jazz musicians have long been enabled by a kind of ?open source? culture »), là dans sa façon de décrire les phénomènes (l’inexistence probable des Simpsons si ces emprunts n’étaient plus possibles). Je ne reprends pas tous ses arguments (food for thought, pour un autre jour), mais cette question de la copie, décidément d’actualité avec la réflexion sur les DRM des pièces musicales, me ramène à Goodman et à Genette :

Even as the law becomes more restrictive, technology is exposing those restrictions as bizarre and arbitrary. When old laws fixed on reproduction as the compensable (or actionable) unit, it wasn’t because there was anything fundamentally invasive of an author’s rights in the making of a copy. Rather it was because copies were once easy to find and count, so they made a useful benchmark for deciding when an owner’s rights had been invaded. In the contemporary world, though, the act of ?copying? is in no meaningful sense equivalent to an infringement?we make a copy every time we accept an emailed text, or send or forward one?and is impossible anymore to regulate or even describe.

Son parallèle avec le courriel est certes abusif, mais il a le mérite de faire émerger la dématérialisation des ?uvres en mode numérique. Revenons en arrière : Nelson Goodman a établi la différence entre des ?uvres en régime autographique (dépendantes de l’historique de production, et dont la reproduction appelle la contrefaçon) et les ?uvres en régime allographique (reproduisibles en raison de la conformation à un original qui permet de corriger toute non-concordance). Gérard Genette, dans L’?uvre de l’art (voir ici un compte rendu parmi tant d’autres), poursuit cette réflexion, en tentant notamment de préciser les modalités possibles de relation allographique. Il distingue notamment les propriétés d’immanence (propriétés renvoyant à l’identité du texte) des propriétés de manifestation (propriétés contingentes, reliées à telle copie de l’?uvre).

En mode numérique, n’observe-t-on pas un passage vers une existence des ?uvres qui délaisserait les propriétés de manifestation ? C’est un peu ce qui se cache derrière les anciennes versions numérisées de classiques littéraires, lorsqu’on recourait à du simple texte (de l’ASCII pur)… difficile pourtant aujourd’hui de faire abstraction de la mise en forme de l’information, tout comme cette idée d’une existence en dehors de sa manifestation semble impossible à envisager pour la musique (le choix de l’instrumentation, la performance, la phonographie laissant moult traces qui identifient l’?uvre). Mais cette identité musicale réside-t-elle dans la séquence imaginée des notes ou n’inclut-elle pas l’ensemble de ces paramètres ? N’en est-il pas de même en littérature, alors que les ?uvres investissant la textualité même du livre (ou du support) se multiplient, ce travail de mise en page étant parfois aussi significatif que le texte lui-même ? (pensons à House of Leaves ou à Apikoros Sleuth…)

On dirait que les pratiques artistiques, voyant arriver le règne d’une circulation libre de leur immanence, se réfugiaient dans leur manifestation pour s’agripper à leur occurrence matérielle… Pourtant, on n’arrêtera pas pour autant la circulation des imaginaires, qui nous permet de se raconter l’histoire de tel film ou de tel roman, et ainsi produire un bagage culturel à reprendre, à réécrire, à recomposer.

Share

Peer-review : formule à diversifier ? [+ addenda]

Willard McCarty, qui tient à bout de bras la liste Humanist, y va d’un pavé dans la mare des périodiques académiques… Pavé dans la mesure où la tendance est à lapider sur la place publique le système du peer-review, qui aurait atteint ses limites par des dérapages (auxquels il fallait s’attendre) : effets de clan dans des domaines hyperspécialisés et compétitifs, refus d’admettre des nouveautés qui remettent en doute le canon scientifique de tel domaine, saturation des bons évaluateurs en raison de la croissance exponentielle de la publication du discours scientifique.

Pourtant, faut-il le rappeler, le principe fonctionne relativement bien en SHS. Comment l’expliquer ? La difficulté d’être vraiment sur le même terrain que plusieurs autres chercheurs, la diversité des lieux de publication, l’absence de course aussi effrenée à la publication (non en termes de volume mais en termes de rapidité d’accès à l’information ? celle-ci étant moins rapidement périmée en SHS qu’en sciences dures ou biomédicales).

C’est sur la question de la variabilité des formules d’évaluation des manuscrits qu’il revient :

I wonder if it is fair to put the blame on peer-reviewing,
which is bound to turn up human failings and perversities. I also
wonder if, given our greater diversity in ways to publish now that
the Web provides them, a cogent solution to whatever problems is to
use that diversity. J. Scott Armstrong (Warton School, Penn) argues,
for example,

Peer review improves quality, but its use to screen papers has met with limited success. Current procedures to assure quality and fairness seem to discourage scientific advancement, especially important innovations, because findings that conflict with current beliefs are often judged to have defects. Editors can use procedures to encourage the publication of papers with innovative findings such as invited papers, early-acceptance procedures, author nominations of reviewers, results-blind reviews, structured rating sheets, open peer review, and, in particular, electronic publication. Some journals are currently using these procedures. The basic principle behind the proposals is to change the decision from whether to publish a paper to how to publish it.

(« Peer Review for Journals: Evidence on Quality Control, Fairness, and Innovation », Science and Engineering Ethics 3 (1997): 63-84, http://cogprints.org/5197/01/peer_review_for_journals.pdf)

Il faut dire qu’il est étrange de voir, comme nouvelle formule pour contourner les problèmes du peer-review, la publication électronique comme un moyen en soi… Ca montre bien le fossé qu’il existe encore entre la notoriété du papier et le caractère improvisé de la publication en ligne…

Addenda :

Je recroise cet article qui va dans le même sens : les lieux de publication sont à diversifier (et on nous en donne quelques exemples). Toutefois, leur argument me paraît aller trop loin :

Separate the dissemination, evaluation/recognition, and retrieval aspects: today, with a publication, researchers achieve all of them. A publication disseminates the work, causes recognition for the authors (the peer evaluation recognizes it as quality work), and makes the paper « visible » in that people can look on papers published in « good » conferences or journals if they want to find « good » work in a certain area. However, there is no reason for these three aspects to be tied now that dissemination is not necessarily related to the physical, paper printing of the scientific contribution in a journal.

Cet énoncé, théoriquement intrigant, ne prend guère en compte les questions d’autorité et de pouvoir liées au monde académique. En présentant les choses ainsi, c’est postuler que la reconnaissance liée à la recherche peut être indépendante des résultats de cette recherche. Enfin, mettre en équivalence évaluation et reconnaissance est un signe d’une conjugaison un peu rapide…

Share

TNN : baliser un domaine de recherche

Jill fait écho au Tags Networks Narrative, projet britannique visant à rassembler les chercheurs autour de la notion de récit. Objectif ? tenter de baliser ce champ de recherche par un système de tags spécifique.

Communauté scientifique recherche balises apparentées, pour communication améliorée. Anti-web 2.0 s’abstenir. Contacter TNN ou lire le blog.

Share

OAIster: 10 millions d'entrées… et quelle incidence ? [addenda]

Le dépôt open-access le plus important, OAIster, atteint les 10 millions d’entrées et se refait une beauté. Le principe est séduisant et honorable, mais son fonctionnement par principe interdisciplinaire (ou les méchants diront « hétéroclite ») rend son contenu extrêmement disparate.

Marin Dacos résume ainsi sa mission :

confirmer la validité de la démarche des archives ouvertes, d’une part, et du protocole OAI, d’autre part, comme moyen de faire émerger une véritable dynamique de libre accès à la littérature scientifique dans le monde

Il faut pour l’instant être visionnaire et croyant pour voir là un compétiteur éventuel aux gigantesques moteurs de recherche. Pour une raison simple : OAIster se situe dans l’entre-deux inconfortable ? trop petit pour compétitionner véritablement avec les Google de ce monde, trop grand pour être considéré en tant que rassemblement thématiquement fort. Ce n’est pas tant une question de fonctionnalité qu’une question d’image : à quel outil ce site renvoie-t-il ?

(Sources : Humanist / Blogo Numericus)

Addenda :

Je trouve justement aujourd’hui un nouvel exemple d’un cas restreint thématiquement fort : Nines, moteur de recherche spécialisé en 19e siècle, constitué à partir du rassemblement manuel de certains sites-sources. Sorte d’?illères appliquées à un moteur de recherche, pour l’éviter de se perdre dans la webosphère…

(Source : Humanist)

Share