Atelier Digit_Hum 2016

« Les bibliothèques se livrent ! » – 10 et 11 octobre 2016, Paris

Sophie Bono-Lauriol

Charlotte Dessaint

Nathalie Queyroux

La quatrième édition de l’Atelier Digit_Hum s’est tenue les 10 et 11 octobre 2016 à l’École normale supérieure (ENS), Paris. Organisés par le CAPHÉS (Centre d’Archives en Philosophie, Histoire et Édition des Sciences – UMS 3610 CNRS/ENS) et le laboratoire d’excellence TransferS (ENS – Collège de France / Paris Sciences et Lettres Research University), les Ateliers Digit_Hum ont pour objectif d’engager une réflexion sur les humanités numériques sous la forme de journées annuelles interdisciplinaires ouvertes à la discussion et au débat, durant lesquelles sont présentés des projets de valorisation numérique de corpus.

Cette année, la thématique choisie par les organisateurs Marie-Laure Massot (ingénieure d’étude au CAPHÉS) et Julien Cavero (ingénieur cartographe du labex TransferS), interrogeait l’ouverture des bibliothèques au numérique. Quel est leur public aujourd’hui ? Comment peut-il, souhaite-il accéder aux documents et les consulter ? Comment une bibliothèque, dont les collections sont à l’origine matérielles, envisage-t-elle la transition numérique ? Décrivant plusieurs cas pratiques au travers de sept présentations, les intervenants de l’Atelier ont proposé un faisceau de réponses, devant un public d’une soixantaine de personnes composé d’étudiants, de chercheurs, de bibliothécaires, de documentalistes, de chargés de médiation et d’informaticiens.

Une conférence introductive pour soulever les questions

L’atelier s’est ouvert lundi 10 octobre dans la salle historique de la bibliothèque d’Ulm, avec une conférence donnée par Roger Chartier (ancien président du Conseil Scientifique de la Bibliothèque nationale de France et Professeur au Collège de France). Sa conférence interrogeait la relation entre humanités numériques et matérialité des textes. Quelle idée se cache derrière cette phrase, « les bibliothèques se livrent » ? S’agit-il de la raison d’être même des bibliothèques, qui donnent à connaître et à partager leurs collections ? Ou est-ce l’évolution numérique qui pousse ces établissements à se transformer ? Probablement les deux : l’évolution induite par la numérisation n’a pas vocation à s’opposer à l’histoire et à la matérialité des textes.

Si au début de la numérisation, dans les années 1990, l'objectif visé était une offre exhaustive de textes dématérialisés (au risque d'une désertification totale des salles de lecture et d’une transformation des bibliothèques en simple lieu d’archivage des collections), les années 2010 correspondent à une prise de conscience des transformations : « de quoi parlons-nous lorsque nous parlons de numérique ? ». Question qui appelle à prendre en compte plusieurs aspects lors de la mise en pratique : garder la mémoire de la matérialité du document qui en détermine les conditions de lecture ; conserver son histoire ; se doter d’une politique d’acquisition du matériel numérique correspondant à une logique scientifique ; augmenter le document en proposant une pluralité de modes de consultations, d’enrichissement et d’exploitation.

Une journée de présentations pour apporter
réponses et solutions pratiques

Les présentations de la journée du 11 octobre ont eu pour objectif de répondre aux questions soulevées lors de la conférence introductive. La matinée s’est concentrée sur la définition d’une bibliothèque numérique et les solutions techniques nécessaires à son développement.

Lors de la première conférence, apportant une première réponse par la description des portails développés à la BnF, Matthieu Bonicel a soulevé le caractère évolutif de ce qu’est une bibliothèque numérique. L’historique de la bibliothèque Gallica, créée en 1997, montre que cet outil destiné en premier lieu à être le reflet numérique de collections physiques, s’est peu à peu transformé en un outil multi-usage intégré à toute une galaxie de projets. Ces vingt années de développement ont mis en évidence les attentes qu’une bibliothèque numérique doit pouvoir satisfaire : garder la mémoire du format originel catalogué (et intégrer la question du traitement des documents nativement numériques) ; enrichir le document en lui connectant d’autres éléments média ; rendre l’outil capable de communiquer avec d’autres ressources électroniques, et donc interopérable. Pour ce faire, le responsable de conservation devient alors responsable de numérisation, le processus s’intégrant dans la chaîne de traitement des fonds. Il ne s’agit plus de numériser de façon exhaustive pour simplement tout conserver, mais de considérer la bibliothèque numérique comme une bibliothèque à part entière, complémentaire de la version physique, servant à la fois de conservation et de valorisation des fonds, évoluant du projet autonome vers celui de réseau d’outils interconnectés.

Les trois présentations suivantes ont abordé le sujet d’un point de vue plus pratique en décrivant les mutualisations et solutions logicielles proposées au sein de Paris Sciences et Lettres (PSL, regroupement universitaire de vingt-six établissements). Celles-ci ont fait ressortir deux éléments clés précédemment abordés : la nécessité de mise en réseau des compétences et d’interopérabilité des outils impliquant l’utilisation de formats standards de données. Pour l’aspect technique, une solution est mise en avant : le projet OMEKA, présenté par Richard Walter, informaticien à l’Institut des textes et manuscrits modernes (ITEM). Cette solution libre se situe au croisement entre les systèmes de gestion de contenus (CMS), les systèmes de gestion de collections et les archives numériques. Initiative de laboratoires de recherche en sciences humaines et sociales, développée par une communauté mixte de chercheurs, archivistes, bibliothécaires et acteurs du monde culturel et patrimonial, répondant aux critères de modularité et d’interopérabilité, OMEKA se présente comme une solution pour les projets de bibliothèques numériques. Solution choisie pour le projet de transcription et d’édition de notes de cours de l’ENS, porté par la Bibliothèque Ulm-Jourdan de l’École normale supérieure. Il implique l’ITEM et l’École nationale des chartes, et rassemble plusieurs acteurs : bibliothécaires, informaticiens et chercheurs. C’est par cette pluralité de compétences que ce projet de bibliothèque numérique pourra offrir une valorisation scientifique des documents, dont les versions numérisées permettront une lecture approfondie et une mise en réseau des éléments. OMEKA, dans sa version OMEKA-S (« S » pour sémantique), est également le choix du pôle Ressource et Savoirs de PSL pour son projet de bibliothèque numérique. Dans l’idée de mettre à disposition de toute la communauté l’ensemble du gisement documentaire des établissements de PSL, le pôle développe cette bibliothèque sous forme d’une plateforme consortiale mise à disposition des différents projets numériques existants ou en création. Plus encore, ces trois présentations ont mis en lumière la nécessité de mutualiser les compétences humaines du monde académique afin de créer un portail unique connectant des projets pluridisciplinaires, interopérables et inter-interrogeables.

L’après-midi a été consacrée à des corpus plus spécifiques. Félicie de Maupeou (Université Paris Ouest Nanterre La Défense) a évoqué un travail en cours sur la bibliothèque de Monet ; Vincent Ventresque (École normale supérieure de Lyon) a présenté la « bibliothèque foucaldienne », numérisation des notes de travail de Michel Foucault autour de l’ouvrage Les mots et les choses ; Marc Kolakowski (Université de Genève) a décrit le Bodmer Lab, projet de bibliothèque numérique de la fondation Martin Bodmer. Autant de projets variés avec leurs spécificités propres (la bibliothèque personnelle d’un artiste, les fiches de lectures d’un philosophe, la collection d’un bibliophile) mais qui mettent en œuvre une même démarche scientifique en posant des questions similaires quant au choix des solutions techniques et des méthodes de visualisation. Chaque projet de bibliothèque numérique consiste à rendre compte du concept au cœur de la collection physique : carte de l’univers mental et de l’horizon culturel de Claude Monet, atelier reflet de la pensée de Michel Foucault, intention de Martin Bodmer déterminant le choix des éléments de sa collection. Vient alors la question de l’architecture de la bibliothèque et de l’interactivité des documents, dépendant de la solution logicielle choisie. Un nouveau type de réseau apparaît alors : celui interne à la bibliothèque créée.

Pour la dernière intervention, Vincent Puig est revenu sur plusieurs concepts développés à l’Institut de recherche et d’innovation du Centre Pompidou afin d’aborder un aspect émergeant dans le monde numérique : les coopératives de savoirs. La création d’outils numériques a en effet permis de développer de nouvelles dynamiques sociales de contributions auxquelles les bibliothèques numériques n’échappent pas. La constitution d’une communauté avertie travaillant à faire évoluer l’outil, mais aussi et surtout les contenus, permet non seulement de trouver en partie la solution à la question du volume d’informations mises à disposition mais également de créer une émulation propre à faire évoluer la bibliothèque selon les besoins de son public.

Public qui a justement ouvert la discussion de fin de journée sur ce sujet des pratiques collaboratives de la gestion des données. Les nombreux échanges, nourris par les apports des diverses présentations, se sont aussi orientés sur un problème auquel devront toujours mieux répondre les humanités numériques : celui de la pérennité des données et de l’obsolescence des plateformes d’interrogation et de visualisation.

Grâce à son édition 2016 sur le thème des bibliothèques numériques, l’Atelier Digit_Hum a abordé un vaste panel de sujets, faisant ressortir nombres de questions pouvant relever des humanités numériques au sens large. D’autres concepts que ceux déjà évoqués ont émergé de cette journée. Droits de diffusion et propriété intellectuelle concernent tout porteur de projet numérique, d’autant que l’acquisition de la donnée numérique peut être déléguée à des sociétés commerciales dont les intérêts se situent en dehors de ceux de la recherche.

Comment en contrôler l’usage et la diffusion ? Comment produire des données de masse en un temps minimum tout en sauvegardant la logique scientifique ? Car s’il s’agit bien de Big Data, le traitement doit être celui de « Smart Data » comme le soulignait Marc Kolakowski du Bodmer Lab. Ces données intelligentes doivent être reliées entre elles par une même intention, ce qui interroge la notion même de « donnée ». Vincent Puig faisait d’ailleurs remarquer que la donnée brute n’existe pas, il ne s’agit que de la représentation et de l’interprétation que nous en faisons.

À la fin de l’atelier, les bibliothèques s’étaient livrées. Et si chaque étude a développé sa spécificité, l’ensemble des contributions a mis en avant le concept de réseau, qui marque chaque étape de la mise en place du projet : réseau de données, réseau d’acteurs, réseau d’institutions, réseau de projets aussi, visant à produire des bibliothèques numériques les plus complètes et évolutives possible.

Vidéos de l’Atelier Digit_Hum 2016 : https://transfers.huma-num.fr/digithum2016/