Numérique et bibliothèques : le deuxième choc

Entretiens professionnels de la BnF

Noëlle Balley

La 4e édition des Entretiens de la BnF (Bibliothèque nationale de France) s’est déroulée les 7 et 8 décembre 2007.

Archivage pérenne et conservation

La matinée du vendredi 8 décembre 2006 était consacrée à l’archivage pérenne et à la conservation. Catherine Lupovici (BnF) présentait la norme OAI-S, recueil des bonnes pratiques qui doivent garantir la pérennité et l’interopérabilité des données numériques, en modélisant l’organisation à mettre en place et les données à échanger : définition des tâches confiées à l’administration du système, bonnes pratiques en matière de versement, d’archivage des données et d’accès, importance de la planification de la conservation, métadonnées de préservation. À la BnF se met en place actuellement un système d’archivage pérenne en OAI-S pour toutes les données numériques acquises ou produites par l’établissement, quels qu’en soient l’origine et le format : ce système d’information numérique est la « cinquième tour » de l’établissement, qui prend autant d’importance que les quatre tours physiques, et doit désormais prendre aussi en compte le projet de Bibliothèque numérique européenne.

En Allemagne, le choix a été fait d’un système d’archivage collaboratif, ouvert à l’ensemble des établissements culturels, mais aussi à des éditeurs. C’est le projet Kopal 1, présenté par Ute Schwens (Bibliothèque nationale d’Allemagne à Berlin), et qui vit depuis juin sa première phase de production. Ute Schwens évoque également le réseau allemand Nestor (Network of Expertise in long-term Storage of digital Ressources), groupement interprofessionnel dont l’objectif est de promouvoir et soutenir la pérennité à long terme, et d’alerter la société et les politiques sur ces questions peu connues et leurs enjeux financiers.

Mais si l’automatisation est un idéal vers lequel on devrait tendre, la conservation des données numériques est encore trop souvent manuelle et artisanale : l’enquête lancée par la Direction du livre et de la lecture (DLL) auprès des bibliothèques municipales, et dont Thierry Claerr présente les premiers résultats, montre que, sur les vingt établissements ayant répondu, seuls quatre mettent en place un système d’archivage et sept ont acquis un serveur dédié. Les autres établissements continuent de stocker des cédéroms (et des idées faussement optimistes sur leur durée de conservation). Tous ont conscience du problème, mais se sentent démunis pour y faire face. La DLL engage une réflexion sur les aides qu’elle pourrait apporter, soit en termes de formation, soit en termes de financement, et pourquoi pas, de plateformes d’archivage régionales. L’exposé de Thierry Claerr était complété par celui de Louis Burle (médiathèque de l’agglomération troyenne) présentant le système d’archivage pérenne qui se met en place à Troyes, à l’issue d’une réflexion menée dans le cadre du projet d’établissement, afin d’éviter la perte de données dont la médiathèque a déjà été victime.

Le web 2.0

Les intervenants de l’après midi ont introduit leurs auditeurs dans le monde du web 2.0, ce « deuxième choc » promis par le titre de ces journées : blogs, wikis, espaces personnels et projets collaboratifs, dont Hervé Le Crosnier (université de Caen) présente, avec la vitesse et le brio d’une Formule 1, les enjeux et les paradoxes. Alors qu’un pouvoir immense est apparemment donné au public, le pouvoir réel est acquis par les détenteurs des plus grosses bases de données (« data is power »). Avec ce système fortement centralisé cohabitent les opérateurs d’une « économie de la longue traîne » (vendre peu, mais sur le long terme) et des « transferts horizontaux de connaissances tout au long de la vie ». Face à l’hyperconcentration des géants de l’information, un nouvel humanisme peut-il naître, qui s’appuie sur la force du nombre ? Hervé Le Crosnier rassure les bibliothécaires : si le livre est autosuffisant, le numérique a besoin de métadonnées, et le public besoin d’être guidé pour accéder à l’information. À l’heure où les conversations de café du commerce accèdent à l’universel, seuls les documents les plus structurés resteront, malgré l’apparent effacement du travail éditorial.

Lorcan Dempsey, vice-président Recherche chez OCLC (Online Computer Library Center), décrit ensuite deux nouvelles manières de « faire travailler les données ». En indexant tout ce qui peut l’être dans son immense catalogue collectif WorldCat, OCLC offre de nouveaux services aux possibilités fascinantes : WorldCat Identities 2, pour tout savoir sur un nom de personne, qu’il soit réel ou fictif, les œuvres liées à cette personne, et pourquoi pas la bibliothèque la plus proche de chez vous qui possède l’œuvre en question, et Fiction Finder 3, qui permet d’interroger le contenu des œuvres, en recherchant, par exemple, tous les romans se déroulant à Dublin et narrant une aventure personnelle…

Le web 2.0 offre aussi de nouvelles possibilités aux chercheurs, en « réduisant le nombre de clics entre le document et le travail fait sur ce document » (L. Dempsey) : espaces de travail personnel sur des documents numérisés, espaces collaboratifs pour un travail collectif, reconnaissance automatique de formes, recherches d’occurrences, nous sommes déjà bien loin des pages statiques en mode image. Le projet Optima, présenté par Nathalie Mauriac-Dyer (Item : Institut des textes et manuscrits modernes), réunit la BnF, deux instituts de recherche, la Maison des sciences de l’homme et des centres de calcul, pour proposer une exploitation… optimale de la numérisation de brouillons d’écrivains (Flaubert, Proust, Valéry) ou des papiers d’un chercheur (Braudel).

Après ces présentations qui ouvrent des perspectives enthousiasmantes, le clou de la visite : la présentation de la maquette de la future Bibliothèque numérique européenne/Europeana 4. Au-delà des déclarations politiques et des polémiques médiatiques, cette présentation faite par Catherine Lupovici démontrait de manière éclatante la qualité, l’ambition et l’intérêt de ce projet qui exploitera toutes les possibilités du web 2.0 : recherche plein texte, indexation Dewey en 22 langues (!), espaces personnels et collaboratifs, liens vers les éditeurs des documents sous droits, etc. Un projet qui met en lumière un enjeu nouveau pour les projets de numérisation en bibliothèque : celui de l’interface d’interrogation et des services ajoutés offerts à l’usager. Nul doute que ceux-ci nous les réclameront très bientôt.