Digital Libraries
Philosophies, Technical Design Considerations, and Examples Scenarios
On ne sait plus trop comment traiter le déluge d'ouvrages consacrés aux bibliothèques numériques, tant leur variété et parfois aussi leur redondance semble décourager le souci analytique ou même synthétique. « Digital Libraries » ne fera pas exception, qui propose un panorama de la question tant du point de vue philosophique (disons plutôt conceptuel) que technique, tout en étayant les démonstrations d'un certain nombre d'exemples. Pour apprécier ceux-ci, il convient, bien sûr, de quitter la lecture de l'ouvrage afin de vérifier in situ à l'aide de son navigateur préféré.
Il paraît impossible de proposer un exposé synchronique de la dizaine de (courts) articles ici rassemblés, même si certains semblent plus répétitifs que réellement complémentaires. Ils sont répartis en trois grands chapitres, « Philosophies », « Technical Design Considerations » et « Examples Scenarios », ce dernier – le plus intéressant a priori – étant hélas aussi le plus court (deux articles seulement). Dans sa succincte introduction, David Stern, bibliothécaire à l'université de Yale, imagine la bibliothèque numérique idéale comme accessible de tout point du globe, proposant non seulement des textes mais aussi d'autres types d'information, et surtout « transparente », c'est-à-dire offrant à l'usager des accès si bien conçus que se trouvent d'un coup levés tous les obstacles qui, dans l'appréhension d'une bibliothèque « matérielle », sont parfois décourageants.
Philosophies
Les présentations regroupées sous l'intitulé « Philosophies » sont à la mesure de cette aune un peu utopique. Michael E. Lesk, dans un exposé fouillé sur « The organization of digital libraries », montre bien que les enjeux de la bibliothèque numérique, délivrée des soucis liés aux bâtiments et à leurs collections, sont avant tout dans les accès et les services. Les réductions de budgets, particulièrement sensibles dans les universités américaines, obligent à un subtil équilibre entre le partage et, malgré tout, la compétition avec d'autres établissements – quand ce n'est pas avec les éditeurs des documents proposés eux-mêmes. S'engendre alors une « économie » bizarre où, obligés de composer avec tous les problèmes juridiques d'un domaine du droit particulièrement complexe, les responsables sont parfois bien démunis.
Dans « Collection development in the digital library », Daniel Jones indique, lui, que les politiques d'acquisition de documents numériques doivent être définies comme pour n'importe quel type de document. Identification, sélection, et même désherbage, restent des tâches traditionnelles, même si s'ajoutent des composantes spécifiques, comme la nécessité de compétences techniques larges, l'attention portée aux interfaces et (ce sera une antienne du recueil) aux droits attachés aux documents. Personne, d'ailleurs, ne semble s'étonner que, désormais, on achète un document pour une durée souvent courte – ce qui relève plus de la location que de l'acquisition proprement dite – et cela d'autant plus que les documents ne sont pas toujours forcément disponibles sur le site de la bibliothèque, mais souvent seulement à distance. Inévitablement ou presque, qui dit politique dit évaluation, le sujet de Barbara Buttenfield dans « Usability evaluation of digital libraries ». Son texte est plus un recensement de procédures d'évaluation des bibliothèques numériques qu'une véritable méthode, mais on en retiendra que, si les politiques d'acquisition des différents types de documents peuvent être comparées, leur évaluation relève de problématiques bien différentes : les attentes et les comportements des usagers ne sont pas les mêmes, et il faut aussi évaluer, en plus des collections, l'infrastructure technique qui les sous-tend.
Des exposés un peu dogmatiques.
Pour clore cette série parfois un peu dogmatique, David Stern lui-même résume, dans « New search and navigation techniques in the digital library », les immenses progrès accomplis dans la recherche des documents, depuis les fiches papier et les rudiments de la logique booléenne appliqués à la recherche en ligne. Désormais, entre les outils de recherche basés sur l'analyse bibliométrique, la push technology qui rappelle fort les recherches sur profil des temps héroïques du ligne à ligne, les hyperliens, les recherches sur des éléments non bibliographiques (la brillance d'un astre par exemple, ou un peu de poésie dans cet univers impitoyable…), les moyens sont innombrables d'affiner les recherches et les résultats. Mais cette profusion s'est aussi accompagnée de celle des bases d'information consultées et, si les recherches simultanées dans des bases hétérogènes sont bien sûr possibles, on est encore loin du respect de standards unanimement reconnus (comme SGML et le DOI-Digital Object Identifier), et plus proches du chaos… d'où nous sortiront, pense l'auteur, les outils de « 3e génération » [sic ], comme les smart agents… même si ces derniers, là encore, rappellent la mythique « intelligence artificielle » dont on attend encore (?) l'avènement.
La deuxième partie de l'ouvrage, « Technical design considerations », s'ouvre avec une des contributions les plus importantes (en longueur) comme son titre pouvait le laisser supposer… Dans « University of Illinois the federation of digital libraries : interoperability among heterogeneous information systems », Robert Ferrer agence une étude de cas très technique autour des différentes architectures informatiques possibles pour les bibliothèques numériques, et les moyens de fédérer ces outils tout en préservant leur autonomie de fonctionnement. La tâche n'est pas aisée qui, une fois de plus, semble passer par le développement d'outils basés sur SGML, même si l'avenir est, pour l'auteur, aux « technologies objet », où (pour faire simple) une modélisation de l'information en facilitera la manipulation. Dans ce souci, la mise en place de réseaux informatiquement complexes se heurte à un obstacle de taille : l'absence de réelle modélisation de l'information bibliographique, notamment pour ce qui est des règles de description, mais aussi pour ce qui est des formats, toutes tâches encore en devenir. Dans le même esprit, Daniel Chudnov, dans « Toward seamlessness with XML », parie quant à lui sur le développement de XML, outil plus puissant que HTML, format de base des pages Web, et plus simple que SGML. La création des métadonnées, notamment, proposerait dès lors des outils de recherche plus puissants et plus pertinents que ce qu'il est actuellement possible de réaliser avec les outils HTML de type « Dublin Core ».
Et l'usager?
Et l'usager dans tout cela? Steve Mitchell, dans « Interface design considerations in libraries », s'y intéresse par le biais d'une synthèse très (trop) longue sur les interfaces d'accès, essentiellement de type Web. Il souligne que les bibliothèques ont, en ces matières, une expérience importante, sachant mesurer notamment la capacité d'adaptation des utilisateurs comme… leur résistance à l'innovation. Il invite les concepteurs d'interfaces à connaître parfaitement les technologies utilisables, mais aussi à s'attacher à la philosophie (on y revient) de l'interaction entre l'homme et la machine. Il faut faciliter une appréhension intuitive des interfaces, qui passe par une sollicitation de tous les sens (ou presque!) de l'utilisateur, notamment pour ce qui est de la présentation graphique, du choix des images ou des symboles, etc., le tout devant tenir compte de l'expérience et des traditions de chacun, ce qui n'est guère facile quand l'outil est censé être accessible au monde entier! Au total, l'article de Steve Mitchell est sans doute l'un des plus consciencieux et des plus maîtrisables par le lecteur non anglo-saxon de l'ouvrage.
Après cette magistrale contribution, les derniers exposés semblent plus anecdotiques. Dans « Grainger engineering library : an object-enhanced user interface for information retrieval », Eric H. Johnson décrit justement une application basée sur l'utilisation des technologies objet, mais hélas sans un souci de vulgarisation suffisant pour que sa présentation offre un intérêt plus général au lecteur. Et l'on regrettera aussi que « MAGIC : a Connecticut collection of geodata for the geo-scientist » (Patrick Mc Glamery), qui relate la constitution d'une base de données Web de données géodésiques, et « Patents in the new world » de Timothy Lee Wherry, sur une base de brevets, se révèlent être la portion congrue des articles ici collectés.
Une impression mitigée
Dès lors, « Digital Libraries » ne laisse qu'une impression mitigée. Si l'on peut recommander, presque par gourmandise, la lecture du « pavé » de Steve Mitchell, le reste des articles agence une vision trop éclatée des bibliothèques numériques pour que, pour une fois, on ne relève pas que, en ce domaine, l'édition française, notamment par le biais de la collection « Bibliothèques » du Cercle de la librairie, mais aussi avec les ouvrages des éditions ADBS (Association des professionnels de l'information et de la documentation), propose déjà des synthèses autrement solides. Il reste que le passionné ou le collectionneur pourront trouver là des pistes et des descriptions parfois solides – mais trop parcellaires pour être à tous recommandées.