entête
entête

La bibliothèque hybride

Peter Brophy

Le concept de « bibliothèque hybride » est apparu au cours des cinq dernières années, avec le développement, dans toutes les catégories de bibliothèque, de services de documentation et d’aide à la recherche fondés sur les technologies de l’information et de la communication, venus s’ajouter aux activités plus traditionnelles autour de l’imprimé et du contact direct avec le public.

Sans que l’on puisse exactement en retracer l’origine, ce concept s’est imposé lors du lancement de la troisième et dernière phase du Programme des bibliothèques électroniques du Royaume-Uni (eLib). Chris Rusbridge, alors responsable de la mise en œuvre de ce programme, le définissait comme suit : « La bibliothèque hybride a été conçue pour rassembler dans le contexte d’une bibliothèque opérationnelle un large éventail de technologies issues de différentes sources, et aussi pour commencer à étudier les systèmes et les services intégrés dans deux sortes d’environnement : électronique et imprimé. La bibliothèque hybride devrait inclure l’accès à tous […] les types de ressources […] au moyen des diverses technologies utilisées dans le monde des bibliothèques numériques, quels que soient les supports » 1.

Services traditionnels et services numériques

Ce concept reconnaît donc que ni les services « traditionnels » (à partir de collections imprimées), ni les services électroniques ne sauraient en eux-mêmes constituer des solutions appropriées. Les uns et les autres présentent en effet des inconvénients.

Dans le modèle traditionnel :

– chaque document (livre ou numéro de périodique, volume si les périodiques sont reliés) doit être utilisé successivement (un seul lecteur à la fois) ;

– la bibliothèque ne peut stocker qu’un choix limité de l’ensemble des documents susceptibles d’intéresser ses lecteurs ;

– les processus de publication et les longs délais qu’ils impliquent depuis l’auteur jusqu’à l’éditeur d’abord, puis à l’imprimeur, au diffuseur, à la bibliothèque, font que les documents sont déjà obsolètes lorsqu’ils sont intégrés aux collections ;

– les coûts d’acquisition et de conservation des documents peu demandés sont particulièrement élevés, notamment à cause des dépenses en personnel et en locaux ;

– la manipulation physique des documents (rangement ou nettoyage des étagères) s’avère elle aussi très onéreuse ;

– les documents souvent consultés, les manuels, par exemple, s’abîment et doivent être remplacés, à condition bien sûr qu’ils soient toujours disponibles.

Dans le modèle électronique :

– la qualité des sources est souvent incertaine, ou tout simplement invérifiable ;

– il est difficile de parcourir un document en détail, car l’affichage se fait uniquement page écran après page écran ;

– le modèle économique pose question, dans la mesure où il se traduit par d’importantes restrictions dans la consultation d’informations de valeur, lorsque les fournisseurs veulent empêcher toute « fuite » de leurs documents dans le domaine public ;

– la conservation de ces documents reste une question ouverte, et les dispositions en matière de dépôt légal sont très limitées ;

– la bibliothèque électronique contribue peu à l’interaction sociale, car les études « collectives » par le biais de ces technologies ont encore un caractère artificiel et une portée limitée qui les rendent peu attirantes. Le virtuel ne possède pas encore tous les attraits du réel !

Cette brève analyse démontre que les indéniables atouts du modèle électronique ou numérique ne suffiront très probablement pas à assurer sa domination exclusive dans un avenir prévisible. Non seulement, en effet, la bibliothèque traditionnelle, largement articulée autour de l’imprimé, présente encore un certain nombre d’avantages, mais de plus ce « système patrimonial » (tant sur le plan du contenu que des infrastructures, y compris en ce qui concerne la publication sur des supports traditionnels) représente des investissements énormes, qui se sont renforcés au fil des ans et gardent une immense valeur. Il serait inconcevable que la société tire un trait sur des connaissances séculaires toujours, et uniquement, disponibles sur papier. Au-delà de ces considérations, tout indique que l’imprimé reste le support privilégié pour la plupart des publications courantes.

Cela veut dire que l’on continuera à offrir à la majorité des utilisateurs une variété de supports et de services. Le défi que doivent relever les responsables de bibliothèque consiste à créer des services intégrés à même d’offrir à l’utilisateur un service qui lui soit transparent. En d’autres termes, il faut que l’utilisateur puisse accéder aux services à l’aide d’interfaces cohérentes et compatibles (pour n’être pas, par exemple, obligé d’ajuster ses stratégies et ses syntaxes de recherche chaque fois qu’il désire utiliser une ressource différente). Ce souci a entraîné le développement de « guichets », autrement dit de points d’accès aux mines d’information disponibles dans le monde entier. Ces guichets doivent comprendre aussi bien des ressources électroniques en texte intégral que des « pointeurs » bibliographiques vers des documents édités sur des supports traditionnels. Ils sont une composante essentielle de la bibliothèque hybride.

Un nouvel élément vient s’ajouter à cela, lorsque l’on envisage chaque bibliothèque particulière dans un contexte plus large. Ce contexte peut être géographique (l’aire urbaine desservie, par exemple), ou relatif à un domaine particulier (la musique ou la médecine), ou encore défini par rapport à des intérêts communs (ce qui est le cas lorsque plusieurs grandes bibliothèques universitaires coopèrent pour élaborer un catalogue collectif de leurs collections). Il est nécessaire de concevoir un guichet pour présenter ces groupements de ressources aux utilisateurs individuels comme s’il s’agissait en fait d’un ensemble unique. De tels groupements sont baptisés « bouquets » (clumps) au Royaume-Uni, terminologie assez peu élégante, il est vrai, et qui ne semble d’ailleurs pas recueillir un large consensus.

Pour donner un exemple concret tiré de la troisième phase du programme eLib, on pourrait présenter un « bouquet musique » comme s’il s’agissait d’une ressource unique, accessible aux utilisateurs de toutes les bibliothèques qui participent à ce programme 2. Dans certains cas, bien sûr, il faut pouvoir identifier la bibliothèque source, afin de permettre aux utilisateurs de s’y rendre pour consulter les collections sur place. La gestion des « bouquets », ou des regroupements de ressources, est par nature complexe puisqu’elle repose sur des accords de coopération entre des établissements différents, qui ont chacun des ressources particulières, un public particulier et des objectifs particuliers.

Le concept de bibliothèque hybride offre aux professionnels un modèle de développement en prise avec les contenus et les services hétérogènes du monde réel. D’où l’immense intérêt qu’il a suscité dans le secteur des bibliothèques universitaires du Royaume-Uni, où s’est développé le concept associé de la Distributed National Electronic Resource (DNER). Financée et mise au point par le Joint Information Systems Committee (JISC), la DNER est définie comme « une gestion d’accès sur Internet à des ressources validées » 3. Ailleurs, elle est aussi présentée en tant que « collection de référence de ressources électroniques » 4, ou comme « l’élément moteur à la mise en place de ressources électroniques, dont l’accès doit être transparent pour l’utilisateur » 5. Autant de définitions pour le moins audacieuses.

Distributed National Electronic Resource

Le Cerlim (Centre for Research in Library and Information Management) s’est engagé à l’automne 2001 dans une évaluation d’importance de la DNER, qui devrait se poursuivre jusqu’à l’été 2003. Une partie de cette enquête, et des études menées antérieurement sur la bibliothèque hybride, permettent d’avancer que la DNER emprunte aux dix modèles suivants.

Édition

Comme c’est le cas de tous les services qui ont trait à la communication savante, certaines des caractéristiques de la DNER la rapprochent à la fois des modèles d’édition traditionnels ou de ceux en émergence. Elle impose, par exemple, de s’assurer de la qualité des informations et de mettre en place des moyens pour faciliter la diffusion de ces informations, souvent sous forme payante. Il faut souligner qu’un des fils conducteurs de la DNER, encore à concrétiser, concerne la publication de « données institutionnelles » (des modules d’apprentissage par exemple).

Bibliothèque traditionnelle

Il existe de nombreux modèles de bibliothèque traditionnelle, mais il semble que la DNER reproduise ou remplace certaines de leurs fonctions, comme la gestion et la description des contenus, leur archivage (conservation), l’accès à des services de renseignements et à des « espaces » – en l’occurrence virtuels – d’étude. Une tension dynamique est ainsi créée entre les bibliothèques et la DNER, puisque chacune s’intéresse aux conséquences que peut entraîner la suppression de la médiation dans l’offre des services proposés à l’utilisateur final.

Musées

Certains projets ont été explicitement élaborés pour numériser les collections des musées. On peut également établir des parallèles directs avec les fonctions muséographiques traditionnelles qui consistent à ordonner les documents de façon cohérente pour des expositions thématiques – ou, là aussi, à en assurer la préservation.

La bibliothèque numérique

De façon peut-être plus évidente, malgré une définition complexe, la DNER a des caractéristiques de bibliothèque numérique. Il s’agit en effet d’ « une collection organisée de données multimédias, où les méthodes de gestion de l’information présentent les données en tant qu’information et en tant que savoir 6 ».

Bibliothèque hybride

Cette idée dont il a été question plus haut a notablement influencé la réflexion autour de la DNER elle-même.

Portails

S’agissant de la DNER, les portails correspondent à des listes ordonnées de ressources Internet ; à cet égard, les portails thématiques eLib, désormais intégrés au Resource Discovery Network (RDN 7) sont des éléments clefs de la DNER. Plusieurs autres portails du même type sont à l’étude.

Guichet électronique

Si l’on se réfère aux définitions proposées dans le contexte de la DNER, la différence entre guichet et portail tient à ce que, dans le premier cas, l’utilisateur n’est pas dirigé vers un autre site en réponse à sa demande d’information (comme, par exemple, lorsque l’on clique sur une adresse URL affichée par le portail). Le guichet traite la demande, interroge lui-même une série de ressources, interprète « intelligemment » les résultats (en éliminant par exemple les doublons), puis présente un bilan de la recherche à l’utilisateur. Le développement des guichets au sein de la DNER en est encore à sa phase initiale.

Environnement d’apprentissage accompagné

Ce type d’environnement devrait comporter, non seulement des structures de communication, des documents et des cours en ligne nécessaires à l’apprentissage virtuel, mais aussi toute l’infrastructure de soutien qui va avec. Il est donc difficile de ne pas en déduire que la DNER doit en fait s’affirmer comme une composante intégrée des environnements institutionnels d’apprentissage accompagné.

Université électronique

De portée plus vaste que l’environnement d’apprentissage accompagné, l’université électronique doit inclure une grande variété de services lui permettant d’offrir et de fournir ses productions via les réseaux électroniques. Cela signifie avoir, au minimum, une marque distinctive, une garantie de qualité, une politique de subventions et des systèmes financiers. On pourrait une fois de plus souligner à bon droit que la DNER au niveau national et les bibliothèques hybrides au niveau local doivent fonctionner en cohérence avec nombre de ces fonctions, et si possible leur être intégrées.

Point.com

En dépit de ses difficultés, le secteur point.com est riche d’enseignements pour décrire la DNER. En quelques mots, il suppose à la fois une marque bien identifiée et un produit de grande qualité, des techniques de marketing éprouvées, des moyens de paiement fiables mais simples, des mécanismes d’acheminement sûrs et rapides. Autant d’éléments indispensables à la DNER.

En résumé, la DNER est une forme hybride, non seulement de par son objectif – assurer la mise à disposition de ressources imprimées et électroniques –, mais aussi du fait de plusieurs autres aspects de son architecture. Elle entend réunir les modèles les plus divers de fourniture d’information et les présenter de manière cohérente. Étant donné l’extrême importance des structures de validation qui accepteront le contenu obtenu à partir de si nombreuses sources, le Joint Information Systems Committee a récemment entrepris de réfléchir à l’instauration d’un « Environnement de l’information » (IE), sorte de superstructure susceptible d’accueillir toutes les formes d’information et l’ensemble des services qu’elles génèrent.

De l’idée à sa réalisation

Les bibliothèques hybrides et les bouquets ne se mettent pas en place du jour au lendemain, et avant de pouvoir instaurer des services productifs, il faut s’atteler à résoudre toute une série de questions cruciales relatives au secteur recherche et développement. Un certain nombre de ces questions ont été prises en compte lors de la troisième phase du programme eLib, dans les projets de « Bibliothèque hybride ». Le projet « HyLiFe » (Hybrid Library of the Future), mené en partenariat avec le Cerlim, avait ainsi trait aux problèmes d’organisation et d’encadrement, et il a conduit à la publication sur le web d’une boîte à outils 8.

La suite de cet article passe brièvement en revue quelques-unes des questions majeures qu’il reste à traiter.

L’interopérabilité

L’intéropérabilité est sans doute la plus importante des questions liées à la bibliothèque hybride. On peut la définir comme l’exigence d’une interaction harmonieuse et sans intervention humaine, de l’ensemble des services. Le Royaume-Uni a créé un « Point d’interopérabilité 9 » pour aider les concepteurs de services à débattre de cette question. Il a été recommandé de l’aborder selon cinq angles d’approche différents :

1. L’interopérabilité technique porte sur les normes nécessaires à l’interaction des systèmes, ainsi qu’au stockage, au transport et à la communication des données.

2. L’interopérabilité sémantique se propose de normaliser la terminologie utilisée pour décrire les objets ou les concepts ; l’interopérabilité au niveau sémantique pourra par exemple s’appuyer sur l’usage d’un thésaurus.

3. L’interopérabilité politique et/ou humaine concerne l’exercice du contrôle des ressources, comme par exemple les décisions portant sur leur mise ou non à disposition, ou sur la capacité du personnel à manipuler des systèmes complexes dont chacun pose des problèmes particuliers dès lors qu’il s’agit de transformer le produit final en un service intégré.

4. L’interopérabilité intersectorielle a pour but de faciliter les échanges de données et de collections de nature informative entre des secteurs ou des milieux différents. Le Cinquième programme cadre de la Commission européenne vise ainsi à promouvoir les échanges entre les bibliothèques, les musées, les galeries d’art et autres « institutions de la mémoire ».

5. L’interopérabilité internationale porte, entre autres, sur les questions d’ordre linguistique et culturel.

L’adoption généralisée du protocole « Recherche et récupération » Z39.50 est un des résultats les plus significatifs de la réflexion entamée ces dernières années autour de l’interopérabilité 9. Z39.50 permet aux utilisateurs de consulter simultanément plusieurs bases de données. Il a avant tout été défini pour fournir des règles de paramétrage aux concepteurs et aux vendeurs de systèmes de bibliothèques ou en réseau, de façon à assurer l’interopérabilité des produits obtenus. Il s’agit toutefois d’une norme d’application étendue, ce qui explique que quantité d’applications ne la respectent pas intégralement, ou l’interprètent de façon différente. De ce fait, on a aujourd’hui affaire à tout un éventail de profils Z39.50, qui limitent le choix des normes de base et ne spécifient les options d’application que dans la mesure où elles sont nécessaires pour optimiser les chances de réussite de l’interopérabilité. Le profil retenu à Bath est sans doute le plus connu 10.

On peut désormais parler de masse critique en ce qui concerne l’usage de Z39.50 dans les bibliothèques et autres services, mais pour approfondir avec succès les recherches documentaires, il faut également prévoir un descriptif informatisé des catalogues de bibliothèque. Cet impératif est décrit plus en détail ci-dessous.

La description des ressources

La description des ressources pose des questions multiples et complexes. La bibliothèque hybride entend offrir à ses utilisateurs la possibilité d’accéder de manière transparente, non seulement aux divers catalogues, mais aussi à un large choix d’autres ressources. Au niveau du document individuel, les incohérences dans les méthodes de catalogage et les normes appliquées compliquent la recherche croisée dans les catalogues des différents établissements concernés. La diversité des systèmes d’information aggrave encore ces difficultés.

Au niveau des collections, le problème fondamental consiste à élaborer un système de guidage pour accéder aux informations contenues dans chaque base de données et à définir les conditions de cet accès. Faute d’un descriptif des collections (qui pourrait permettre de juger, avant d’entreprendre la recherche, de la pertinence des collections et de leur accessibilité), les utilisateurs tenteront sans doute d’effectuer une recherche croisée sur l’ensemble des bases de données (catalogues). D’où, bien sûr, des problèmes d’extensibilité (voir plus bas), provoqués par une évidente surcharge des systèmes, des catalogues et des réseaux dès lors que l’utilisateur essaierait d’interroger en même temps des dizaines, voire des centaines de bases de données. Un descriptif automatisé des collections permettrait de choisir au préalable les catalogues à consulter. Ce point fait actuellement l’objet d’un grand nombre d’études et de travaux au Royaume-Uni 11.

Les types de ressources et de collections que la bibliothèque hybride peut notamment décrire sont celles des bibliothèques, des musées et des centres d’archives ; les listes de ressources sur Internet ; les portails thématiques (par exemple, en ce qui concerne le Royaume-Uni, SOSIG 12, PSIGATE 13 et EEVL 14) ; les bases de données en texte intégral ; les collections d’images ; les ressources sonores ; les logiciels et les données de transmission en continu émises par les satellites ou les grandes stations scientifiques expérimentales (tel le Laboratoire européen pour la physique des particules, CERN). Tout le monde s’accorde à penser qu’un des problèmes clefs porte en l’occurrence sur la standardisation des métadonnées nécessaires à la description des ressources, d’où l’attention accordée à l’ensemble de métadonnées du Dublin Core (DC) 15, spécifiquement destiné à faciliter l’identification des ressources électroniques. Conçu à l’origine pour une description par les auteurs des ressources du Web, il intéresse vivement les différents organismes qui doivent entreprendre la description formelle des ressources, notamment les bibliothèques mais aussi les musées, les centres d’archives, les institutions gouvernementales ou les entreprises commerciales. Malgré sa « simplicité » affirmée et le fait qu’il s’adresse autant aux profanes en catalogage qu’aux spécialistes de la description des ressources, il ne lève cependant pas toutes les difficultés inhérentes à l’adoption d’un format de description standard utilisable aussi bien pour des articles que pour des collections.

Il existe plusieurs types de métadonnées donnant, à propos d’une même ressource, plusieurs sortes d’informations. Elles peuvent être descriptives ou analytiques, en rapport avec le format, la localisation, les droits d’accès, la provenance de la ressource… Elles peuvent aussi faire partie intégrante de la ressource qu’elles décrivent (cas d’une page web, par exemple), ou n’avoir aucun lien intrinsèque avec elle (s’il s’agit de la description à part d’un document figurant dans un fonds d’archives distant). Il faut en outre compter avec les différents utilisateurs, leurs exigences particulières et les différents fournisseurs de ressources. D’où les tensions inhérentes à l’utilisation des métadonnées entre fonctionnalité et simplicité, extensibilité et interopérabilité. Ces facteurs, parmi bien d’autres, laissent supposer qu’on ne disposera pas à l’avenir d’un format de métadonnées unique, monolithique, mais plutôt de séries d’ensembles interopérables maintenus par les différents secteurs professionnels. Les organismes concernés par la description des ressources ont d’ores et déjà mis en place des structures spécialisées, chargées de créer de riches ensembles de données descriptives à même de satisfaire les exigences propres à des domaines spécifiques, et représentées dans des systèmes. L’avenir passe donc plus par l’interopérabilité que par la fusion.

L’extrême diversité des métadonnées sur le web réclame une infrastructure conçue pour gérer des ensembles de métadonnées complémentaires et conservés indépendamment les uns des autres. La nécessaire compatibilité entre les divers ensembles de métadonnées explique les avancées de l’ « architecture en conteneur » dont on a un exemple avec le Resource Description Framework 16. Le RDF porte sur des questions de structure, en l’occurrence les codes de définition des données descriptives du Dublin Core, ou tout autre ensemble préalablement défini. XML fournit la syntaxe du codage des métadonnées en RDF.

Authentification, autorisation et payement

L’authentification, pour reprendre la définition de Lynch, consiste à préciser l’identité d’un utilisateur dans un contexte donné 17. L’autorisation, qui accompagne l’authentification, consiste à contrôler les niveaux d’accès aux ressources permis à cette identité reconnue. Selon Pinfield 18, l’authentification et l’autorisation intéressent au premier chef la bibliothèque hybride, dans la mesure où celle-ci doit, d’une part, disposer d’informations sur les utilisateurs et leurs préférences personnelles, et, d’autre part, connaître précisément les ressources qu’ils sont autorisés à consulter en vertu de leur appartenance à un milieu professionnel ou à un groupe particuliers. Les facteurs qu’il s’agit ici de prendre en compte ont trait à la définition de l’ « utilisateur », à la prolifération des identités d’utilisateur et des mots de passe nécessaires pour accéder à des services individuels, à la charge administrative que suppose la gestion de la procédure d’authentification, à l’accès aux services payants, enfin à la nécessité de disposer d’un cadre de critères d’authentification.

Le premier point, la définition de l’ « utilisateur », s’avère problématique. La diversité des catégories de lecteurs de bibliothèque entraîne déjà des problèmes d’accès pour certains groupes (les emprunteurs extérieurs ne peuvent pas toujours consulter les ressources, du fait des restrictions des licences d’exploitation). Offrir à différentes catégories de lecteurs des droits d’accès différenciés aux réseaux électroniques pose des problèmes importants, ne serait-ce que parce qu’un même utilisateur peut avoir des identités différentes (un enseignant rattaché à une institution, par exemple, peut suivre un cours de remise à niveau dans une autre, et occuper au sein d’une association professionnelle une position assortie d’un accès privilégié aux publications de cette dernière, tout cela en utilisant le même ordinateur).

Le réseau ouvert d’Internet fonctionne très largement sans procédure d’authentification centralisée. Les difficultés surgissent à partir du moment où les utilisateurs essayent de naviguer entre des ressources auxquelles s’appliquent des limitations d’accès différentes. La multiplication des identités d’utilisateur et des mots de passe est à cet égard symptomatique. Elle est non seulement encombrante, d’un simple point de vue administratif, mais, qui plus est, les utilisateurs les recopient et s’exposent ainsi à de possibles abus. Les filtres IP, où l’adresse de l’ordinateur sert à vérifier les droits d’accès, ne permettent plus d’identifier l’individu et bloquent de surcroît l’accès des utilisateurs extérieurs. Ils n’offrent donc pas de vraie solution au problème.

Pour offrir aux utilisateurs un accès transparent à l’information, il est primordial de rationaliser les procédures d’authentification. Il existe certes des systèmes conçus spécifiquement pour la création et la gestion des comptes d’utilisateur (tel ATHENS, au Royaume-Uni 19), mais ils reposent toujours sur un modèle d’administration centralisée. Une autre formule apparaît aujourd’hui avec le développement des « Autorités de certification », autrement dit des organismes qui publient des certificats numériques utilisant des techniques de cryptage pour permettre la vérification électronique de l’identité de l’utilisateur. À ce jour, cependant, les applications en bibliothèque se comptent sur les doigts d’une main.

Les choses se compliquent encore lorsque l’utilisateur souhaite accéder à des services payants. Au-delà des questions d’autorisation et de paiement (qui va payer pour l’accès et pour la fourniture des documents ?), il faut en effet déterminer au préalable comment le règlement sera effectué électroniquement, qu’il s’agisse de dédommager l’institution d’accueil (cas par exemple du prêt entre bibliothèques) ou les fournisseurs d’information extérieurs (en cas de demande urgente, par exemple).

Extensibilité et pérennité

L’extensibilité désigne la capacité des solutions à être appliquées largement au sein d’un service, ou de l’ensemble des établissements d’enseignement supérieur, ou encore de toutes les bibliothèques et services de documentation. Maintes réalisations qui fonctionnent de façon satisfaisante avec un nombre restreint d’utilisateurs échouent à évoluer à une échelle supérieure, soit parce que le logiciel n’est pas conçu pour une population importante, soit parce que les frais généraux de fonctionnement et de gestion sont trop élevés. Ainsi, un projet exigeant que les utilisateurs s’équipent d’un logiciel déterminé (une carte son, par exemple) ne pourra pas être adapté à tout le secteur de l’enseignement supérieur même s’il fonctionne parfaitement au sein d’une institution donnée (aussi longtemps en tout cas que les utilisateurs ne demandent pas à pouvoir y accéder de chez eux). Le plus souvent, c’est l’effort demandé pour faire fonctionner un service qui freine son développement. L’expérience acquise en la matière au Royaume-Uni montre que ces problèmes sont une des raisons les plus fréquentes de notre impuissance à transformer les bibliothèques électroniques pilotes en services viables.

La pérennité désigne quant à elle la capacité d’un service à se maintenir dans la durée. Le projet à l’étude va-t-il pouvoir, premièrement se maintenir en tant que service, deuxièmement « grandir » en fonction des besoins des utilisateurs ? Le premier point souligne que s’il va sans doute falloir faire un surcroît d’efforts pour réaliser le projet, il faudra ensuite que le service fonctionne à coûts et charge minimaux, comme l’un, et l’un seulement, des multiples services proposés par la bibliothèque. Quant au second point, il reconnaît que l’environnement et les technologies évoluent et changent au fil du temps, et qu’il faut en tenir compte pour assurer le maintien et le développement du nouveau service. Pour prendre un exemple, sa viabilité serait remise en cause s’il dépendait d’un logiciel exclusivement conçu pour Windows 3.1, qu’il faudrait entièrement reformuler pour l’adapter à Windows 2000 ou Windows NT.

Les concepts d’extensibilité et de pérennité sont indissociables. Une analyse approfondie de l’infrastructure technologique adoptée par l’institution de tutelle de la bibliothèque et une étude prospective sur son évolution probable peuvent, à condition d’être entreprises suffisamment tôt dans la conception d’un nouveau projet, garantir dans une large mesure qu’il sera à la fois extensible et pérenne.

L’accessibilité

La disparité entre le développement rapide des produits électroniques et la capacité des utilisateurs – en particulier ceux atteints d’un handicap – à accéder à ces documents, pose un problème qui n’est pas traité avec l’attention qu’il mérite, du moins au Royaume-Uni. Ce problème n’a rien de mineur : on estime en effet que près de 2 % de la population du Royaume-Uni souffrent d’un grave déficit des fonctions visuelles 20. La proportion des personnes atteintes d’un handicap auditif ou moteur, ou de dyslexie, est plus importante encore. La nature de plus en plus multimédia des documents numériques, l’utilisation de l’image et du son pour transmettre l’information elle-même (et non plus simplement à titre d’élément décoratif) rendent de fait une quantité considérable de documents et d’interfaces inutilisables.

Sur le plan international, le World Wide Web Consortium (W3C) a récemment promulgué une Initiative relative à l’accessibilité sur le web (WAI, pour Web Accessibility Initiative), contenant des directives utiles pour l’accès aux ressources du web 21. Dans un de ses derniers rapports, le Cerlim avance des propositions pour encourager une approche croisée systématique à même de garantir l’accessibilité de tous les services de bibliothèque du Royaume-Uni 22. D’autres études aujourd’hui en cours devraient permettre d’identifier les procédés de recherche et de récupération de l’information dont se servent les utilisateurs aveugles ou malvoyants 23.

Les nouveaux modèles de bibliothèque

On peut voir dans le travail sur l’évolution de la bibliothèque hybride entrepris au Royaume-Uni une tentative concrète de définir de nouveaux modèles de ce que doit être la bibliothèque à l’ère de l’information. Il est évident que le modèle classique de la « collection », celui qui, pendant des années, a privilégié la constitution et le développement des collections, a fait son temps. Le modèle « des systèmes », qui amenait à penser la bibliothèque en fonction des différentes opérations (acquisitions, catalogage, classement, prêt…) à effectuer, garde sa valeur d’outil organisationnel et administratif, mais il ne saurait décrire la mission des bibliothèques dans l’espace de l’information au sens large. Quant à ceux qui prédisent « la mort de la bibliothèque » sous prétexte que les services électroniques régiront bientôt le monde de l’information, ils oublient tout simplement que les bibliothèques ont un autre rôle à jouer que celui de simples mécanismes de diffusion de l’information. Il est donc devenu nécessaire d’adopter un nouveau modèle.

L’approche à cet égard la plus prometteuse est celle qui considère la bibliothèque comme un « intermédiaire expert » entre le champ à peu près illimité des informations potentiellement disponibles sur la planète et l’utilisateur individuel qui tente de s’y repérer et de transformer ces informations en connaissances personnelles ou professionnelles. Owen et Wiercz 24, Lagoze et Fielding 25, Dempsey, Russell et Murray 26, Brophy 27, et bien d’autres ont creusé cette idée dont l’examen dépasse toutefois largement le cadre de cet article.

Le concept de bibliothèque hybride traduit une réflexion sérieuse pour explorer et développer « les bibliothèques de demain », telles qu’elles fonctionneront dans le monde réel (celui où l’information circule déjà en réseau dans un environnement planétaire) sans rien perdre de leur richesse, de leur diversité, sans renoncer à leurs valeurs ni sacrifier la valeur de la bibliothèque traditionnelle. Le temps seul se prononcera sur la validité de ces nouveaux modèles, mais à présent que nous sommes effectivement entrés dans le XXIe siècle, ce sont eux qui semblent ouvrir la voie la plus prometteuse au développement de bibliothèques soucieuses de répondre aux besoins de leur public et de remplir pleinement leur mission à l’âge de l’information.

Mars 2002