entête
entête

Informatique et bibliothèques

Vers la banalisation des outils ?

Dominique Lahary

« Il faut qu’une porte soit ouverte ou fermée. » ; Alfred de Musset

De nombreux bibliothécaires l’ont éprouvé : les relations avec le monde informatique ne sont pas simples. Telle équipe qui planche sur une informatisation parle « d’Unimarc » et de « Rameau » quand les informaticiens en tiennent pour les « SGBDR 1 » et « SQL 2 ». Tel bibliothécaire d’une bibliothèque départementale de prêt, ayant fait un test d’exportation de notices bibliographiques avec une société souhaitant s’implanter dans les bibliothèques rurales, se désole qu’une fois de plus les caractères accentués « ne passent pas ». Comme si en effet le courant ne passait pas, comme si un sentiment d’étrangeté réciproque s’était développé. Le moment est peut-être venu de porter un regard sur les origines de cette étrangeté, avant peut-être qu’elle ne disparaisse, car elle doit disparaître.

L’objet du présent texte n’est pas de présenter une étude technique systématique et documentée des relations entre bibliothèque et informatique, mais de proposer une mise en perspective de celles-ci, en partant du cas de la France. Cet essai se veut moins technique que sociologique et historique. Les bibliothécaires y sont traités comme un groupe social. Quand ils seront désignés collectivement, on admettra qu’il ne s’agit pas de jugements sommaires reposant sur une généralisation hâtive, mais d’un essai d’interprétation de leur comportement comme groupe professionnel.

Le temps de la clôture

Les bibliothèques ne sont entrées que progressivement dans l’usage de l’informatique, en prenant le problème par plusieurs bouts. L’approche catalographique a d’abord été à l’origine de grandes bases de données et de grands réseaux, avant de se diffuser à toutes sortes d’échelles. L’approche gestionnaire a permis, bien avant l’apparition du code à barres, l’automatisation des prêts. Enfin, l’usage périphérique des outils bureautiques a fini par se généraliser, comme dans toute la société.

L’idéal du système intégré

On a d’abord assisté à l’éclosion de systèmes dits « maison », développés sur mini-ordinateurs par des informaticiens de la collectivité, avec l’aide des bibliothécaires. Ensuite sont arrivés les progiciels du marché, qui ont progressivement assimilé la normalisation des échanges de données bibliographiques. Un marché très spécifique s’est alors constitué, entraînant l’apparition d’un secteur hautement spécialisé de l’industrie du logiciel. Il est intéressant de constater que, dans un monde où les fusions de sociétés sont nombreuses, celles que l’on observe dans le secteur des logiciels de bibliothèque vont plutôt dans le sens de la constitution de groupes spécialisés. Informatiser les bibliothèques est un métier si spécifique qu’il n’intéresse personne d’autre que ceux qui « en sont » déjà. Quant aux bibliothécaires, ils s’habituent à évoluer dans un marché qui leur est absolument spécifique et connu d’eux seuls.

Le système intégré de gestion de bibliothèques (SIGB) a constitué la forme d’appropriation de l’informatique par les bibliothécaires. Si celle-ci leur a effectivement permis d’appréhender l’outil, elle les a également enfermés dans un type exclusif de produit. L’idéal du système intégré a représenté ce monde clos dont on attend tout, dans un rapport d’enfant abusif au fournisseur, qui doit répondre à tous les besoins et dispenser d’aller voir ailleurs. Très fort lorsque la micro-informatique – et, partant, d’autres usages de l’informatique que celui du SIGB – était quasiment inexistante dans les bibliothèques, cet idéal a cependant survécu à cette période, d’autant plus facilement que la culture informatique était faible ou inexistante dans une équipe. Souvent, l’utilisation périphérique d’autres outils était vécue comme le symptôme d’une insuffisance du SIGB, comme s’il y avait mieux qu’un traitement de texte pour mettre en forme du texte, et qu’un tableur pour traiter des séries de chiffres.

Étranges systèmes

Les systèmes intégrés de gestion de bibliothèques ont longtemps présenté des caractéristiques qui ne leur permettaient pas d’être légitimes pour les services informatiques. Avant le développement de la micro-informatique, ou en marge de celle-ci, nombre d’entre eux fonctionnaient sur des systèmes d’exploitation rares, tels que PIC. La plupart de leurs systèmes de gestion de base de données (SGBD) étaient propriétaires. Les bibliothécaires n’avaient pas forcément tort de ne guère se soucier de ces particularités, du moment que leurs besoins étaient satisfaits. Mais les informaticiens, eux, s’en souciaient. Ils obtiennent peu à peu – mais pas encore complètement – satisfaction : les systèmes d’exploitation évoluent vers Unix et les diverses figures de Windows, tandis que, les uns après les autres, les SIGB rallient des systèmes de gestion de bases de données du marché.

L’adoption des interfaces graphiques dans les bibliothèques a été lente. On peut d’ailleurs discuter de son urgence en ce qui concerne les tâches de saisie en masse, pour lesquelles le mode caractère n’a pas démontré son inefficacité. Mais la persistance d’interfaces DOS (Disk Operative System) ou de terminaux passifs à la disposition des publics a paru et paraît encore étrange, non plus seulement aux informaticiens, mais aussi (et surtout) aux publics.

Normes et standards

Les normes de catalogage et de référence bibliographique

La fabrication des normes de catalogage par les bibliothécaires eux-mêmes, ou une de leur avant-garde cooptée, est assez naturelle et guère contestée. Des fournisseurs d’information bibliographique s’y conforment, même si leurs clients dépassent largement le cadre des bibliothèques. Mais si cette autorité est respectée, elle n’entraîne guère l’adhésion. La complexité du mode de publication des normes 3 – notamment en France – et son caractère onéreux ne contribuent guère à leur diffusion au-delà des bibliothèques. Ajoutons que l’existence de normes nationales ne se justifie guère. La situation est encore complexe en matière de références bibliographiques, où coexistent toujours des normes et des usages propres à des professions, à des communautés professionnelles ou disciplinaires.

Les formats d’échange… entre qui ?

En 1994, j’avais proposé la formule suivante : « Prenons garde que nos formats d’échange ne nous permettent d’échanger qu’entre nous. » 4.Dans sa contribution au congrès de 2001 de l’IFLA (International Federation of Library Associations and Institutions) à Boston, Alan Danskin, de la British Library, reconnaît : « Paradoxalement, le principal obstacle à l’échange des métadonnées de produits est le format d’échange. » 5

Pourtant, bien des bibliothécaires ignorent le contenu de la norme ISO 2709 qui régit les échanges bibliographiques en format MARC 6. Très particulière avec son répertoire contenant les étiquettes, la longueur et les adresses des champs qui précèdent les données lisibles, elle rebute les développeurs qui n’ont pas encore investi dans le domaine des bibliothèques. Bien qu’elle ne soit explicitement liée à aucun format, elle présuppose cependant une structure qui est celle des formats MARC, avec ses étiquettes et son arborescence à deux niveaux (champs, sous-champ) qui rend difficile la configuration par l’utilisateur d’une table simple de conversion (alors qu’on la pratique couramment avec de nombreux SGBD).

Ajoutons à cela que la codification des caractères, sujet douloureux s’il en est, a fait l’objet de solutions spécifiques aux formats MARC, et parfois à un seul d’entre eux : pour une notice bibliographique en alphabet latin fournie en UNIMARC il faut se référer à la norme ISO 5426 7, solution qui diffère de celle de MARC21 8.

Enfin, et puisque les bibliothécaires ont eu la faiblesse de laisser faire une babélisation des MARC, signalons cette caractéristique remarquable : une notice en format MARC ne s’annonce pas comme telle, et rien dans son contenu ne signale de quel MARC elle relève, ce qui oblige les systèmes importateurs à effectuer des contrôles reposant sur une connaissance fine des diverses variantes.

Nous sommes bien là dans le domaine de « l’entre nous », qui repose sur des codes implicites inconnus des étrangers. En 1996, Serge Salomon émettait cette appréciation : « Dans le processus d’informatisation des bibliothèques des années quatre-vingt, un format de données, élaboré par les utilisateurs dans un contexte technologique tout à fait obsolète (fin des années soixante), a été imposé aux informaticiens. Une modélisation, menée selon les règles de l’art et sans contraintes de l’historique, ne donnerait sans doute pas aujourd’hui le format MARC. » 9 Il est rejoint par Dick R. Millier qui exposait, au congrès de 2000 de l’American Library Association, une série de problèmes liés au format MARC, parmi lesquels sa « complexité inutile. » 10

Nos formats n’ont jamais attiré les non-bibliothécaires. Ils ne se sont pas même répandus dans la plus grande partie des centres de documentation et des bibliothèques très spécialisés. Mais ils nous ont plu, à nous, comme marqueurs professionnels, non pas malgré, mais à cause de leur complexité !

La norme Z39.50

Cette norme, qui est actuellement la seule à permettre de façon incontestable l’interrogation en temps réel de bases hétérogènes, ce qui n’est pas un mince mérite, représente peut-être la dernière figure de l’exception bibliothécaire, tout en concentrant dans son application réelle toutes les difficultés évoquées plus haut. Conçue originellement dans les années quatre-vingt, elle présente les mêmes caractéristiques que les formats MARC : elle est compliquée et spécifique. Elle décrit en effet un protocole… qui n’est autre que le protocole Z39.50.

Si la norme codifie les questions en reprenant d’ailleurs tous les concepts MARC, c’est-à-dire des bibliothécaires, dans toute leur étendue, elle admet plusieurs formats de réponse dont les formats MARC. Naturellement, le monde des bibliothèques applique Z39.50 en transmettant les réponses en MARC, et nous voilà renvoyés aux questions de complexité, de spécificité, de multiplicité des formats MARC et des codifications de caractères.

Lors de la réunion de décembre 2000 du ZIG Z39.50 Implementer’s Group 11, de sérieuses remises en cause se sont exprimées, à partir du constat que la norme était demeurée cantonnée au milieu des bibliothèques 12. Parmi les contributions préparées pour la réunion d’octobre 2001 figure celle de Ray Denenberg qui proclame : « Z39.50 doit s’adapter ou mourir. » 13

Culture technique et comportement professionnel

Très globalement, les bibliothécaires sont entrés en informatique par la culture du format. Or, la structure formelle des formats bibliographiques est si dérogatoire, on l’a vu, qu’elle n’a pas facilité la compréhension entre le monde des bibliothèques et deux autres ensembles : les informaticiens, et les autres secteurs ayant à gérer des données bibliographiques avec des outils informatiques.

L’approche des formats elle-même s’est construite sur une vision naïve qu’on pourrait appeler WYSIWII : « What you see is what is inside » 14. Le format tel qu’il apparaît, à l’affichage comme dans les manuels, est pris comme la structure même de la base de données, alors qu’il est d’abord un format d’échange et que la question du stockage échappe le plus souvent aux bibliothécaires 15. Cela se manifeste souvent par une illusion sur la gestion des accès. On se demande dans quelles zones MARC saisir telle information pour y avoir accès, sans toujours comprendre que l’accès à une base de données repose sur des index, et qu’on ne passe pas automatiquement de l’indexation au sens des bibliothécaires à l’indexation au sens des informaticiens.

Parallèlement, une culture micro-informatique qui a souvent pu demeurer marginale, dédiée à la résolution de problèmes pratiques sans que la culture générale de l’équipe en soit bouleversée, s’est introduite comme par mégarde dans un certain nombre d’établissements, en fonction de variables individuelles. La dernière manifestation la plus spectaculaire de ce phénomène a été l’importation de la culture web, notamment à la suite du recrutement d’emplois-jeunes.

Une étape nécessaire mais révolue

Ce développement séparé a créé un cercle de conformité en dehors duquel rien ne passe, ni système, ni données. Si les bibliothèques classiques ont pu échanger entre elles ou s’abreuver aux mêmes sources, elles se sont trouvées coupées d’un certain nombre de bibliothèques échappant à la conformité orthodoxe, de la plupart des centres de documentation, des autres professions du livre et des autres supports, du monde informatique, et finalement du monde du web. C’est ce que le bibliothécaire américain Dick R. Miller a appelé l’apartheid bibliographique 16. Il y a eu un temps pour la clôture. Ce moment était inévitable, et il faut rendre ici hommage à tous les bibliothécaires... et informaticiens qui ont participé à la constitution de référentiels cohérents. Grâce à eux, les bibliothèques ont su bâtir de grands réseaux et réservoirs bibliographiques, ce qui a au moins eu comme double bénéfice :

– d’éviter des saisies redondantes en privilégiant la récupération de données, encore que des forces de résistance ont en partie œuvré en sens contraire, ce qui rend toujours actuel l’appel lancé par Marc Chauveinc en 1988 : « On ne pourra jamais se passer de notices bibliographiques, mais on devra se passer de les faire » 17 ;

– de rendre possible l’interrogation simultanée de bases hétérogènes, la normalisation permettant à la fois à la base cible de comprendre les questions et au client d’afficher les réponses.

À cet égard, si on les compare à une multitude de structures documentaires non normalisées ou organisées en micro-réseaux, les bibliothèques classiques, malgré la spécificité de leurs standards, se sont retrouvées avec un temps d’avance quand est advenue la généralisation des réseaux. Comme m’a dit un jour Catherine Lupovici : « Quand on n’est pas normalisé, on le paye tôt ou tard. »

Le moment de l’ouverture

On pourrait comparer le monde des bibliothèques à celui d’une puissance économique naissante, qui a eu besoin de passer par une période de protectionnisme avant de pouvoir affronter le libre-échange.

Les agents d’ouverture

La gestion des ressources électroniques primaires

On ne le dira jamais assez : c’est la possibilité de donner accès à des ressources primaires numériques qui a entièrement changé la donne. Au cours des années quatre-vingt-dix, un tournant s’opère : l’informatique, après avoir été calcul, puis outil de gestion, devient média, support massif d’informations. Or, tout le dispositif normatif et technique des bibliothèques reposait sur la seule gestion des informations secondaires. D’un coup, ce dispositif se trouve nié ou dépassé. En outre, dans ce domaine, les bibliothécaires ne sont plus seuls, on ne leur doit nulle révérence pour une expertise d’autant moins contestée qu’on n’a guère l’intention d’en user. Éditeurs, auteurs et diffuseurs de toutes sortes occupent le terrain et l’organisent.

Mais ces ressources primaires font elles-mêmes l’objet d’un traitement documentaire plus ou moins fruste. Il y a bien sûr l’indexation automatique des moteurs de recherche. Il y a aussi la constitution des bases de données simplifiées, avec seulement quelques champs par enregistrement, que sont les annuaires de sites. Il y a enfin, ce qui agite les bibliothécaires qui peuvent y voir une confirmation ou au contraire une négation de leurs traditions, la notion de métadonnées (metadata), ces données sur les données qui peuvent être contenues dans la ressource électronique elle-même ou dans un enregistrement séparé, et qui font l’objet de formalisation comme le RDF (Resource Description Framework 18) et le Dublin Core 19.

Ce dernier, avec ses 15 éléments, fait figure de simplification, de concurrent ou simplement de cousin du catalogage. L’idée se répand que, s’agissant de la description des ressources électroniques, les outils et standards traditionnels des bibliothèques sont trop lourds, et qu’on peut – ou qu’il faut – s’en passer : « Nous pouvons annoncer l’éradication du catalogage dans les bibliothèques pour tous les documents électroniques » annonçait Christian Lupovici 20 en 1996.

L’architecture client-serveur

Le développement de l’architecture client-serveur à la fin des années quatre-vingt a connu un écho dans les bibliothèques, avec un certain retard et des bonheurs divers. On peut dire qu’il a constitué la première injonction ferme venant du monde de l’informatique sur le mode d’informatisation des bibliothèques et il est devenu un incontournable des cahiers des charges de l’informatisation ou de la réinformatisation.

Rappelons que cette architecture permet de distinguer, sur le plan matériel, des machines serveurs et des postes clients, ce qui n’est pas essentiel ; sur le plan logique, des systèmes serveurs et des systèmes clients, ce qui l’est beaucoup plus. Données, traitements et présentations pouvaient être répartis entre les couches clients et les couches serveurs suivant des modèles variables. Le modèle s’est complexifié avec les architectures trois tiers et, finalement, le possible empilement de couches clientes et serveurs.

Mais, outre la généralisation de l’interface utilisateur graphique pour le personnel et les usagers, ou seulement pour ces derniers, cette architecture n’a pas à elle seule modifié radicalement la donne – nombre de systèmes demeurant encore aujourd’hui centralisés – avant l’irruption au début des années quatre-vingt-dix d’un avatar inattendu et étonnamment simple : le web.

Le modèle web

Le phénomène est suffisamment connu pour qu’il soit inutile de développer. Rappelons simplement qu’il a tout bouleversé. On en retiendra ici trois aspects :

– le web devient la référence d’un très large éventail d’utilisateurs, des chercheurs spécialisés à une bonne partie du grand public, dont il modifie la demande et les comportements ;

– il impose une interface utilisateur unique : le navigateur, réglant une fois pour toutes la question des interfaces graphiques ;

– il popularise à une vaste échelle la recherche documentaire, même si c’est avec des outils et méthodes souvent frustes.

Le choc a été durement ressenti par la profession des bibliothécaires au sens large – il faut y inclure les fournisseurs de SIGB. Nous sommes encore largement dans une étape transitoire, qui consiste à interfacer les systèmes existants avec le web en les laissant pratiquement en l’état.

Cette solution n’a rien d’infamant. Ce qu’on appelle les « OPAC web », qui ne sont souvent rien d’autre que l’interfaçage d’un SIGB traditionnel avec le web, apportent une excellente réponse immédiate au danger d’obsolescence des interfaces utilisateurs, tout en apportant quelques fonctionnalités nouvelles, telles que la relance de la recherche sur un élément de la notice et le lien à des ressources en ligne.

Les terrains d’ouverture

Le temps des standards propres à une profession touche à sa fin. Les nouveaux standards sont mondiaux et unissent des secteurs autrefois cloisonnés entre eux.

La globalisation des standards

Les organismes traditionnels de normalisation voient leur rôle battu en brèche par de nouvelles structures formelles ou informelles, occasionnelles ou permanentes. Il s’agit d’abord des organismes de l’Internet : l’IETF (Internet Engineering Task Force) ou le W3C (World Wide Web Consortium), qui déploie une forte activité autour d’XML (eXtensible Mark-up Language 21). Internationaux de droit ou de fait (car nombre de standards américains jouent le rôle de standards mondiaux de fait), indépendants ou issus de sociétés privées, les nouveaux standards s’imposent avec une rapidité confondante si l’on songe au « rythme de sénateur » des comités traditionnels de normalisation.

Les bibliothèques sont particulièrement concernées par la question des formats de documents. XML, structure générique permettant grâce aux DTD (Document Type Definition) ou aux schémas XML de définir avec précision la structure d’un type de documents numériques, s’impose avec force dans tous les secteurs, des archives au commerce électronique. Ces formats vont bien sûr concerner l’information primaire, mais aussi l’information secondaire, y compris l’information bibliographique. Dès 1993, Michel Melot laissait « peu d’espoir » à « ceux qui penseraient que les progrès de l’électronique [...] laissent intacts les champs traditionnels de l’information bibliographique » 22.

Le groupe EDItEUR, qui est soutenu par des fédérations européennes d’éditeurs, libraires et bibliothécaires, a mis au point la norme ONIX, basée sur le XML 23, qui représente un effort sans précédent des éditeurs pour formaliser les données bibliographiques. L’objectif est de fournir un cadre solide à l’EDI (Electronic Data Interchange) dans le domaine du commerce électronique des livres. Il est intéressant de souligner que l’analyse qui a permis la mise au point d’ONIX n’est autre que celle menée dans le cadre de l’IFLA sur les spécifications fonctionnelles pour les notices bibliographiques 24 (Functional Requirements for Bibliographic Records) pour établir une modélisation dépassant le cadre actuel des ISBD (International Standard Bibliographic Description 25).

À l’apartheid bibliographique déploré par Dick R. Miller pourrait succéder, selon l’expression d’Alan Danskin 26, un continuum bibliographique unissant toute la chaîne de production de diffusion et d’information concernant les livres. Si, dans les années qui viennent, nous ne réussissons pas à rapprocher sur ce terrain les acteurs de la chaîne du livre, nous serons impardonnables.

Dans un premier temps, les bibliothécaires s’attachent à comparer les éléments d’ONIX à ceux des formats MARC 27, de même qu’ils ont tenté de traduire ou de faire traduire les formats MARC en SGML 28 ou XML 29. La comparaison est instructive. Malgré leur richesse, les formats MARC manquent d’éléments qui paraissent aujourd’hui indispensables même aux bibliothèques, telles que des données commerciales, économiques et juridiques, jusqu’ici superbement ignorées de nos règles de catalogage.

Ces changements affecteront-ils la structure même des bases bibliographiques ? Tout semble le prouver, mais il est probable que, ainsi qu’il en a été avec les formats MARC, ce sont les échanges qui constitueront leur premier mode de diffusion. Ainsi verrait-on enfin se dissoudre progressivement le cercle de conformité qui enfermait les bibliothèques sur elles-mêmes.

Dans l’immédiat, il est déjà certain que les formats MARC, qui ont, pour reprendre la formule de Jean-Paul Sartre, représenté « l’horizon indépassable de notre temps » – un temps qui n’est plus –, ont achevé leur cycle d’expansion. Ils ne conquerront ni les secteurs anciens qu’ils n’avaient pas encore touchés (les archives se tournent vers XML avec la DTD EAD 30, la BnF l’envisage également pour le catalogage des manuscrits), ni vraiment le secteur nouveau des ressources électroniques locales ou distantes. Même s’il arrive ponctuellement, parce que c’est un outil immédiatement utilisable, qu’on les catalogue dans les SIGB traditionnels disposant d’un OPAC web permettant un lien direct de la notice bibliographique à la ressource 31.

Évoquons enfin l’espoir de la disparition progressive d’une vieille pomme de discorde. En matière de codification des caractères, un système universel est en train de se construire, permettant d’encoder la plupart des écritures, alphabétiques ou non, présentes sur la planète : UNICODE 32. Là encore, c’est par l’échange que devrait commencer à se dissoudre l’ancienne confusion des écritures.

Les voies de l’ouverture

C’est à une véritable divergence entre deux bibliothéconomies que nous assistons 33. D’un côté, le traitement informatique des collections de documents dits physiques demeure encore largement dominé par les SIGB et standards traditionnels. De l’autre, ce sont tous les secteurs et métiers concernés par le traitement des ressources numériques primaires qui avancent ensemble dans la mise au point de nouveaux outils et référentiels, notamment XML et les métadonnées.

Vers la réunification de la bibliothéconomie ?

Il est souhaitable que cette divergence, aujourd’hui nécessaire, finisse par se réduire. La révolution numérique aura alors permis à l’ensemble de la bibliothéconomie, y compris celle qui ne traite que de l’information secondaire portant sur des supports mobiles d’information et de culture, d’avancer. Elle aura peut-être en retour bénéficié de l’acquis intellectuel et normatif accumulé pour traiter ces supports.

Ce processus ne pourra s’observer que par un développement inégal et progressif, l’expérimentation étant le fait de secteurs limités et spécialisés ou de grands établissements. En 2001, une bibliothèque qui se réinformatise doit toujours se tourner vers un SIGB gérant au moins un format d’échange MARC, même si elle doit s’inquiéter avec le service informatique du système d’exploitation et du SGBD, envisager un OPAC web et éventuellement se poser la question du système d’information.

Multiplication et/ou intégration des systèmes ?

Le système d’information, envisagé dès 1988 par Christian Lupovici 34, fait florès. Est-ce à dire qu’après le triomphe du système intégré on assiste à celui de l’intégration de systèmes ? Sans aucun doute, à condition d’appréhender cette étape avec pragmatisme. Enfermer l’ensemble des services d’information numérique d’un établissement dans un tout cohérent apparaissant, à un moment donné, comme répondant à tous les besoins, c’est rejouer la clôture.

C’est plutôt à un assemblage de briques qu’on peut comparer la construction d’un système d’information. Elles sont indépendantes les unes des autres, mais le respect d’un même standard permet leur combinaison. Ce qui n’interdit naturellement pas le recours à ces nouveaux venus du paysage de l’informatisation des bibliothèques que sont les intégrateurs de systèmes multimédias qui, à côté du SIGB ou en l’englobant, donnent au public des outils d’accès aux ressources diverses, locales et distantes, numériques ou non, proposées par la bibliothèque.

Le triomphe du navigateur web comme interface utilisateur universelle permet d’envisager l’intégration de systèmes au moins au niveau du client (du poste client, du logiciel client qu’est le navigateur). Quant à la question de la polyvalence des postes, elle est également à considérer avec pragmatisme. Idéalement, n’importe quelle ressource doit pouvoir être accessible depuis tous les postes. Pratiquement, il peut être utile de spécialiser tout ou partie des postes pour éviter les concurrences d’usages.

Si l’on s’oriente de plus en plus vers l’interface unique pour le public, on peut admettre pour le personnel, à partir d’un même poste, l’accès à de multiples progiciels et bases de données. Plus que jamais, les bibliothécaires s’approprient des outils standards adaptés à des tâches spécialisées mais répandues, comme le calcul, la gestion de planning, le contrôle de gestion, la publication assistée par ordinateur. L’important c’est que les données, en particulier celles qui sont gérées dans le SIGB, puissent être extraites et réutilisées avec l’outil le plus adapté à chaque situation.

Pour un aggiornamento culturel

Ne nous y trompons pas : nous n’assistons pas à une nouvelle guerre des formats, comme celle qui opposa naguère les bibliothécaires entre eux. Il s’agit aujourd’hui de rapprocher les bibliothèques du reste du monde. C’est à une mise à jour de notre culture technique et normative que nous sommes conviés. Cet aggiornamento représente un double défi :

– reconnaître ce qui, dans la révolution numérique en cours, relève de la tradition bibliothéconomique (décrire, indexer, rechercher) ;

– réinvestir à bon escient notre capital dans les nouveaux outils en cours d’élaboration.

Au fond nous n’assistons à rien d’autre qu’à une globalisation documentaire. Sachons en être les agents actifs et avisés.

Octobre 2001