Mettez un moteur dans votre catalogue

Jean-Claude Utard

Pour qui et pour quoi continuer à cataloguer et à indexer dans nos établissements ? N’y a-t-il pas lieu et urgence de seulement dériver des notices ? Peut-on établir un état du catalogage aujourd’hui dans les bibliothèques et faire le point sur l’offre des fournisseurs de notices ? Les transformations actuelles ou à venir du catalogage se répercutent-elles sur l’évolution de nos métiers ? Telles sont quelques-unes des questions que la section des bibliothèques publiques de l’Association des bibliothécaires français avait voulu aborder en organisant, le 26 mars 2002, une journée au titre dynamique : « Mettez un moteur dans votre catalogue ». Cette appellation avait également un mérite : elle élargissait les interrogations précédentes, puisqu’elle renvoyait immédiatement à une comparaison avec les moteurs de recherche sur Internet.

Les raisons d’être du catalogage

La matinée donna le cadre général, en évoquant tout d’abord les raisons d’être du catalogage, puis en entamant la comparaison avec ce qui se fait ailleurs que dans les catalogues de bibliothèques.

Isabelle Dussert-Carbone (Bibliothèque publique d’information) rappela, d’entrée de jeu, que l’important n’était pas la norme, mais le public : « Quand on catalogue, on doit se mettre dans la peau de la personne à l’autre bout. » Et elle observa que l’on manque cruellement d’études et d’observations sur la ou les manières dont les usagers cherchent et utilisent – ou n’utilisent pas – les catalogues. Les objectifs d’inventaire des catalogues sont au service de l’accès aux documents par les utilisateurs, ce qu’énoncent les « principes de Paris », définis en 1961 par la conférence de l’Ifla : « Le catalogue doit être un instrument efficace pour pouvoir accéder à un document. » Le second principe directeur fut ensuite celui du contrôle bibliographique universel dont le but est, par l’obtention de données très concentrées, très synthétiques (« déjà des métadonnées »), de décrire et de faire connaître tous les documents publiés et donc de les rendre potentiellement accessibles.

Ces principes servirent à élaborer la première norme internationale de catalogage, la norme ISBD de 1971, puis l’ensemble des normes qui aujourd’hui s’empilent les unes au-dessus des autres pour suivre l’évolution des techniques. Cet ensemble a pour but d’élaborer une langue commune pour faciliter l’échange des données : on est donc passé successivement de la description normalisée des documents au codage et à la structuration de ces données et de leurs accès, par les formats Marc et la norme Iso 2709, puis à la codification de la connexion entre les systèmes informatiques (Z39.50) pour qu’un système puisse en interroger un autre ou pour interroger de manière simultanée plusieurs catalogues.

La dernière étape est celle des réseaux, qui doivent simplifier le travail en évitant la redondance du catalogage, et mettre à disposition des notices de plus en plus performantes. En récupérant ces notices, le temps gagné dans chaque établissement sur la description doit alors servir à travailler sur ce dont les usagers ont véritablement besoin comme accès. D’où la nécessité justement de mieux connaître leurs usages et l’appel à des études précises sur ce sujet.

Marie-Hélène Dougnac (École nationale supérieure des sciences de l’information et des bibliothèques) se mit à la place des usagers et expliqua que si, avec le web, la bibliothèque sortait de ses murs, cela n’allait pas sans parfois décevoir fortement ces derniers. Parce qu’ils s’attendent souvent à découvrir les documents eux-mêmes en ligne ou qu’ils souhaitent des catalogues multibases permettant d’élargir leurs recherches à des références d’autres catalogues ou à des articles de revues. L’usager a donc besoin d’explications et il faut croiser le catalogue en ligne avec une offre de formation. Par ailleurs, en prenant le cas des déficients visuels, elle insista sur tout un ensemble de données techniques à prendre en compte lors de la fabrication des catalogues : la possibilité de tri sur un type de documents (pour chercher les livres en gros caractères par exemple), un habillage graphique façon Windows pour les Opac, car il existe aujourd’hui des appareils de synthèse vocale lisant Windows, les problèmes en revanche de ces logiciels devant les frames d’un catalogue en ligne sur le web ou leur impossibilité à lire un texte numérisé en mode image, etc. Ces remarques démontraient l’importance des choix techniques mis en œuvre dans la conception, y compris visuelle, des catalogues informatisés et chacun était amené à penser que ces choix étaient parfois négligés, alors qu’ils avaient autant d’importance pour les usagers que la perfection catalographique des notices.

Jean-Pierre Lardy (Urfist de Lyon) expliqua ensuite comment les outils de recherche relevaient le défi de trouver une information pertinente sur le web. La création de ces instruments s’est faite pragmatiquement, hors idée de norme et dans l’idée de faciliter l’accès à l’information plutôt que dans celle de la décrire. Il existe donc deux niveaux de signalement sur le web correspondant à deux types d’outils. Les pages sont indexées par des moteurs de recherche, à partir de robots automatiques, qui passent à intervalles réguliers sur le web grâce aux hyperliens qui relient les sites web les uns aux autres. Les sites sont classés dans des annuaires (généralistes ou spécialisés) par l’intervention et la sélection d’un « cyber-documentaliste », selon la classification hiérarchisée propre à chaque annuaire.

Tous ces outils sont la création d’informaticiens. L’indexation par exemple suit une logique d’indexation lexicale (et non de thésaurus), avec le souci de répondre dans les plus brefs délais et d’offrir le maximum de pages. Pour améliorer les réponses, l’innovation consiste à corriger ces techniques d’indexation par des procédés de tri des résultats. Plusieurs procédés existent : tris selon la pertinence (Voilà, AltaVista), selon la popularité c’est-à-dire le nombre de liens qui pointent vers un site (Google), selon l’analyse du comportement des usagers et le nombre de visites des pages (Direct Hit), la tendance actuelle étant de mixer ces différentes approches. Enfin, de nouveaux outils sont aujourd’hui en cours d’élaboration, pour proposer des systèmes d’analyse de corpus et de résultats (Exalead par exemple) à partir de techniques statistiques et analytiques, mais ces dernières solutions ont un coût important et correspondent le plus souvent à des logiciels vendus pour des Intranets.

Les fournisseurs de notices

L’après-midi fut consacré à un tour d’horizon parmi les fournisseurs de notices, pour tous les types de documents, livres, revues, articles de revues, documents audiovisuels, etc.

Les représentants de la Bibliothèque nationale de France (BnF) annoncèrent leur objectif de ramener le délai de traitement des documents à six semaines en moyenne, et firent part des perspectives d’amélioration de leurs produits bibliographiques : déchargement gratuit en Unimarc des notices de la bibliographie nationale, en Intermarc et à l’unité des notices du catalogue BN-Opale Plus. Si la mise en service du nouveau système d’information perturbe la diffusion des produits pendant tout le premier semestre 2002, en revanche et sous réserve des traditionnels aléas techniques et budgétaires, de nouveaux services seront offerts : la consultation gratuite en ligne des notices d’autorité, la récupération en fin d’année 2002 des notices BN-Opale Plus, avec création d’une fonctionnalité « panier », l’abonnement sur profil à des lots de notices et, toujours fin 2002, l’intégration des notices des documents audiovisuels à BN-Opale Plus 1.

Michèle Aderhold expliqua le mode d’élaboration de la base Électre. L’idée centrale est d’anticiper le plus possible le catalogage et de commencer ce dernier trois à quatre mois avant la parution de l’ouvrage, sitôt qu’on a obtenu des informations standardisées de l’éditeur, la notice définitive se faisant à parution. Les notices des livres à paraître sont donc un outil pour préparer en amont ses acquisitions, elles ont cependant un caractère provisoire car les éditeurs modifient assez considérablement les données (titres, ISBN, prix, etc.) jusqu’au dernier moment. Enfin, le cédérom d’Électre et la base de données, aujourd’hui mise sur le web 2, offrent les jaquettes de couvertures et la numérisation des tables des matières des livres de sciences humaines et de sciences et techniques. La base en ligne permet, sur abonnement, le déchargement des notices en Unimarc et en XML, et cela comprend également les « résumés » intégrables sur le catalogue de l’établissement. Des fonctions de veille sont également mises à disposition des abonnés.

La demande de notices entraîne petit à petit les diverses sociétés qui vendent des documents audiovisuels aux bibliothèques à proposer des solutions, le GAM livre sur disquettes les notices des CD sonores commandés, l’Adav (Ateliers Diffusion Audiovisuelle) vend celles des documents multimédias achetés et Colaco s’engage à en fournir prochainement.

Cette présentation qui ne se voulait pas exhaustive, certaines sociétés contactées n’ayant pu être présentes, se révélait intéressante grâce à la possibilité pour l’assistance d’interpeller tel ou tel représentant. Elle était aussi, avouons-le, un peu fastidieuse car elle se bornait à faire le… catalogue d’une offre à un moment donné. Dominique Lahary (Bibliothèque départementale de prêt du Val-d’Oise) ranimait heureusement l’assemblée par une « conclusion » roborative. « Cataloguer, est-ce bien raisonnable ? », s’interrogeait-il. L’informatisation qui devait simplifier le catalogage avait, en fait, fait pénétrer ce dernier jusque dans la plus petite bibliothèque. Et le catalogage représentait toujours un investissement trop important, pour des fonds souvent « en transit ». Enfin, il y a une surestimation de la qualité et de la cohérence dans la culture professionnelle des bibliothécaires : « toute base est un bazar », car elle procède d’une succession de couches géologiques et d’un amalgame de notices de différentes provenances.

Ces paradoxes énoncés, il est donc sage de faire le deuil d’une exigence inaccessible de qualité et de cohérence et plus utile de travailler selon d’autres réflexions. On peut encourager la coïncidence entre les mots de l’utilisateur et ceux des documents, donc permettre d’accéder aux tables des matières, aux quatrièmes de couvertures, aux résumés, plutôt que de passer par des listes de concepts artificiels. D’ailleurs les usagers ont essentiellement besoin de listes de documents. Et Rameau n’est intéressant qu’en lien hypertexte pour rebondir. Enfin des leçons peuvent être tirées du fonctionnement d’Internet. Par exemple, la fusion au sein des annuaires de la classification et de la matière (autrement dit, la transposition des indices dans un langage clair), ou le primat de la recherche (uniterm) complété par le feuilletage des résultats, doivent nous inspirer. Les logiciels informatiques d’aujourd’hui nous permettent de bâtir des outils catalogues et des standards d’interrogation plus simples, que Dominique Lahary nous résumait en une formule saisissante : « Le catalogue, oui, le catalogage, non. »