entête
entête

L'évaluation dans les bibliothèques publiques françaises

Une situation contrastée

Aline Girard-Billon

Thierry Giappiconi

Dans le cadre des réunions satellites de la conférence 1997 de l’IFLA, la section des bibliothèques publiques de la fédération, le Deutsches Bibliotheksinstitut, la Zentral- und Landesbibliothek de Berlin 1 et les bibliothèques municipales (Stadtbüchereien) de Düsseldorf ont organisé, dans la capitale allemande du 25 au 28 août 1997, un pré-séminaire sur « l’évaluation des performances et le management de la qualité dans les bibliothèques publiques ». Le pré-séminaire a réuni 44 participants représentant douze pays européens 2 et les États-Unis.

Plusieurs pays, dont la France, ont été sollicités pour présenter un rapport national dressant le bilan des méthodes d’évaluation en usage dans les bibliothèques publiques locales et indiquant les perspectives dans le domaine de la gestion de la qualité. La documentation disponible pour la rédaction du rapport français s’est rapidement révélée insuffisante. En effet, s’il existe dans la littérature professionnelle française quelques ouvrages, ou chapitres d’ouvrages, sur le thème de l’évaluation, ces contributions sont plus théoriques que révélatrices de pratiques réelles.

Les rapporteurs français 3 ont donc décidé de recueillir des données originales auprès des bibliothèques publiques françaises, sous la forme d’un questionnaire d’enquête adressé à près de 500 établissements, dont toutes les bibliothèques départementales de prêt (94) et les 399 bibliothèques municipales des villes de plus de 20 000 habitants. Le rapport envoyé à Berlin pour le pré-séminaire IFLA ne pouvait intégrer des résultats trop détaillés ou des informations d’un intérêt purement local. Les données de l’enquête sont néanmoins trop riches et trop intéressantes pour renoncer à les exposer au public français. Tel est l’objet du présent article.

La méthode d’enquête

La conception du questionnaire de l’enquête sur l’évaluation de la qualité et des performances dans les bibliothèques publiques françaises s’est inspirée de plusieurs sources : le projet de norme internationale ISO 11620 Documentation et information : indicateurs de performance des bibliothèques, actuellement en cours d’adoption à l’ISO, l’ouvrage Measuring Quality : International Guidelines for Performance Measurement in Academic Libraries 4 produit par l’IFLA, la « boite à outils » commanditée par la Communauté européenne Library Performance Indicators and Library Management Tools 5, et le livre publié sous la direction d’Anne Kupiec, Bibliothèques et évaluation 6.

La grille d’enquête était divisée en quatre parties : indicateurs calculés, indicateurs mesurés 7, références normatives, questions ouvertes.

La liste des indicateurs calculés rassemblait des indicateurs de performance construits à partir d’un croisement de données chiffrées, généralement disponibles dans les bibliothèques. Il s’agit soit de données de gestion couramment utilisées dans les organismes publics ou entreprises privées (coût de fonctionnement, effectifs, superficie), soit d’informations produites par les logiciels de gestion ou issues des relevés statistiques traditionnellement pratiqués par les bibliothèques (nombre annuel d’inscrits, d’entrées, de prêts, nombre de documents possédés…), soit enfin de données démographiques ou statistiques locales.

Afin de mieux connaître l’attitude des bibliothèques publiques face à l’évaluation, il était important de savoir si celles-ci disposaient des éléments chiffrés nécessaires au calcul des indicateurs, si elles se servaient effectivement de ces éléments chiffrés pour calculer les indicateurs (taux, coûts ou ratios), si elles mettaient en pratique une réelle évaluation des performances, à partir des indicateurs disponibles après calcul.

Cette structure graduée permettait d’effectuer un classement par ordre décroissant (les données les plus couramment disponibles, les calculs les plus fréquemment effectués, les indicateurs les plus largement utilisés) et de mettre en rapport les trois listes ainsi constituées avec, pour objectif, d’identifier les décalages successifs. Il était également possible de connaître, pour chaque indicateur pris individuellement, l’ampleur des écarts entre la disponibilité des données nécessaires au calcul et l’usage réel qui en était fait dans la mise en œuvre de pratiques d’évaluation.

La liste des indicateurs mesurés rassemblait des indicateurs de performance dont l’utilisation repose sur un recueil de données par enquêtes, sondages ou relevés méthodiques. Ces indicateurs concernaient d’une part la satisfaction du public vis-à-vis des services de la bibliothèque, d’autre part la performance de la réponse aux demandes et recherches d’usagers.

Pour répondre aux contraintes imposées par les organisateurs du séminaire, deux séries de questions ont également été posées : l’une concernait l’utilisation du manuel de Nick Moore, Comment mesurer l’efficacité des bibliothèques publiques 8 ; l’autre celle des normes ISO 9001 9 et 9004-2 10, relatives à la qualité des services.

Des questions ouvertes devaient enfin permettre de compléter les réponses obtenues par des informations qualitatives, en particulier sur l’existence de pratiques d’évaluation autres que celles listées dans le questionnaire, les motivations des bibliothécaires et les objectifs visés par l’instauration de procédures d’évaluation.

Les résultats de l’enquête

Sur les 493 questionnaires envoyés, 128 ont été retournés remplis. Une bibliothèque a déclaré ne pas pratiquer d’évaluation, par un courrier dont le contenu a été traité comme une réponse aux questions ouvertes. Le total des bibliothèques ayant répondu à l’enquête s’élève donc à 129, soit un taux de réponse moyen de 26 %. Le taux de réponse est de 27,3 % pour les bibliothèques municipales et de 21,2 % pour les bibliothèques départementales de prêt.

Le meilleur taux de réponse à l’enquête est celui des bibliothèques des communes de 100 000 à 300 000 habitants (54 %), suivi par les bibliothèques des communes de 50 000 à 100 000 habitants (47 %) 11.

La ventilation entre bibliothèque municipale et bibliothèque municipale classée fait en outre apparaître un meilleur retour de la part des BMC (40 %) 12 que des BM (20 %).

La répartition géographique des bibliothèques municipales ayant répondu à l’enquête signale une très forte concentration de répondants dans les départements de la banlieue parisienne 13 (32,1 % des réponses des BM proviennent d’Ile-de-France, hors Paris), ainsi que d’intéressantes concentrations régionales. Les régions qui ont manifesté le plus grand intérêt pour l’enquête sont la Bretagne (78 % de taux de réponse), l’Alsace (60 %), les Pays de la Loire (58 %). Trois régions n’ont pas répondu à l’enquête : la Franche-Comté, la Basse-Normandie et le Languedoc-Rous sillon. Parmi celles qui ont répondu, ce sont les régions Provence-Alpes-Côte d’Azur (3 réponses sur 34 bibliothèques) et Haute-Normandie (1 réponse sur 10 bibliothèques) qui affichent le taux de réponse le plus faible.

Les pratiques d’évaluation

Si la sensibilisation au concept d’évaluation semble forte, notamment dans les bibliothèques des grandes agglomérations, un mot cependant est revenu dans les réponses comme un leitmotiv, c’est celui d’empirisme. Nombre de bibliothécaires ont le sentiment que leur démarche n’est ni rationnelle, ni cohérente et ils ont une conscience forte des limites des procédures appliquées. Leur scrupule doit cependant être relativisé, puisqu’il existe de réelles pratiques de mesure des performances dans les bibliothèques publiques françaises.

La plupart des bibliothèques ont indiqué que leur démarche évaluative trouvait son origine dans les documents produits par la Direction du livre et de la lecture. Le point de vue des bibliothèques est double : les informations chiffrées réunies pour le rapport statistique annuel 14 sont utilisées sur place pour des calculs de ratios et des comparaisons pluriannuelles d’activité ; les bilans statistiques nationaux publiés chaque année par la DLL 15 servent pour des comparaisons entre villes.

Du fait de cette référence structurelle, qui permet d’apprécier surtout l’activité et les ressources financières, documentaires et humaines des établissements de lecture publique, les bibliothèques qui évaluent mesurent en priorité leur niveau d’activité. L’indicateur le plus utilisé est le calcul du prêt par inscrit : 90,8 % des bibliothèques disposent des données chiffrées de base et 59,6 % en font un réel usage. En revanche, alors que plus de 80 % des bibliothèques peuvent calculer le nombre de prêts par habitant à desservir, seules 36,7 % d’entre elles se servent de cet indicateur pour évaluer leur niveau d’activité.

Un premier traitement des résultats a montré que l’évaluation s’appliquait à trois autres domaines : en ordre décroissant, l’impact de la bibliothèque sur la population à desservir, les coûts de fonctionnement du service et la satisfaction des usagers.

L’impact de la bibliothèque sur la population à desservir

L’impact de la bibliothèque sur la population à desservir intéresse un grand nombre de professionnels. 94,5 % des bibliothèques interrogées calculent la proportion d’inscrits par rapport à l’effectif de la population à desservir et 77,1 % utilisent l’indicateur pour mesurer leur performance. Cette proportion ne peut cependant être considérée comme entièrement fiable quand on sait que la notion du « nombre d’inscrits » ne fait pas toujours la part entre ceux relevant de la population à desservir proprement dite (commune siège de la bibliothèque) et ceux relevant par exemple des communes avoisinantes. Plusieurs bibliothèques signalent cependant qu’elles calculent le taux de pénétration de la population par zone géographique.

Les coûts de fonctionnement

En matière de coûts de fonctionnement du service, le coût par usager est calculé par 49,5 % des bibliothèques, alors que 79,8 % disposent des éléments de calcul, mais il n’est utilisé que dans 40,4 % des cas. Même constat de non-usage d’informations disponibles pour le coût par entrée à la bibliothèque. Si 23,9 % des bibliothèques disposent des équipements leur permettant de recueillir systématiquement les données nécessaires, seules 3,7 % calculent le coût par entrée et 2,8 % utilisent cet indicateur comme critère d’évaluation. Il paraît tout à fait paradoxal que le coût par entrée ne soit pas plus largement exploité, alors que nombre de bibliothécaires font valoir la part que les activités non liées au prêt tiennent dans le service rendu et que la comparaison des résultats obtenus avec ceux d’autres institutions leur seraient, dans la plupart des cas, très favorables.

Cette situation laisse à penser que les indicateurs de coût de fonctionnement sont encore peu utilisés comme instruments de pilotage ou, en d’autres termes, que la recherche du meilleur rapport entre coût et efficacité demeure largement intuitive et empirique. Ce sentiment est renforcé par le fait qu’une évaluation comme celle du coût du catalogage (qui, d’après des estimations, occupe près de 15 % du temps des personnels des bibliothèques publiques) n’est effectuée que par 4,6 % des bibliothèques interrogées, alors que 21,1 % d’entre elles sont conscientes de disposer des données utiles pour le faire.

La satisfaction des usagers

La satisfaction du public, dont la mesure ne peut être prise qu’à partir d’enquêtes ou de sondages, n’est évaluée que très partiellement. Cette situation s’explique par le fait, bien compréhensible, qu’une telle évaluation requiert du temps, des moyens et un savoir-faire dont peu de bibliothèques disposent.

Si la satisfaction des usagers vis-à-vis de l’ensemble des services de la bibliothèque, des horaires d’ouverture, du comportement du personnel et de l’accessibilité des collections préoccupe plus d’un tiers des responsables des bibliothèques, la disponibilité des titres lors de leur demande par un usager ou la proportion des titres demandés figurant dans la collection de la bibliothèque ne semblent pas mériter une approche évaluative méthodique (environ 12 %).

Dans certains cas, les réponses à l’enquête semblent cependant devoir être considérées avec précaution, par exemple pour ce qui concerne la satisfaction des usagers vis-à-vis du comportement du personnel de la bibliothèque ou des services dans leur ensemble. Le taux observé (36,7 %) peut sembler relativement élevé pour un indicateur « mesuré ». Cependant, la lecture des commentaires et des réponses aux questions ouvertes laisse penser qu’il s’agit, en fait, plus d’impressions acquises par le personnel en contact avec le public que de résultats d’enquêtes réelles, anonymes et méthodiques.

Un second traitement des réponses obtenues a permis un autre point de vue sur les résultats de l’enquête, par la définition de secteurs d’application différemment structurés.

Ce sont, dans l’ensemble, les services offerts au public qui sont le mieux évalués. Les indicateurs les plus utilisés sont, par ordre décroissant, le taux de fréquentation (77,1 % des bibliothèques ayant répondu), le nombre de prêts par inscrit (59,6 %), le taux de rotation des collections (42,2 %), le coût de fonctionnement par usager (40,4 %).

En matière de services internes, le temps de traitement des documents est évalué par 32,1 % des bibliothèques interrogées et le délai entre la commande et la livraison par 30,3 %. Ces résultats traduisent une volonté certaine de s’organiser pour offrir les acquisitions nouvelles dans des délais rapprochés. En revanche, comme nous l’avons déjà signalé, le calcul des coûts, et notamment celui du catalogage, paraît intéresser très peu de responsables de bibliothèques.

En matière de ressources humaines, le prêt par agent n’est considéré comme un instrument d’évaluation que par 20,2 % des bibliothèques alors que 65,1 % disposent des données pour calculer cet indicateur. De façon générale, l’évaluation des performances du personnel semble un sujet quelque peu tabou. Il apparaît donc que plus la démarche d’évaluation est sophistiquée, moins elle est entreprise. Cette situation s’explique sans doute par le manque de moyens financiers, matériels et humains nécessaires à la mise en œuvre d’enquêtes. Mais les réponses aux questions ouvertes montrent aussi une méconnaissance de la littérature professionnelle sur l’évaluation, peu traduite, et des outils et méthodes du contrôle de gestion.

Les pratiques d’évaluation dans les bibliothèques publiques françaises ne se limitent cependant pas aux critères mentionnés dans la grille d’enquête. A la question « Utilisez-vous d’autres indicateurs de performance que ceux énumérés dans ce questionnaire ? », les réponses ont été nombreuses et variées. Elles montrent qu’un grand niveau de détail peut parfois être atteint dans le suivi des acquisitions, des collections, de l’utilisation des ressources documentaires par les usagers ; que la composition du public, son renouvellement, sa mobilité cherchent à être connus avec le maximum de précision ; que le travail interne fait l’objet ici ou là d’une évaluation très poussée. Le champ de l’évaluation peut également englober le suivi des animations, celui des relations avec les autres institutions culturelles de la ville et avec le secteur scolaire et associatif. Il inclut parfois l’usage ou l’appréciation par le public de services tels que les réservations de documents. Il intègre enfin la mesure des actions de formation du personnel.

Plusieurs bibliothèques mentionnent le lien direct entre choix des critères d’évaluation et « données statistiques informatiques disponibles ». Certains signalent le peu de performance du module statistique de leur logiciel de gestion comme un frein à l’élargissement de leur pratique évaluative. Ces observations rejoignent les résultats de l’enquête menée par la DLL en 1995 auprès des bibliothèques municipales sur les disponibilités statistiques des logiciels de gestion. Son analyse fait apparaître que, d’une manière générale, les données statistiques « standard » sont très limitées malgré la richesse des informations stockées. L’exploitation approfondie des potentialités statistiques des systèmes nécessite donc que, d’une part, des requêtes complémentaires soient formulées et que, d’autre part, un relais micro-informatique soit mis en place (élaboration de programmes, utilisation de gestionnaires de bases de données).

Le transfert des données « sys-tème » sur micro-informatique est une étape que peu de bibliothèques semblent franchir pour le traitement et l’exploitation de leurs statistiques. Le faible intérêt que l’on peut, d’une manière générale, discerner pour la gestion des statistiques est sans doute une des raisons du peu d’exigence des responsables d’établissements quant aux performances du module statistique des logiciels de gestion de bibliothèques.

Les objectifs de l’évaluation

D’après les réponses à l’enquête, l’évaluation sert en premier lieu à justifier les demandes de ressources. La préférence accordée aux différents indicateurs montre que cette justification se fonde pour l’essentiel sur le niveau d’activité des services, puis sur le taux d’inscription de la population à desservir. L’évaluation semble ainsi dévolue à l’obtention des ressources permettant de faire face à la charge de fonctionnement, puis de légitimer ce fonctionnement par l’usage que le public en fait. Or, paradoxalement, l’évaluation du bon usage des ressources semble peu pratiquée dans les bibliothèques, alors que de nombreux responsables signalent en ce domaine un progrès notable du contrôle de leur administration de tutelle.

Cependant le caractère limité des questions fermées ne doit pas dissimuler la richesse des réponses aux questions ouvertes. Celles-ci traduisent un véritable changement de conjoncture et d’état d’esprit (on serait tenté de dire une véritable effervescence).

La concertation avec les élus

Au-delà des objectifs d’attribution de ressources, l’évaluation a pour but de réunir les données nécessaires à la concertation avec les élus.

Elle doit « permettre aux responsables municipaux un bonne compréhension du service » (Grenoble), aboutir à « impliquer plus directement les élus » (Mont-de-Marsan), à les « motiver » (Compiègne). On attend d’elle qu’elle fournisse de « meilleurs arguments pour convaincre la tutelle à propos des orientations nécessaires » (Arles) et, plus prosaïquement, qu’elle ait une « influence sur les décisions des élus en faveur des créations de postes » (Villenave-d’Ornon). C’est, pour la grande majorité des responsables de bibliothèques un « support de négociation avec les partenaires politiques ou administratifs de la bibliothèque » (Caluire-et-Cuire). C’est pourquoi, les données sont parfois volontiers « diffusées très largement auprès des divers décideurs » (Bordeaux). Mais on peut aussi y chercher les éléments d’une « crédibilité institutionnelle » (Neuilly-sur-Seine) et notamment d’une « visibilité plus juste du rapport coût/service rendu pour les élus et les contribuables » (Niort), dans une volonté de transparence tout à l’honneur de la profession. L’évaluation « relève en tout cas de l’obligation de donner des résultats » (Tourcoing).

Une meilleure définition des choix

Un nombre croissant de bibliothèques font de l’évaluation un outil pour mieux définir des choix et améliorer le fonctionnement de l’organisation. Elles en attendent une meilleure connaissance des attentes du (ou des) public(s), l’opportunité d’un ajustement de leurs services et une appréciation plus objective que celle fournie par les données statistiques courantes.

L’évaluation est perçue comme un outil « d’aide à la décision » (Angers) dans la conduite des politiques locales, « d’aide à la définition d’objectifs » (Rennes). Le but de l’évaluation est de recueillir la « vraie traduction (ou non…) en résultats de nos objectifs ou idées » (Orléans), de mesurer « l’adéquation des services » (Échirolles), de vérifier « l’adéquation des missions/ moyens/résultats » (Le Mans), d’aider à « modifier les axes stratégiques » (Saint-Quentin-en-Yvelines) ou, tout simplement, de fournir « du grain à moudre dans un processus de réflexion et de rectification permanent des modes de travail et des objectifs » (Mâcon). L’évaluation a encore pour rôle « d’optimiser les ressources » (Aulnay-sous-Bois), « de prendre en compte les notions de résultats et de performance » (Cergy-Pontoise) et « tendre vers le meilleur rapport qualité/prix » (Arles). Ailleurs, on se déclare « plus soucieux d’efficience que d’efficacité » (Valence).

Pour plusieurs bibliothécaires, l’évaluation a aussi pour but de « responsabiliser le personnel qui peut alors piloter différemment son service » (Mulhouse), d’améliorer sa motivation. Elle doit aussi « faire prendre conscience » au personnel et à l’administration de la nécessité d’améliorer l’organisation et, de façon générale, de maintenir « en alerte la capacité d’innovation et de remise en question des acteurs du réseau » (bibliothèque départementale de prêt de Haute-Savoie).

La volonté d’entreprendre une évaluation dans le but « d’améliorer » à la fois « le service public » et « la gestion de l’établissement » (Nancy), d’entamer « une démarche générale de gestion raisonnée du fonctionnement et du développement de l’établissement » (Laval), est surtout le fait des bibliothèques des grandes villes où l’administration municipale est conduite à mettre en œuvre des outils sophistiqués de gestion et possède les moyens de le faire. Dans ce cas, l’évaluation de la bibliothèque s’intègre à « une démarche globale menée par l’administration municipale » (Rennes), à un « processus d’évaluation par le biais d’un contrôle de gestion mis en place par la mairie » (Mulhouse), est « en relation avec la demande de la direction générale et des élus » (Saint-Quentin-en-Yvelines). Mais le principe d’un « contrôle de gestion » commun à l’ensemble des services communaux s’étend aux villes moyennes (Colombes). Quelle que soit l’échelle de la commune, il convient « de répondre aux demandes de la ville et parfois de les précéder » (Lyon).

Les limites de l’orientation client

Beaucoup de bibliothèques attendent de l’évaluation qu’elle leur fournisse les informations nécessaires à une meilleure satisfaction des usagers, sans pour autant mettre en œuvre systématiquement des moyens leur permettant de cerner précisément les attentes du public (enquêtes, sondages…).

Ce dernier ne saurait cependant être réduit aux usagers acquis sans fausser gravement la perspective. La responsable de la bibliothèque d’une ville moyenne de province, installée dans une charmante construction ancienne, raconte ainsi son expérience malheureuse de la prise en compte de l’opinion de ses usagers. « Afin d’accompagner un projet de développement et d’élaborer un pré-programme fonctionnel pour une nouvelle médiathèque », l’autorité municipale a demandé à la bibliothèque de procéder à une consultation des usagers. Ceux-ci ont massivement manifesté leur satisfaction du service rendu et leur attachement à la bibliothèque existante. Face à ce résultat, les décideurs ont considéré (au grand désarroi des bibliothécaires pourtant plébiscités par leur public) qu’il convenait de renoncer au projet. Il ne leur est, en effet, pas apparu opportun de s’endetter pour mécontenter la seule partie de l’électorat sensible aux services rendus par la bibliothèque.

C’est dire que la définition des objectifs et des besoins ne peut reposer sur le seul contentement d’une « clientèle » acquise, mais doit aussi s’appuyer sur l’étude de l’environnement et des besoins de l’ensemble de la population à desservir, entreprise sur des objectifs sociaux et culturels bien définis. Quantité de commentaires traduisent une prise en compte de cette dimension politique et affirment la nécessité de s’intéresser à la population dans son ensemble. Cette vigilance marque la conscience des limites de ce qu’il est convenu d’appeler une « orientation client ».

Les ressources humaines

De nombreux professionnels insistent sur la relation qui unit évaluation et gestion des ressources humaines. Ils ont, en effet, la conviction que la responsabilisation du personnel passe par la connaissance des résultats de l’action. Le mode de fonctionnement adapté est alors « l’organisation par objectifs qui permet de mettre en place une équipe soudée et performante » 16.

L’outil privilégié est l’élaboration de « tableaux de bord » adaptés aux différentes fonctions de l’organisation, dont l’usage s’est généralisé depuis plusieurs années dans les bibliothèques universitaires. La bibliothèque de Saint-Nazaire a, par exemple, établi des tableaux de bord des publics touchés par les animations et un tableau de bord de suivi des documents traités en atelier d’équipement. Les tableaux de bord sont aussi au cœur de la réorganisation des services de la bibliothèque municipale de Fresnes. Stimulées par la formation, la recherche et la littérature professionnelle, un nombre croissant d’expériences et de tentatives d’application vont dans le même sens.

Pour terminer ce tour d’horizon, signalons cependant que l’enquête traduit parfois un certain scepticisme à propos de l’utilité de l’évaluation, reflétant tout simplement un découragement lié à l’absence de perspectives. « A quoi bon évaluer si aucune amélioration n’est envisageable ? », semblent dire des bibliothécaires désabusés.

L’avenir de l’évaluation

L’enquête sur la mesure des performances et le management de la qualité dans les bibliothèques publiques françaises a montré que l’évaluation était un thème d’actualité. Parce que l’évaluation touche aux objectifs et aux résultats de ces organisations, elle est aussi un thème d’avenir qui éclairera et accompagnera les mutations des bibliothèques.

Les réponses aux « questions ouvertes » du questionnaire conduisent à penser que l’adoption prochaine du projet de norme internationale ISO 11620 Information et documentation : indicateurs de performance des bibliothèques, la traduction française du manuel de Roswitha Poll et Peter Te Bloekhorst, Measuring Quality : International Guidelines for Performance Measurement in Academic Libraries, ainsi que celle, vivement souhaitée, de Library Performances Indicators and Library Management Tools, de John Sumsion et Susan Ward, répondront, non seulement à un besoin, mais à une attente très forte d’un nombre croissant de professionnels.

Il ne faut cependant pas se cacher la disparité des situations. Il semble parfois, qu’en matière de management, un abîme sépare les bibliothécaires. Cet état de fait s’explique en grande partie par la diversité des établissements, mais aussi par la méconnaissance des méthodes et des outils. C’est dire que le progrès de l’évaluation repose avant tout sur celui de l’information et de la formation.

Information et formation

En matière d’information, la responsabilité incombe d’abord aux mieux informés et donc, en premier lieu, à tous ceux qui sont impliqués dans des travaux de normalisation. C’est pourquoi les membres du groupe de statistiques de l’AFNOR s’attachent non seulement à définir et traduire les normes, mais encore à les faire connaître.

A cet égard, nous espérons que notre enquête aura contribué à la connaissance de la norme ISO 11620 dans les bibliothèques publiques françaises, puisque celle-ci y était présentée comme une référence pour l’élaboration du questionnaire et que sa prochaine publication y était annoncée. Cependant, cette information n’aura d’écho que si elle est relayée par les corps professionnels, revues, associations et organisations de coopération. Toutefois, même largement diffusées, la littérature sur l’évaluation et l’instrumentation ne s’imposeront que si elles sont présentées et expliquées. Tel est le rôle de la formation.

En matière de formation initiale, les enseignements destinés aux nouvelles générations de bibliothécaires accordent désormais une place croissante à l’évaluation, place d’autant plus intéressante que ces futurs professionnels ont la possibilité de situer la mesure des performances dans une perspective de stratégie générale de management. Mais un gros effort doit être accompli en matière de formation continue à destination des personnels en fonction, afin que ces derniers ne soient pas marginalisés et qu’ils puissent affronter les nouvelles méthodes de management par la connaissance d’une instrumentation appropriée.

Toute comparaison a par ailleurs besoin de se situer par rapport à un système de référence. La comparaison de l’activité d’une même bibliothèque à travers plusieurs exercices consécutifs peut être considérée comme le point de départ de l’évaluation et du contrôle de gestion. Il en est de même de la comparaison, sur des prestations comparables, entre plusieurs organisations dépendant, par exemple, d’une même collectivité territoriale. Mais une autre étape doit être franchie, celle de la comparaison nationale et internationale entre bibliothèques. Celle-ci peut largement éclairer les choix, contribuer à stimuler la recherche de la qualité et de la performance. Le benchmarking peut donc, s’il est utilisé avec pertinence (c’est-à-dire en comparant des choses réellement comparables), être l’instrument privilégié de cette fonction majeure.

Evaluations et politique

Cependant l’information, la formation et la mise en place d’un cadre référentiel ne suffiront pas. Certaines des interrogations des professionnels de la lecture publique, telles qu’elles sont signalées dans les réponses aux questions ouvertes, touchent en effet au sens et à la finalité de l’évaluation.

L’évaluation ne peut constituer une fin en soi. Ce n’est qu’une procédure instrumentale, atteignant des degrés divers de sophistication.

Il est donc difficile d’évaluer et de mesurer des performances sans se référer à des objectifs et des choix explicites. Peut-on vraiment s’étonner que des bibliothécaires demeurent dans l’expectative, lorsqu’on leur suggère d’apprécier des valeurs qui n’ont pas été définies ? Si l’instrumentation de l’évaluation a essentiellement progressé dans des bibliothèques universitaires, c’est que la finalité de l’institution et le champ de l’évaluation y sont sans équivoque. Or tel n’est pas le cas des bibliothèques publiques.

Il convient en toute logique de définir ce que l’on veut faire, avant d’entreprendre d’apprécier auprès des usagers si on le fait bien. Il n’est pas rare cependant que la littérature sur l’application du concept de « qualité » aux bibliothèques fasse de cette dernière une finalité et non un moyen de mieux servir une ambition culturelle et sociale déterminée, c’est-à-dire des objectifs définis de politique publique.

En matière d’efficience (ou si l’on préfère de « rendement » bien que ce terme, synonyme de recherche de plus-value, soit ici inadéquat), la mise en place d’un dispositif de contrôle implique que les valeurs de la gestion soient comprises et acceptées. Il est inévitable, pour y parvenir, d’entreprendre de rompre avec les compromis et les usages qui caractérisent les systèmes d’organisation interne des bibliothèques. Un tel effort ne peut être accepté par des fonctionnaires que s’il est justifié par des objectifs et des valeurs de service public. Si le contrôle de gestion doit absolument entrer dans les mœurs des bibliothécaires, il convient, pour y parvenir, de faire valoir qu’il ne s’agit pas de faire abstraitement « moins cher », mais de tirer le meilleur parti des ressources obtenues et de justifier de façon crédible celles que l’on réclame. La connaissance des coûts des différents éléments de l’organisation d’une bibliothèque apparaîtra alors sans conteste comme indispensable à la formulation des choix. L’évaluation n’a de légitimité et d’avenir que dans une approche globale et méthodique de la gestion.

Le chantier est vaste. La tâche que les professionnels en exercice, comme les enseignants des écoles et centres de formation, doivent entreprendre est d’autant plus urgente que chacun est désormais conscient que les bouleversements en cours ne laissent aucune chance de survie aux formes traditionnelles d’organisation. Faute d’une maîtrise rapide d’un processus d’évaluation et de contrôle de gestion adapté aux finalités et à la spécificité des bibliothèques et intégré à une stratégie cohérente de management, il est à craindre qu’une instrumentation technocratique ne leur soit, hélas, imposée.

Octobre 1997

  1.  (retour)↑  Bibliothèque centrale et régionale de Berlin. Il s’agit de l’ancienne bibliothèque centrale de Berlin-Est. Berlin compte aujourd’hui deux « centrales », la seconde étant l’Amerika Gedenkbibliothek, ancienne tête de réseau de Berlin-Ouest.
  2.  (retour)↑  Allemagne, Grande-Bretagne, France, Espagne, Portugal, Pays-Bas, Belgique, Danemark, Suède, Norvège, Finlande, Slovénie. Voir le compte rendu du pré-séminaire sous la rubrique Tour d’horizon de ce même numéro, p. 92-93.
  3.  (retour)↑  Thierry GIAPPICONI, directeur de la bibliothèque municipale de Fresnes, membre de la commission CG46/CN8 de l’AFNOR, membre de la section des bibliothèques publiques et de la table ronde Management et marketing de l’IFLA et Aline GIRARD-BILLON, responsable de la mission Évaluation et prospective du Service scientifique des bibliothèques de la ville de Paris, membre de la commission CG46/CN 8 de l’AFNOR, membre de la section des statistiques de l’IFLA.
  4.  (retour)↑  Roswitha Poll, Peter Te Boeckhorst, Measuring Quality : International Guidelines for Performance Measurement in Academic Libraries, München, ifla/K. G. Saur, 1996.
  5.  (retour)↑  Library Performance Indicators and Library Management Tools, [ed. by] Susan Ward, John Sumsion, [et al.], Luxemburg, Office of the European communities, 1995 (EUR 1644EN).
  6.  (retour)↑  Bibliothèques et évaluation, sous la direction d’Anne Kupiec, Paris, Éd. du Cercle de la librairie, 1994. Cf. le compte rendu paru dans le bbf, 1994, n° 6, p. 104-105.
  7.  (retour)↑  La liste des indicateurs a été revue par Geneviève Boisard, inspecteur général des bibliothèques.
  8.  (retour)↑  Nick Moore, Comment mesurer l’efficacité des bibliothèques publiques : projet de manuel, Paris, Unesco, 1990.
  9.  (retour)↑  Modèle pour l’assurance de la qualité en conception, développement, production, installation et prestations associées.
  10.  (retour)↑  Management de la qualité et éléments de système qualité. Partie 2 : ligne directrice pour les services.
  11.  (retour)↑  Le taux de réponse de Paris (100 %) n’est pas significatif, celui des villes de plus de 300 000 habitants (25 %) non plus : seul Lyon a répondu à l’enquête sur les quatre villes de cette tranche (Marseille, Lyon, Toulouse, Nice).
  12.  (retour)↑  Il y a 54 bibliothèques municipales classées, dont 53 dans les villes de plus de 20 000 habitants.
  13.  (retour)↑  Il y a 54 bibliothèques municipales classées, dont 53 dans les villes de plus de 20 000 habitants.
  14.  (retour)↑  Évaluation des bibliothèques territoriales : rapport annuel des bibliothèques municipales ; Évaluation des bibliothèques territoriales : rapport annuel des bibliothèques départementales de prêt.
  15.  (retour)↑  Bibliothèques municipales : données 1995 et Bibliothèques départementales de prêt : données 1995 sont les rapports les plus récents.
  16.  (retour)↑  Danielle Taesch-Wahlen, Concevoir, réaliser et organiser une bibliothèque : mémento pratique à l’usage des élus, des responsables administratifs et des bibliothécaires, Paris, Éd. du Cercle de la librairie, 1997. Cf. le compte rendu paru dans le bbf, 1997, n° 5, p. 90-91.