entête
entête

Mener une enquête de publics dans un petit service commun de la documentation

Anne Boraud

Entre 2008 et 2010, l’enquête LibQual+ a été conduite 22 fois par des établissements d’enseignement supérieur français. De cinq participants en 2008, on recensait neuf inscriptions en 2011  1, signe que le dispositif s’installe progressivement dans notre paysage documentaire. Au-delà des mérites réels ou supposés de l’outil, c’est un symbole de dynamisme, LibQual+ se voulant le « label qualité » incontournable de tout établissement qui « compte ».

Dans ce contexte, les grandes structures, en quête de respectabilité, de visibilité, ont naturellement joué un rôle de précurseur et ont été des moteurs dans la diffusion de LibQual+ en France. Rares sont, en revanche, les « petits » établissements à avoir tenté l’expérience  2. Face aux difficultés rencontrées par une petite bibliothèque pour conduire seule une telle opération, les services communs de la documentation (SCD) des trois universités de technologie françaises ont mené ensemble une enquête LibQual+ au printemps 2011.

Les bénéfices escomptés d’une telle coopération sont-ils au rendez-vous ? Si, dans un premier temps, le partenariat est apparu comme un palliatif à la taille modeste de chaque établissement, il a pu ensuite cristalliser une ambition : non seulement « faire comme les grands », mais encore faire mieux que les grands.

LibQual+ est ainsi devenu l’outil pour comparer des établissements comparables terme à terme : effectif proche, structure d’enseignement identique, profils d’étudiants semblables. Aucun grand établissement, pluridisciplinaire ou accueillant des étudiants de niveaux différents, ne peut travailler dans une telle perspective.

Au terme du processus, lors de la restitution des résultats, l’enjeu est de voir si les bénéfices escomptés autour d’une telle coopération sont bien au rendez-vous, et si le partenariat entre « petits » peut constituer une solution pour mener des projets d’ampleur en matière de connaissance des publics.

Des petits peuvent-ils faire comme les grands ?

Un SCD de taille modeste éprouve, au même titre qu’un grand établissement, la nécessité d’évaluer et de mesurer la satisfaction des publics. Dans son isolement, il ressent plus encore que des universités importantes – qui trouvent des « sœurs » auxquelles se comparer – le besoin de se situer par rapport à d’autres, et ce, même si peu lui sont comparables. À ceci s’ajoute le côté atypique des universités de technologie, qui sont des structures hybrides, entre université et école d’ingénieurs.

Au-delà de ce souhait de « faire comme les grands », un petit SCD sait que l’implantation en son sein d’un outil comme LibQual+ présente un risque. Pour ce type d’enquête, il n’y a aucun droit à l’erreur. D’abord parce que son implantation nécessite un investissement humain conséquent, qui impacte très fortement toute structure de taille réduite, faiblement dotée en personnel, où les tâches sont déjà variées et cumulatives. Ensuite parce qu’en cas d’échec, on ne mobilisera pas deux fois le même public sur un tel projet dans un temps court. Enfin, et surtout, du fait d’un problème d’échelle : obtenir un taux de réponses suffisant pour disposer de résultats exploitables est plus aléatoire sur un effectif de 4 000 étudiants que sur 25 000. En bref, plus la structure est petite, plus la marge de manœuvre est faible.

Est-ce à dire qu’un petit SCD devrait se priver de cet outil ? Non, mais cela peut signifier que la taille modeste d’un établissement constitue un argument pour justifier et faire vivre un partenariat. Troyes et Belfort-Montbéliard ont ainsi répondu positivement à la proposition née à l’initiative du SCD de l’université de technologie de Compiègne. Les SCD des trois universités de technologie ont donc mené de concert l’opération LibQual+ au printemps 2011, en souscrivant une seule inscription auprès de l’Association of Research Libraries  3. Outre les arguments gestionnaires qui justifiaient déjà largement ce partenariat, au-delà de l’intérêt politique d’afficher une collaboration documentaire entre des établissements en pleine stratégie d’alliances, l’ambition était, via une comparaison strictement terme à terme, de jauger nos pratiques respectives en matière d’accueil et de ressources. Loin de créer ou d’exacerber une concurrence plus fantasmée que réelle, l’idée était de pouvoir échanger autour de nos méthodes de travail et de nos types d’organisation. Le grand intérêt était précisément de pouvoir mettre en regard les attentes d’usagers aux profils similaires avec les fonctionnements de nos différentes bibliothèques. L’enquête LibQual+, classiquement conduite dans diverses sections ou sites du SCD d’une université pluridisciplinaire ou dispersée en niveaux, ne donne pas cet éclairage. Le partenariat qui, par rapport à notre petite taille, était au départ un palliatif, et même le signe de notre faiblesse, devenait l’instrument d’une plus-value authentique : notre petitesse, de faiblesse, devenait force.

Vertus et difficultés de la comparaison entre petits

Au-delà de la réussite technique de l’enquête (taux de participation de 14 % chez les étudiants), au-delà d’un impact positif en termes d’image des SCD auprès des tutelles, et outre les évidentes facilités gestionnaires (partage des tâches et des coûts), la comparaison souhaitée a-t-elle été bénéfique ? Les trois SCD ont-ils brisé leur isolement en créant de quoi échanger et avancer ?

En fait, la comparaison entre universités de technologie s’est avérée délicate, voire impossible, et ce, pour diverses raisons, qui sont d’abord techniques : la configuration de l’enquête ne permet pas d’obtenir des analyses aussi détaillées par établissement que pour le global. On perd les taux de convergence  4 et les taux de représentativité  5 de chaque question. De plus, les conditions de passation de l’enquête n’ayant pu être les mêmes dans chaque université, les résultats ne sont pas aussi représentatifs d’un établissement à l’autre. Il y a enfin, et surtout, des raisons de principe : inscrire les progrès possibles à apporter au sein de nos bibliothèques dans une logique concurrentielle était exclu ; la cohésion affichée durant l’ensemble du projet exprime au contraire la solidarité des SCD dans leurs préoccupations. Face à des tutelles différentes, animées d’une vision et d’attentes diverses à l’égard de leurs bibliothèques, les SCD des universités de technologie se posent pourtant les mêmes questions, ont des objectifs similaires, car leur problématique de publics est commune. Or, à trop comparer, le risque est que ce qui sera perçu favorablement chez l’un desserve l’autre : « Avec moins de moyens, ils font mieux, faites-en autant ! » Si les trois SCD se ressemblent (public desservi, disciplines enseignées, culture « UT », politique documentaire…), ils divergent quant à leurs locaux, leur niveau d’équipement, mais aussi leur histoire.

L’intérêt de comparer

Nous sommes-nous donc trompés en voulant nous comparer ? Non, à condition de garder en vue le principal écueil… LibQual+, estampillée « démarche qualité », crée la tentation, simpliste et caricaturale, de focaliser sur une « performance » d’établissement, définie principalement par le niveau de satisfaction exprimé par les usagers. Cette ligne interprétative unique conduit à des dérives qui tiennent dans ce simple message : « Les usagers sont contents de/ne sont pas contents de » ; lequel message appellerait une réponse quasi pavlovienne : « Améliorons tel ou tel point. »

Appliquer ce schéma à l’expérience partagée par les trois universités s’avère stratégiquement dévastateur et théoriquement faux. Sur le plan théorique, l’équation performance = satisfaction, si commode, si aisée à saisir par celui qui lit les résultats d’une telle enquête, relève d’un glissement idéologique qui n’est pas si prégnant et, en tout cas, pas directement induit par le modèle SERVQUAL, base théorique d’élaboration de LibQual+. Certes, la grille construite par les théoriciens de SERVQUAL se veut au départ une évaluation de la qualité d’un service commercial, à partir d’une comparaison entre besoins/perceptions/attentes des clients  6. Au-delà des mérites et limites de ce modèle, son intérêt principal n’en reste pas moins de remettre le jugement de satisfaction à sa juste place : c’est une mesure relative, qui n’a de sens qu’au regard d’une échelle quantifiée et corrélée avec d’autres scores, exprimant le minimum tolérable et le maximum souhaité. En d’autres termes, là où le jugement de satisfaction renvoie à un ressenti individuel, parfois éphémère, souvent péremptoire, la mesure de la qualité dans le référentiel est intimement corrélée aux représentations que l’usager se fait du service. Dans cette logique, toute théorique, ce que les trois universités ont intérêt à comparer, ce n’est donc pas d’abord et prioritairement la satisfaction, vue comme un indicateur de performance, mais ce sont les représentations que les usagers se font de leurs bibliothèques respectives.

Un argument stratégique

À ce recentrage théorique s’ajoute un argument stratégique : le danger d’une mise en concurrence des établissements via leur prétendue performance. Il n’y a pas de système de vases communicants comme il pourrait y en avoir dans un SCD pluridisciplinaire où la comparaison entre sites ou sections ouvre potentiellement à un redéploiement des moyens et des actions. La meilleure réussite d’un site peut alimenter, stimuler, servir de modèle pour impulser le changement chez ceux dont les résultats sont moins bons, puisqu’un seul pôle de décision les rapproche. La comparaison n’est donc stimulante et porteuse que s’il y a un levier d’action unique. Trois SCD dotés chacun d’un pilotage propre se desservent mutuellement s’ils en viennent à jouer au jeu frontal de la performance. Plus qu’une émulation autorisée par les réussites, ce sont les mauvais points qui seraient mis en exergue et justifieraient une stigmatisation sur le thème « les autres y arrivent, pourquoi pas vous ? ».

Cet argumentaire ne signe pas la fin de la démarche comparative que nous appelions de nos vœux. Il signifie qu’un arsenal de précautions doit être déployé pour éviter tout raccourci laissant penser qu’un résultat de LibQual+ livre tel quel le moindre indicateur de performance. C’est une tentation dont il faut en permanence se garder, alors qu’elle correspond aux attentes de nos tutelles et, par conséquent, à ce que nous sommes tentés de laisser croire. Les données récoltées ont bien à faire avec une performance, mais ceci ne peut se laisser dire et voir qu’au terme d’un lourd travail d’interprétation pour lequel nos trois SCD ont dû se concerter. Il nous a fallu tâtonner pour inventer une manière originale d’interpréter les données.

S’illustre ici pleinement combien un « petit qui veut jouer les grands » peine toujours et déploie plus d’efforts qu’un grand pour arriver au même résultat. Il nous aurait fallu, en effet, fédérer nos forces en définissant entre nous une sorte d’éthique de la comparaison : une fois écarté le principe d’une confrontation directe des scores de perception d’une université à l’autre, nous n’avons ni délimité explicitement le champ du comparable, ni défini précisément ce que nous attendions les uns et les autres de ces chiffres, ni quelles étaient nos priorités et nos marges de manœuvre. Autant de paramètres singuliers et circonstanciels, qu’il n’est pas facile aux uns et aux autres d’expliciter et de mettre à plat.

Après la préparation, la passation, la réception des résultats, le temps du partenariat s’est inévitablement rétréci, se limitant à des échanges informels. L’absence de structure commune a renvoyé chaque SCD vers ses urgences, sa temporalité propre, parce que la logique de projet résiste mal à la durée, parce que l’absence de « liant », une nouvelle fois, a fait son œuvre. Le rapport envoyé par l’ARL ne pouvait qu’accentuer cette pente naturelle : les résultats bruts, globalisés, ne parlent finalement d’aucun de nous trois. L’analyse « macro » trouve son sens dans un « gros » SCD, puisqu’elle dresse le bilan des attentes et jugements qu’un membre d’une communauté porte sur les usages de la documentation dans son université. Les chiffres renvoient à une entité certes abstraite, mais dotée d’une vie et d’une identité institutionnelle. Les données fournies dans notre rapport ont un taux informatif quasi nul : elles sont la somme des scores reflétant le jugement d’un étudiant ingénieur dans une université de technologie en France, entité sans consistance objective, sans identité avérée.

Un regard extérieur

Pour faire parler ces chiffres avec le plus d’objectivité possible, nous avons fait appel à un regard extérieur et, à cette fin, recruté un étudiant en sociologie de l’université de Paris 7. Le cadre défini avec lui s’est dessiné à tâtons, puisque nous n’étions guidés que par le souci d’éviter les périls d’une comparaison mal conduite.

La décision première a été de faire en sorte que le rapport brut de l’ARL, en l’état inutilisable, soit productif pour notre entreprise commune. Si un score global de perception de 6,54 pour l’accueil ne dit rien de Belfort-Montbéliard, de Compiègne, ou de Troyes, le chiffre vaut néanmoins comme valeur collective de référence. Sa fonction est de fournir un étalon de mesure, permettant de se forger une grille de lecture transversale à partir de laquelle chaque SCD peut voir où placer son propre curseur pour chaque item. Au-delà de l’approximation statistique, causée par une représentativité inégale des résultats selon les établissements, cette méthode reste efficace. Les forces et faiblesses de chacun apparaissent à travers ce filtre, qui a aussi comme intérêt de neutraliser l’obstacle politique évoqué précédemment. Fort de cet artifice, notre étudiant en sociologie a rédigé trois rapports bipartites, accolant à chaque fois une vision « macro » interprétant les chiffres globalisés et une approche « micro » analysant les résultats de chaque SCD. L’interdépendance de ces deux parties conditionne la cohérence de l’ensemble en autorisant une comparaison désormais démultipliée : chaque université pouvant se jauger à l’étalon commun « université de technologie », mais aussi se focaliser, en son sein, sur ses chiffres par site ou par profil d’étudiant.

L’autre direction, parallèle, a consisté à suivre la piste d’une comparaison des représentations  7que les étudiants se faisaient de nos bibliothèques respectives. C’est là un beau pari : esquisser une genèse de leurs opinions, peser la part du local dans la culture bibliothèque de nos étudiants, comprendre, par ce biais, les écarts entre attentes et offre de service, cerner les défauts de communication, etc. Une telle approche donne sans nul doute à penser. Ainsi a-t-on constaté que les tendances observées dans les trois UT s’avèrent très homogènes, dans leur ordre de priorité : les attentes les plus fortes concernent d’abord les espaces, ensuite les ressources et, en dernier, l’accueil. Plus étonnant, c’est en ce qui concerne la rubrique « Library as a Place » que les données sont les plus similaires… Contre toute attente, les avis convergent là où ils s’appliquent à des équipements foncièrement différents. Cet exemple notable met à mal l’idée que la fréquentation d’un lieu particulier constitue le facteur déterminant des attentes que nos publics ont de LA bibliothèque en général. Leurs représentations se tissent dans une complexité que LibQual+ ne saurait prendre en charge dans sa globalité, mais où la dimension locale semble à minorer.

La comparaison ouvre une situation paradoxale : d’un côté, elle n’est possible que par la coopération des trois partenaires singuliers que nous étions, de l’autre, elle n’est productive que si chacun se livre à une lecture interprétative qui le replie inévitablement sur lui-même. Ce travail d’explication contextuelle semble néanmoins particulièrement crucial dans notre situation de « petits ». Dans un grand SCD, on peut tolérer plus d’implicite puisqu’un socle commun existe, malgré tout : l’environnement est supposé mieux connu de tous, en tout cas souvent partagé par tous les acteurs de services communs ou transversaux, ainsi que par la direction, et ce, au-delà des sites ou sections. Dans notre cas, tout conduit à se méfier des évidences soi-disant partagées : chiffres et données nécessitent mise en contexte, argumentation et éclairage sur les écarts. Autant de précautions oratoires et de préalables dont il faut avoir conscience pour communiquer et restituer avec justesse les résultats, aux tutelles comme aux étudiants.

Petits inconvénients et grands bénéfices…

Si nous avons souhaité décrire, dans toutes ses nuances, les aléas de notre partenariat, c’est pour montrer que le profit attendu n’était pas d’emblée acquis. Il a émergé d’un travail commun, où il a fallu faire preuve de créativité et apporter des solutions résolument innovantes face aux obstacles. Dans cette dynamique, la force d’une petite structure est réelle : la souplesse générée par le nombre réduit d’acteurs, la réactivité donnée par la proximité entre direction des SCD et instances décisionnelles sont des atouts inestimables quand le chemin n’est pas déjà tracé.

Concentrés sur le mécanisme de coopération engagée par nos trois « petits », nous n’avons pas détaillé les bénéfices, nombreux, que chaque SCD a pu et peut encore dégager pour lui-même de cette vaste opération.

Le profit le plus immédiat tient, sans nul doute, au résultat, incarné par la masse d’informations que chacun a pu récolter. La mutualisation des compétences est ici d’autant plus précieuse que l’investissement humain requis pèse bien davantage que le seul coût financier de l’inscription à l’enquête.

Au-delà de ce constat d’évidence, la démarche elle-même fait l’intérêt de cette expérience collective : le travail à trois nous a permis d’éprouver, plus qu’aucun « grand » n’a pu le faire, l’originalité de LibQual+, à savoir la fécondité du dispositif comparatif. Via son site, via rencontres et réseau tissé, les participants sont tous invités à la publicité de leurs résultats, enjoints à se comparer et dans le temps, et dans l’espace. Mais combien de SCD de grande taille le font-ils en France ? La multiplicité des données obtenues n’incite-t-elle pas à une forme d’autosuffisance où chacun a déjà bien assez à faire avec lui-même ? Notre petite taille nous a d’emblée immergés dans ce jeu du lien, de la comparaison. Nous n’en avons pas fait un supplément d’âme qui aurait parachevé la lecture de nos résultats, mais un prérequis, une donnée incompressible. À notre corps défendant, et parce que nous étions petits, notre travail de partenariat a illustré de la manière la plus flagrante ce qui n’est autre que le fondement de LibQual+ : dans une enquête de satisfaction, c’est la mise en perspective des résultats qui, seule, leur donne corps. Espérons que l’expérience des petits peut faire écho à celle des plus grands.

C’est sous l’angle politique que l’opération se révèle la plus exemplaire. Les SCD ont en effet prouvé qu’ils pouvaient coopérer et aboutir à des résultats concrets, sans y être contraints par des choix politiques d’alliance qui les dépassent. De ce point de vue, la petite taille des établissements est un facilitateur, voire un accélérateur de projets. Si, dans nos petites universités, les SCD sont un service qui participe – comme d’autres et avec sa singularité – à la stratégie globale, c’est bien parce que chaque université n’a d’autre choix que de mobiliser toutes les forces qui la composent. Les directeurs des SCD ont ainsi mis à profit leur participation aux instances décisionnelles pour communiquer à toutes les étapes de l’enquête. Dans ces lieux où se décident partenariats, alliances, stratégies de pilotage et d’évaluation, démarche qualité, il y avait avec LibQual+ un terreau pour parler un langage commun.

Sur tous ces sujets, la bibliothèque, même petite – parce que petite ! – peut se voir reconnaître une expertise. Notre image s’en est trouvée bonifiée.

Une telle opération est riche d’enseignement quant à la stratégie de positionnement que doit élaborer un petit SCD. Il n’existe pas s’il est suiveur et apparaît comme un exécutant qui subit les stratégies globales des tutelles. Il ne survit pas plus s’il s’accroche désespérément à ce que la loi « libertés et responsabilités des universités » lui a laissé de son « empire ». Un petit SCD n’a de pouvoir singulier que dans le savoir qu’il détient sur son environnement, proche et lointain, ainsi que dans son agilité à le traduire en opportunités. Dans un paysage aux contours flous, dominé par des politiques inflationnistes où les petits sont digérés sans complexe par les gros, l’action conduite autour de LibQual+, parce qu’elle était cohérente et collaborative, a contribué à déplacer quelques lignes. À nous de faire en sorte que l’avenir renouvelle et démultiplie ces perspectives. •

Janvier 2012

  1.  (retour)↑  Neuf inscriptions mais 14 établissements, l’inscription « Université de technologie » concernant trois universités, et celle du PRES lorrain recouvrant quatre établissements. Informations établies à partir des Notebooks 2008, 2009 et 2010 de LibQual+ France. Consultables sur : http://libqual-fr.pbworks.com/w/page/11288885/Documentation
  2.  (retour)↑  Si l’on considère les huit autres établissements ayant conduit l’enquête en 2011, seul le SCD de Nouvelle-Calédonie, avec 3 295 participants déclarés, approche l’effectif le plus important d’une université de technologie, celle de Compiègne qui comptabilise 3 548 participants. Les communautés de l’université de technologie de Belfort-Montbéliard et de l’université de technologie de Troyes comptent respectivement 2 877 et 2 453 répondants potentiels. Source : http://www.libqual.org/DataRepository.aspx
  3.  (retour)↑  http://www.arl.org
  4.  (retour)↑  Écart entre les scores attribués et la moyenne statistique des réponses pour chaque question.
  5.  (retour)↑  Pourcentage de réponses exploitables par rapport au potentiel de réponses pouvant être recueillies.
  6.  (retour)↑  Berry, A. Parasuraman, V. Zeithmal, « Servqual : a multiple item scale for measuring consumer perceptions of service quality », Journal of Retailing, n° 64, 1998, p. 12-40.
  7.  (retour)↑  Issues des scores correspondant au minimum tolérable et au maximum désiré.