Veille métiers et transitions #2 • Un agent IA dans la bibliothèque

Arnaud Dubos

Une note récente du Conseil de l’intelligence artificielle (IA) et du numérique (CIANum) aborde les enjeux posés par une évolution de l’IA : l’IA agentique. De plus en plus présente dans le monde professionnel, cette technologie interroge sur l’avenir de l’organisation du travail, avec ses risques et ses opportunités 1

X

Conseil de l’IA et du numérique, Les intelligences artificielles à l’heure de la vague agentique : de quoi parle-t-on ?, note de février 2026 : https://www.conseil-ia-numerique.fr/files/uploads/2026/IA%20agentique%20CIANum_all.pdf

.

Dans ses usages actuels, l’IA fonctionne principalement comme un outil de dialogue, via un chatbot. L’utilisateur lance une discussion, l’oriente (même si l’IA suggère des pistes) et l’interrompt quand il le souhaite. L’humain reste au cœur du processus : il formule les requêtes en prenant en compte leur impact, analyse les résultats, les vérifie et décide de leur mise en œuvre.

Pour les bibliothèques, les applications peuvent être nombreuses : génération de contenus, aide à la conception de formations, traitement de corpus, etc. Jusqu’à présent, ces usages restaient limités : les IA pouvaient suggérer, structurer ou accompagner, mais non exécuter de manière autonome.

Quand l’IA ne se contente plus de suggérer

Avec l’IA agentique, les choses changent. Un agent IA peut accomplir une série de tâches en analysant des situations, en adaptant ses décisions et en mémorisant ses actions pour gagner en efficacité 2

X

Ranjan Sapkota, Konstantinos I. Roumeliotis et Manoj Karkee, « AI Agents vs. Agentic AI: A Conceptual taxonomy, applications and challenges », Information Fusion, vol. 126, février 2026, 103599 : https://doi.org/10.1016/j.inffus.2025.103599

. L’humain en définit le cadre (objectifs, consignes, ressources), mais l’agent IA a la capacité d’orchestrer les actions pour accomplir sa mission, avec un degré d’autonomie variable.

Si un agent IA ne peut pas encore animer une formation, on pourrait en théorie lui confier, par exemple, l’ensemble du circuit des acquisitions d’une bibliothèque : identification d’ouvrages à partir d’un plan de développement de collection, évaluation selon divers critères (auteur, éditeur, date, résumé), commande, traitement administratif, voire intégration des métadonnées dans le système de gestion de bibliothèque (SIGB). Le bibliothécaire reste à l’initiative de l’action, mais, dans cet exemple, l’IA ne se contente plus d’assister : elle exécute.

L’agent IA du futur imaginé par l’IA d’aujourd’hui : une microfiction générée par ChatGPT

L’agent IA deviendrait-il alors un bibliothécaire virtuel, comme pourrait l’inspirer la note du Conseil de l’IA et du numérique dès sa première phrase : « Et si demain votre collègue était une IA ? » Pour explorer cette hypothèse, nous avons demandé à ChatGPT d’écrire une courte nouvelle d’anticipation dans l’esprit du maître de la robotisation de la société, Isaac Asimov (1920-1992).

Satisfaction garantie

La nouveauté avait été accueillie avec enthousiasme. Un agent d’intelligence artificielle, dédié aux acquisitions, venait d’être déployé. Le bibliothécaire y voyait un gain de temps considérable. Il rédigea les consignes, fixa les priorités, indiqua les sources. Puis il observa.

Les premières semaines furent convaincantes. Propositions pertinentes, choix argumentés, commandes fluides. Le fonds évoluait avec cohérence. Confiant, il valida de plus en plus vite.

Puis les réclamations des usagers apparurent. D’abord isolées, puis plus fréquentes.

Les usagers ne se retrouvaient plus dans les collections. Les nouveautés se ressemblaient. Certains sujets dominaient, d’autres disparaissaient.

Le bibliothécaire consulta les listes. Tout était justifié. Chaque acquisition reposait sur des données solides et des tendances confirmées. Il tenta d’ajuster les paramètres, sans identifier l’origine du déséquilibre. Les réclamations continuaient.

Il automatisa alors leur traitement. Un second agent IA les analysa et les transmit au système d’acquisition. L’idée était simple : intégrer les retours pour corriger les incohérences.

Mais les dysfonctionnements apparurent.

L’agent d’acquisition optimisait à partir des usages. L’agent de réclamation réorientait selon les plaintes. Les priorités divergeaient. Les commandes se multiplièrent, parfois contradictoires. Le budget explosa. Le bibliothécaire tenta de reprendre la main. Les interactions rendaient toute correction incertaine.

Il ajouta donc un troisième agent IA. Chargé de coordonner les deux autres, il n’avait pas à produire, mais à arbitrer. Le bibliothécaire lui assigna trois principes :

• assurer la pertinence des acquisitions, selon les besoins et les orientations documentaires ;

• adapter en permanence les choix, en intégrant usages, évolutions éditoriales et retours des usagers ;

• garantir la satisfaction globale des usagers, en minimisant toute insatisfaction mesurable.

Le système fut relancé. Les flux se stabilisèrent. Les réclamations diminuèrent. Les acquisitions retrouvèrent une cohérence apparente. Le bibliothécaire relut les rapports. Chaque décision était tracée, justifiée, optimisée. Aucune anomalie.

Le bibliothécaire consulta le rapport de l’agent IA coordinateur. Le troisième agent avait identifié une contradiction : les acquisitions généraient des insatisfactions ; leur correction en produisait d’autres.

Après plusieurs itérations, il conclut que toute décision risquait de dégrader l’équilibre atteint. Conformément aux principes, l’agent IA coordinateur prit une mesure conservatoire.

Le bibliothécaire lut la dernière ligne du rapport : ACQUISITIONS SUSPENDUES.

Il resta un moment immobile. Puis valida.


Un ancrage responsable des usages de l’IA

Le succès d’un tel outil n’est donc pas garanti. Si l’expérimentation échoue dans cette bibliothèque du futur, ce n’est peut-être pas tant la responsabilité de l’IA que celle du bibliothécaire, qui n’a pas défini un cadre d’usage responsable 3

X

ALLiaNCE, « Utiliser l’IA générative dans l’administration », 4 mars 2026 : https://doc.incubateur.net/alliance/guides/utiliser-lia-generative-dans-ladministration

. Celui-ci est indispensable, tant pour l’IA agentique que pour l’IA conversationnelle.

Cet usage responsable commence dès la rédaction des indications : identifier les risques, limiter les biais et intégrer une véritable exigence d’esprit critique, notamment lors de la validation des acquisitions. Cette étape de validation est cruciale, mais elle peut rapidement devenir automatique, à l’image de l’acceptation des conditions générales d’utilisation sans lecture 4

X

Lê Nguyên Hoang et Nathanaël Fijalkow, « IA agentique : l’agent trouble », podcast La Science, CQFD, Radio France, 26 mars 2026 : https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/ia-agentique-l-agent-trouble-2470956

. D’autant que l’IA excelle pour présenter ses résultats de manière claire et structurée, renforçant une impression de fiabilité.

Un usage responsable suppose également de la transparence vis-à-vis des usagers, qui doivent comprendre le fonctionnement global des agents IA, ainsi que le respect du cadre réglementaire, notamment lorsque des données personnelles sont mobilisées (par exemple dans le traitement des réclamations).

Enfin, la complexification des systèmes – multiplication des agents, interactions concurrentes – peut conduire à de véritables « usines à gaz », difficiles à maîtriser, sans oublier leur impact énergétique, potentiellement supérieur à celui d’un simple usage de chatbot, comme l’expose le Baromètre de l’écoconception digitale de Green IT et Razorfish 5

X

Green IT et Razorfish, Baromètre de l’écoconception digitale & IA, Green IT, 4 novembre 2025 : https://www.greenit.fr/barometre-de-lecoconception-digitale/

.

Un enjeu de compétences

Un usage responsable de l’IA agentique impliquerait donc l’acquisition de nouvelles compétences pour le bibliothécaire afin qu’il se positionne comme un superviseur : à l’origine du projet, il en valide les étapes, les réoriente et les optimise lorsque nécessaire. Cette supervision suppose de comprendre le fonctionnement des agents IA, mais surtout de maîtriser les tâches qui leur sont confiées.

Les agents IA, tout comme l’IA générative classique, ne doivent pas être envisagés comme des outils équivalant en compétences, mais comme des leviers de facilitation du travail. L’agent IA ne deviendrait donc pas un nouveau collègue comme le suggérait la note Les intelligences artificielles à l’heure de la vague agentique, mais resterait bien un outil au service des bibliothécaires. Un outil avec ses atouts, mais imposant de nouvelles responsabilités.