49e Congrès de l’ADBU

17-19 septembre 2019 – Bordeaux

Philippe Père

« Tous bibl-IA-thécaires ? L’intelligence artificielle, vers un nouveau service public » était le thème de la journée d’étude du 49e Congrès de l’ADBU, qui s’est tenu du 17 au 19 septembre 2019.

Tous les secteurs d’activité s’emparent de l’intelligence artificielle. Un état des lieux de ce sujet dans le monde de l’IST et des bibliothèques universitaires apparaît comme nécessaire au vu des perspectives de transformation de nos activités et de nos métiers. Il s’agit, comme le rappelle Marie-Madeleine Géroudet en introduction de la journée, d’une question « stratégique, scientifique et humaine ».

Ces transformations sont susceptibles d’affecter autant l’accès à l’information et la gestion des données et des ressources documentaires que les services à offrir sur place, ou encore la médiation documentaire à développer à distance. L’IA est aussi susceptible, par divers moyens qui ont été examinés, de renforcer la relation des BU, des chercheurs et des services d’IST qui leur sont offerts.

« L’intelligence artificielle, c’est ce que nous en faisons »

Dès l’introduction, les universités accueillant le congrès – Université de Bordeaux et Université Bordeaux Montaigne – mettent l’accent sur leurs objectifs de développement et de mise à profit de l’intelligence artificielle pour la recherche.

Nous en sommes aujourd’hui à pouvoir espérer, par les moyens de l’IA, franchir ou réduire le « fossé sémantique » (semantic gap) qui affecte l’exploitation de données et de ressources documentaires numérisées, comme nous le rappelle Hélène Jacquet, vice-présidente développement et stratégie de l’Université de Bordeaux. Béatrice Laville de l’Université Bordeaux Montaigne (Lettres, Langues et Sciences humaines) souligne le souci de son établissement d’offrir des services et des ressources d’humanités numériques qui soient fondés sur une utilisation humaniste des machines au service de la recherche, en relation avec les rénovations architecturales récentes ou en cours dans le plan Campus Bordeaux.

L’intelligence artificielle en question : enjeux et définitions

Dans un premier temps, Nicolas Roussel (INRIA Bordeaux) et Martin Gilbert (Université de Montréal) s’attachent à définir l’intelligence artificielle et ses enjeux pour l’homme et la société. Le premier se penche sur le concept, sur ses dimensions scientifiques et techniques et le second sur les aspects éthiques et sociaux.

Rappelons que l’intelligence artificielle consiste à comprendre le fonctionnement de la cognition humaine et à essayer de le reproduire avec des machines. Il s’agit à l’origine d’un projet de recherche scientifique.

Malgré la progression exponentielle de l’informatique depuis l’après-guerre, et surtout depuis la troisième révolution industrielle commencée dans les années 1970, l’intelligence artificielle n’est apparue que récemment dans le débat public et l’activité économique. L’exposé de Nicolas Roussel nous en donne les raisons. Les premières initiatives américaines pour une reproduction artificielle du cerveau humain (congrès de Darthmouth, 1956) ont été suivies de quatre à cinq décennies sinueuses. La difficulté des enjeux éthiques, scientifiques, techniques, semble évidente : qu’est-ce que l’intelligence humaine et comment se réalise-t-elle ? Comment la reproduire ? Deux approches complémentaires se distinguent dès cette époque : d’une part, la conception connexionniste fondée sur les connexions constituant le cerveau humain et, d’autre part, une approche cognitiviste fondée sur les processus du raisonnement symbolique. Les multiples débats philosophiques que ces approches suscitent des freins au développement de l’IA. Le philosophe Hubert Dreyfus a exposé les limites de l’objectif de reproduction de l’intelligence humaine, et est critique en 1965 sur la succession de succès et d’échecs de la recherche en la matière. Il faut vraiment attendre les années 2000-2010 pour voir une évolution notable en termes de programmes de recherche et de réalisations, avec une prédominance de l’approche connexionniste : le big data et la puissance de calcul en sont des moteurs.

Les multiples utilisations d’IA contemporaines en témoignent : assistants vocaux des téléphones mobiles, véhicules autonomes, jeux vidéo stratégiques, robots à forme humaine toujours plus performants et autonomes (jouant au football…), créations de chansons (Flowmachines de Sony) etc. Watson, champion artificiel de Jeopardy conçu par IBM (2011), illustre cette période de nouvel « âge d’or » où l’influence de l’IA grandissante peut être décrite par l’adage de Roy Amara (Palo Alto) : « Nous avons tendance à surestimer l’incidence d’une nouvelle technologie à court terme et à la sous-estimer à long terme. » [« We tend to overestimate the effect of a technology in the short run and underestimate the effect in the long run. »] Les GAFAM investissent en la matière, depuis près d’une décennie pour les plus précoces : c’est le cas pour les informations sémantiques exploitées par le moteur de recherche de Google depuis 2012.

Aujourd’hui, les machines perçoivent, détectent, classent, évaluent, prédisent et agissent avec des performances qui semblaient inatteignables. Le défi pour la recherche reste toujours de pouvoir reproduire les mécanismes cognitifs à l’œuvre dans l’apprentissage autonome, tel qu’il se déploie pour un enfant en bas âge par exemple. Le chemin est encore long et très incertain vers la reproduction de l’intelligence humaine. Les machines dotées d’IA apprennent par elles-mêmes, notamment par renforcement ou réitération. Il s’agit dans ce cas de machine learning qui peut être supervisé ou non supervisé (le plus complexe). Au-delà, se situe le deep learning qui consiste pour la machine en l’apprentissage à partir d’éléments très divers et en nombre important.

Machine learning et deep learning recouvrent les types d’outils utilisés en matière d’IST. Le deep learning en particulier est utilisé dans la reconnaissance d’images, en offrant de multiples séquences à la machine afin de favoriser ses capacités de catégorisation ou d’indexation. Ses progrès récents ont été déterminants dans le développement de l’IA. Notons que ce mode d’apprentissage rencontre beaucoup de limites dans la mesure où les ajustements de compréhension des objets (images, etc.) ne renvoient pas à ce qu’un humain perçoit et peut catégoriser. De même, l’utilisation de régularités statistiques en la matière ne fonctionne pas dans tous les cas.

D’une manière générale, devant des systèmes autonomes auxquels l’humain peut déléguer des actions, il est nécessaire de concevoir des outils d’IA en ayant toujours un but précis qui parte des besoins des personnes et ne mette pas en question leur responsabilité en agissant à leur place. Il s’agirait pour le mieux de ne pas situer « l’humain dans la boucle » des progrès de l’IA, de ne pas épouser les réflexes scientistes d’autrefois où les avancées de la science et les applications techniques pouvaient précéder la réflexion sur les besoins des gens.

Les IA étant des outils informatiques comme les autres, Nicolas Roussel rappelle qu’ils sont en France soumis à la loi « Informatique et libertés » de 1978.

Martin Gilbert va montrer les enjeux éthiques de l’IA en citant la Déclaration de Montréal pour un développement responsable de l’IA fondée sur des principes tels que : le bien-être, l’accroissement du bien-être et le respect de l’autonomie. Une machine intelligente pouvant résoudre un dilemme éthique reste complexe à concevoir au vu de l’impossibilité d’une morale universelle. L’éthique appliquée dévoile différents types de comportement humain : conséquentialiste ou mû par la déontologie, d’où peuvent être tirées une éthique normative et une méta-éthique.

Une IA qui remplace l’humain n’est pas pour demain, une machine demeurant incapable d’acquérir le sens commun, bien que l’on puisse entrevoir à terme la conception d’une superintelligence, dans le fil des innovations récentes de machines capables de jouer contre des humains, dans des jeux de stratégie.

L’IA ne remplacera pas non plus la totalité de l’emploi humain. Certains métiers fondés sur l’exécution de tâches pourront en effet disparaître sans qu’il soit facile d’évaluer leur proportion : celle-ci se situerait entre 9 % et 40 % de la totalité des emplois. Certains emplois, comme pour toute innovation technologique, seront déplacés ou transformés. La disparition de ces emplois renvoie toutefois, pour Martin Gilbert, à la perspective politique du revenu universel.

Si des métiers appliquant des procédures précises et réalisant des tâches techniques pourraient être remplacés par l’IA à terme, il reste difficile d’envisager un remplacement des métiers de création ou des artistes : une machine serait-elle capable de l’intention qui préside à la création d’une œuvre ?

L’IA peut être mise à contribution d’actions de contrôle et de manipulation des personnes, que ce soit en termes de diffusion des données personnelles, de ciblage de l’information, de captation de l’attention, ou de détermination des contenus et de discrimination des informations qui sont à l’œuvre aujourd’hui dans les algorithmes de diffusion et de recommandation abondamment exploités par les GAFAM. De la voix imitée par une machine au téléphone à l’hijaking déjà pratiqué en informatique, les potentialités de l’IA doivent bien entendu susciter notre vigilance.

Nous pourrions provisoirement conclure que l’IA doit être ce que nous en faisons.

Deep learning et big data en humanités numériques

Apprendre à la machine à lire des textes manuscrits ou des images en conjuguant une approche analytique des caractères ou des objets représentés et une approche statistique des lettres, mots, images, permet d’utiliser le deep learning sur des grands corpus de données.

Des projets menés par l’IRHT et ses partenaires (dont la BnF) et par Gallica (BnF) nous en montrent des exemples.

Himanis

La constitution d’un corpus massif de 200 volumes et de 80 000 pages provenant du Registre du Trésor des Chartes, a permis aux porteurs du projet de plateforme HIMANIS, que présente Dominique Stutzman (IRHT-CNRS), d’expérimenter un moteur de recherche basé sur l’intelligence artificielle.

La recherche en plein-texte dans ces documents médiévaux manuscrits numérisés, est rendue possible grâce à un moteur qui apprend par lui-même, doté de plusieurs couches de réseaux neuronaux artificiels. La machine lit les lignes, reconnaît des caractères, émet des hypothèses d’interprétation nourries par la masse des données qu’elle peut fouiller. Elle prédit une lecture et donne un résultat. Cet apprentissage automatique de type deep learning dans les humanités numériques est également appuyé sur une indexation profonde fondée sur un format d’encodage unique, Text Encoding Initiative (TEI), et l’indexation de toutes les abréviations.

L’aboutissement de cette plateforme à la version bêta en 2018 fait suite à quatre années de projet, inspiré de certains systèmes et projets notamment à l’échelle européenne (READ, etc.).

Parmi les points communs entre ce projet et celui présenté par Jean-Philippe Moreux (Gallica-BnF), nous pouvons aussi citer ou rappeler International Image Interoperability Framework (IIIF) : l’exploitation par l’IA des corpus numériques ne peut qu’être améliorée par l’interopérabilité de ces derniers ou plutôt par celle des plateformes et des bibliothèques numériques qui les conservent et en permettent la diffusion.

Reconnaissance visuelle et indexation des images de Gallica

Jean-Philippe Moreux (BnF), ingénieur informatique pour Gallica, nous rappelle que la plus grande des bibliothèques numériques de France recèle aujourd’hui pas moins d’1,2 million d’images cataloguées.

La masse de ce corpus permet d’expérimenter des outils fondés sur l’IA. L’enjeu est d’abord quantitatif : exploiter ce vaste corpus et permettre de faire des recherches qui portent simultanément sur différentes collections. Il est aussi qualitatif : améliorer les requêtes textuelles et formelles et fournir de nouveaux services pour la recherche (par exemple d’analyse quantitative des images).

L’IA permet une description par Extract, Transform and Load (ETL) et donc de classer par genres les différentes images sur la base des différentes classes d’apprentissage fournies à la machine. L’indexation complémentaire a été réalisée par le deep learning. Les API et standards facilitent la reconfiguration des résultats. IIIF rend possible l’exploitation interopérable d’images.

Les images sont ainsi décrites, interprétées et rapprochées selon leurs contenus. La BnF poursuit son objectif d’amélioration de la reconnaissance visuelle automatique, de limitations des anachronismes ou des erreurs de classification que le deep learning peut entraîner. L’océrisation des descripteurs, les données bibliographiques et la reconnaissance visuelle assurée par la machine sont, dans ce but, une combinaison efficace de traitement documentaire à la fois humain et automatisé.

Après cet examen d’applications de l’IA pour le traitement documentaire sur des grands corpus, deux exposés vont présenter des résultats sur la relation à l’usager – ou au patient. Les agents conversationnels se développent : une illustration dans le domaine de l’enseignement de la Médecine et une autre dans une bibliothèque universitaire montrent les avancées et les limites en la matière.

Un patient virtuel pour étudier la médecine

Sophie Rosset et Pierre Zweigenbaum (Université Paris Saclay – CNRS) caractérisent le projet qu’ils présentent comme un exemple d’IA restreinte : un agent conversationnel traite des questions et répond en recoupant des informations fournies préalablement.

Ils nous présentent ainsi Dialogant, une expérimentation de patient virtuel capable de dialoguer avec des étudiants en médecine. Ces derniers ont l’habitude de travailler avec des mannequins pour apprendre leur futur métier. Le système de patient virtuel a une finalité pédagogique, et n’est pas un robot expert en médecine ni capable de traiter de sujets hors du domaine médical.

Quarante évaluateurs ont testé cette machine, le système étant mis au point en langues française, anglaise et espagnole. Il est basé sur un gestionnaire de dialogue équivalent à celui qui est utilisé pour les agents conversationnels de type chatbots développés aujourd’hui dans plusieurs secteurs d’activité. Il est fondé sur la compréhension du langage naturel (NLU) et la capacité à y répondre (NLG).

Le contenu du dossier médical d’une personne est fourni à la machine, consultable par ordinateur sous la forme d’un avatar 3D. Ce dernier répond oralement aux questions écrites. Ce système apprend à partir des différents dialogues qu’il a avec les étudiants en médecine et peut ainsi améliorer le service qu’il rend.

Un robot humanoïde aux services des usagers

Provenant de la jeune et petite université technologique de Wildau (fondée en 1991 – 3 000 étudiants) dans les environs de Berlin, Janine Bressler présente le fruit d’une collaboration entre la bibliothèque universitaire et une équipe de recherche en robotique, RoboticLab, à savoir la préparation de Pepper, robot humanoïde lancé par une entreprise japonaise en 2016, et programmé ici pour assister les publics de la BU.

À l’inverse de Dialogant, il s’agit bien de deux robots physiquement présents et mobiles dans les espaces de la bibliothèque. Nous sommes aussi dans de l’IA restreinte : les systèmes GLU et GLN sont également exploités dans un but précis, à savoir l’orientation 24 heures sur 24 dans les espaces et les services de la BU, et la possibilité de répondre à des questions simples posées via une interface tactile.

Une foire aux questions assorties d’un ensemble de réponses adaptées permet au robot de dialoguer, voire de blaguer. Il est apprécié des usagers tant par les réponses fournies que par son humour.

Conception et recherche en IA : perspectives pour la documentation, l’IST et les bibliothèques

Après une pause méridienne accompagnée par les produits gastronomiques et viticoles des terroirs de Bordeaux et de Guyenne, l’après-midi nous permet de remettre en perspective objectifs et mises en œuvre de l’IA en bibliothèque et pour l’IST. Un détour par la SNCF donne un exemple de stratégie d’innovation s’appuyant sur l’IA, et de méthodologie de partage des connaissances, de mise en commun transversal pour la recherche et le développement des services à l’usager. La présentation de Nicole Coleman (Stanford University Libraries) propose un aperçu des utilisations et des potentialités de l’IA en bibliothèque, notamment en tant que service pour les chercheurs. La table ronde qui suit permet de dresser un tableau des ambitions et des objectifs de grands établissements.

Stanford Librairies : l’IA dans les services à la recherche

« L’IA est ce que nous en faisons. » La phrase prononcée le matin revient dans la bouche de Nicole Coleman. C’est le leitmotiv de la démarche d’incubation et d’application exploitée à Stanford. L’exemple de cette université montre en effet un ensemble d’applications diverses. Pour Nicole Coleman, l’intelligence artificielle ne doit pas inquiéter plus que les technologies qui la précèdent comme l’informatique et le numérique. Les bibliothèques sont utilisatrices de technologies (depuis toujours) et l’innovation doit être un enjeu et une opportunité pour le bibliothécaire, également sur le plan éthique.

La gestion des données (numériques) est une fonction en expansion depuis plusieurs années en bibliothèque. L’IA se fonde justement sur leur traitement et, sans pour autant remplacer le bibliothécaire, aide à les traiter.

En 2018, les bibliothèques se sont dotées d’un « AI Studio » pour présenter et travailler des projets dans lesquels des applications d’intelligence artificielle peuvent aider le personnel dans le traitement de l’information et ainsi rendre les collections plus faciles à découvrir et à analyser pour les chercheurs. Les efforts sont expérimentaux et motivés par l’intérêt et l’enthousiasme d’une partie du personnel de bibliothèque.

Les bibliothèques de Stanford travaillent avec de nombreux centres de recherche. Par exemple, un LectoryLab travaille sur les corpus numérisés et sollicite les services de la bibliothèque, notamment pour stocker ces corpus. L’IA est présente dans les activités et les services classiques de la bibliothèque : exploitation des enregistrements audio d’Allan Ginsberg, d’une collection numérisée de romans du XIXe siècle, d’une base d’archives ou traitement des données provenant d’images. Elle est au cœur de services de recherche en humanités numériques à développer à partir des expériences menées au sein du studio. Des chercheurs prennent ainsi l’habitude de croiser l’apprentissage automatique, le crowdsourcing et l’exploitation des données et des corpus.

Les données d’images fournies en accès ouvert permettent à Google d’améliorer son indexation. Les données en masse issues des corpus, celles qui sont indexées de manière également massive, sont autant d’éléments permettant aux algorithmes de s’entrainer et de s’améliorer.

L’intérêt de l’IA est d’apporter de l’agilité dans le traitement massif des données. Les classifications changeant et évoluant, l’IA permet une gestion plus fluide, avec des interfaces plus flexibles.

La traduction dans l’activité quotidienne des bibliothécaires est encore à construire. Les premiers jalons sont posés en termes de sensibilisation et de formation. Pour Nicole Coleman, l’IA ne remplacera pas les emplois mais en facilitera certains. C’est un soutien, un stimulateur, une machine comme une autre dans la mesure où elle ne fait rien par elle-même.

SNCF : recherche et innovation dans le domaine des agents conversationnels

Le marché des agents conversationnels – ou chatbots – est en expansion, et un nombre croissant d’applications voient le jour pour une clientèle variée. Les GAFAM autant que des start-up s’emparent du secteur.

Lucie Lefeuvre expose l’enjeu des agents conversationnels à la SNCF et leurs évolutions récentes. Le dialogue homme-machine est ancien dans les gares, sur internet ou au bout du fil : borne interactive, serveur vocal interactif, assistant virtuel.

Le développement des agents conversationnels accompagne la SNCF dans son souci de développer des outils pour ses services à l’usager. Les agents présents sur le marché sont très orientés « client » et moins « métier ».

Face à cette tendance, la SNCF souhaite mieux comprendre le marché et exploiter le potentiel d’usages.

Des innovations ont été rapides mais sans débouchés assez satisfaisants pour l’utilisateur. Des assistants conversationnels sont utilisés par plusieurs services pour des usages variés : réservations, recherche d’information, recherche documentaire.

Le Minilab fédère depuis deux ans des acteurs internes et externes de tous métiers pour concevoir des innovations en termes d’outils de conversation et de chatbots et en prenant en compte les dimensions techniques, de sécurité, d’infrastructure, de protection des données, d’ergonomie de la conversation.

Pepper fait partie des services conversationnels en question, utilisé aujourd’hui dans les gares de Lyon et de Nantes. Le département d’Innovation et de Recherche de l’établissement (dont relève le MiniLab) se fonde sur l’expérience du voyageur en recueillant les connaissances et en les partageant en son sein. Il s’agit de modéliser ces connaissances en termes de relations entre chatbot et humains, et d’améliorer les services en identifiant les besoins, les risques (juridiques), et de concevoir des systèmes d’apprentissage (IA) pour le développement autonome des capacités des agents conversationnels.

Table ronde autour de l’IA

Les participants à la table ronde étaient Grégory Miura (modérateur), Jeannette Frey (Bibliothèque cantonale et universitaire de Lausanne), Estelle Caron (Institut national de l’Audiovisuel), Emmanuelle Bermès (Bibliothèque nationale de France), David Aymonin (Agence bibliographique de l’enseignement supérieur).

Le futur de l’IA en BU est un enjeu qui embrasse toutes les facettes de la gestion des collections et des services : assistance au travail bibliothéconomique, outils de recherche documentaire, fourniture de données, offre de corpus pour les chercheurs, nouveaux services pour l’usager, etc.

Grégory Miura rappelle que l’intelligence artificielle s’inscrit dans la longue durée et commence dès la conception d’une machine à qui l’on confie une tâche et qui traite des données. Un premier tour de table permet de faire un rapide état des lieux des utilisations et des projets d’IA à la BCU de Lausanne, à l’ABES, à la BnF, et à l’INA.

Pour Jeannette Frey, l’IA assiste le travail de gestion et de traitement documentaire, et permet d’optimiser l’indexation par exemple. Cela contribue aujourd’hui aux missions patrimoniales et de dépôt légal de la Bibliothèque cantonale et universitaire de Lausanne. Par exemple, sur les fonds numérisés (par Google), pour les projets concernant les corpus numériques de presse, l’IA est présente dans les outils d’indexation. La question de l’IA du point de vue des professionnels des bibliothèques implique un accompagnement au changement et une acquisition de nouvelles compétences pour une appréhension positive d’outils qui complètent et perfectionnent les fonctions de bibliothécaire plutôt qu’ils ne les remplacent. Bien entendu, cet enjeu suppose d’affermir les compétences ou de les développer, notamment dans les domaines de la fouille de textes et de la propriété intellectuelle.

David Aymonin rappelle que les BU françaises sont déjà toutes utilisatrices de l’IA par le biais d’un service proposé par l’ABES. L’Agence bibliographique de l’enseignement supérieur s’intéresse depuis plusieurs années aux algorithmes permettant de traiter des données massives. Kalinka est le système qui a inspiré la mise au point de Paprika, lancé depuis le printemps 2019. Il s’agit d’un système expert d’intelligence artificielle permettant aux catalogueurs du Sudoc d’optimiser les relations entre notices d’autorités et notices bibliographiques. C’est un autre système également expert qui facilite la conversion des 15 millions de notices du Sudoc au format FRBR. Ces moyens permettent de passer de la pratique de catalogage à un objectif de curation, grâce à la possibilité de traiter une grande quantité de données et de documents.

Emmanuelle Bermès présente l’enjeu de l’IA pour les humanités numériques au travers de plusieurs exemples propres à la BnF :

  • Les données interrogeables, les données à fouiller (documents et données de Gallica – dont les logs –, données et sites web du dépôt légal de l’internet) sont une masse que des chercheurs peuvent solliciter pour mettre au point ou améliorer des algorithmes pour des machines fondées sur l’IA. La mise à disposition d’un grand corpus de données pour la recherche (et pour toutes sortes d’objectifs d’exploitation scientifique) constitue l’objectif du projet CORPUS à l’œuvre depuis quatre ans.
  • La recherche documentaire s’appuie sur les API et les webservices qui permettent de récupérer des données brutes issues des catalogues.
  • La conservation des œuvres peut être optimisée grâce à l’IA via des outils permettant d’analyser l’état physique des documents.

Estelle Caron présente les utilisations de l’IA à l’INA dans un contexte de refonte du système d’information et de développement des services à la recherche. Plus que de documents, il s’agit de flux à traiter. Trois objectifs sont menés en matière de traitement des données conservées par l’Institut : la segmentation des journées, la segmentation et l’océrisation des programmes audiovisuels. La transcription automatique, l’océrisation et la reconnaissance image sont issus d’outils d’IA.

Ces approches n’éclatent-elles pas le document, base du traitement et de l’accès à l’information pour les bibliothèques ? interroge Grégory Miura.

Emmanuelle Bermès fait remonter la déconstruction du document aux débuts de la numérisation, qui a remis en cause les techniques anciennes de traitement documentaire et de conservation.

L’usager reconstruit une unité, grâce aux données. Il est nécessaire de reconstruire des ensembles et des entités manipulables. Jeannette Frey rappelle que des machines peuvent traiter des données que les humains ne peuvent concevoir dans leur unité ou ne peuvent reproduire. Les humains pensent en classant, en catégorisant. Par conséquent, la reconstruction d’une entité, d’un document, est bien nécessaire.

David Aymonin perçoit la transition bibliographique comme un processus dans lequel l’IA permet d’extraire et d’enrichir les informations bibliographiques. Grâce à l’IA, la nouveauté réside dans la possibilité de traiter non plus un document à la fois, mais des milliers de documents, à savoir ceux qui constituent l’intégralité d’un corpus. Il s’agit peut-être d’un métier nouveau.

Pour Estelle Caron, il s’agit d’une nouvelle offre de données à destination des chercheurs qui nécessite d’accompagner les nouveaux usages et suppose le développement de compétences dans les fonctions de documentation.

David Aymonin nous rappelle qu’un informaticien spécialisé en IA a besoin, outre de données de qualité, d’un classement des algorithmes dans des librairies elles-mêmes insérées dans des logiciels. L’infrastructure adéquate doit pouvoir traiter une grande quantité de données grâce à une mémoire importante. Ensuite, les interfaces ont un rôle majeur, les chatbots présentés durant la journée en offre des exemples. Le fonctionnement des librairies est cependant mystérieux pour la plupart des informaticiens. La question éthique, de compréhension de l’utilisation de l’IA, de la recherche de son utilisation pour améliorer, enrichir, donner l’accès aux données est essentielle dans nos choix à faire en la matière.

Pour Emmanuelle Bermès, l’IA est utile dans le cadre d’ensembles de données homogènes plutôt que sur des masses. Le traitement d’ensembles divers suppose donc une collaboration étroite entre les chercheurs utilisateurs. La question des outils, des interfaces, et de leur stabilité dans le temps semble complexe. Nous ne pouvons retrouver l’équivalent du catalogue pour visualiser des données en masse.

Jeannette Frey évoque l’humanisation des outils comme une nécessité face à l’inéluctabilité de l’IA. Nos métiers sont particulièrement en prise avec l’IA et un travail de régulation dans tous les secteurs est nécessaire, face au risque d’un accaparement par de grandes firmes et d’un « capitalisme des plateformes ». L’IA a des limites : on peut la berner, nous rappelle David Aymonin. Les garde-fous à l’IA, tels que le rapport de la CNIL (2017) les mentionne, reviennent à améliorer les compétences des personnes, à former les acteurs des algorithmes à l’éthique. À cette fin, les usages de l’IA dans les établissements doivent pouvoir être recensés et diagnostiqués.

Pour Emmanuelle Bermès, les projections d’un traitement sans qualité et d’un remplacement du catalogueur par l’IA sont extrêmes. La collaboration homme-machine demeure nécessaire : l’IA ne se substitue pas au bibliothécaire mais rend meilleur son travail, assure un niveau de granularité plus fin au traitement documentaire sans que ce travail ne puisse lui être délégué à 100 %. Estelle Caron perçoit les opportunités de l’IA en termes d’accroissement du travail documentaire en mode à la fois agile et transversal.

Conclusion

L’IA sans conscience ne serait que ruine… La vigilance nécessaire suppose des compétences à développer. L’IA se situe dans la continuité de nombreux services existants, leur donnant de nouvelles potentialités : des outils IA améliorent les bases et les plateformes existantes. Les exemples de l’ABES, de l’INA, de la BnF et de la BCU de Lausanne le montrent. Il s’agit d’accompagner au changement et de convaincre que l’IA est un ensemble de procédés permettant d’assister et d’améliorer le travail de bibliothécaire. L’approche des bibliothécaires, le recours à l’IA dans les humanités numériques notamment, devraient nous permettre de lui donner une destination qui correspond à notre éthique professionnelle : l’exemple du patient virtuel dans le domaine médical, fondé sur les principes de l’éthique médicale, a paru éloquent en la matière. L’IA en ce sens peut être au cœur de nos métiers et nous permettre de mieux accomplir ce que nous faisons pour traiter, enrichir, conserver, diffuser et permettre l’exploitation de la documentation et de l’information dans un univers des données massives.

Aux phases expérimentales pourront succéder les phases d’industrialisation en matière d’utilisation de l’IA par les bibliothèques, afin qu’elles soient dotées de services opérationnels.