Journées d’étude « Intelligence artificielle : écosystèmes, enjeux, usages. Une approche interprofessionnelle » • Jour 2 : « Usages de l’IA. Incertitudes et opportunités », 14 novembre 2023

Maëva Besnard

Corentin Delattre

Morgane Gibily

Émeline Gouillard

Antonin Marionneau

Julie Thomas-Feist

La 7e édition de la Biennale du numérique s’est tenue à l’École nationale supérieure des sciences de l’information et des bibliothèques (Enssib) à Villeurbanne, les 13 et 14 novembre 2023. Elle a focalisé son attention sur la question des usages de l’intelligence artificielle (IA) : usages professionnels, usages publics, et comment usages professionnels et usages publics s’influencent mutuellement.

Conférence 1 : « IA et création littéraire »

  • Alexandre Gefen, critique littéraire et directeur de recherche au CNRS

Alexandre Gefen, critique littéraire et directeur de recherche au CNRS, étudie notamment le renouvellement du champ des créations littéraires à l’aune de l’émergence des IA. Impliqué depuis des années dans l’étude de la relation entre l’IA et les humanités numériques, Alexandre Gefen a, entre autres, publié un essai aux éditions de l’Observatoire 1

X

Alexandre GEFEN, Vivre avec ChatGPT, Paris, Éditions de l’Observatoire, 2023.

et participé au projet de recherche CulturIA, axé autour d’une histoire culturelle de l’intelligence artificielle.

Introduction

L’émergence des modèles de langage impacte l’organisation de la langue et du savoir, de l’esprit humain. Selon Alexandre Gefen, l’IA change notre manière de réfléchir à la littérature produite par ces nouveaux outils, mais aussi à la littérature produite par des êtres humains. C’est une évolution qui a surpris les écrivains dans le courant de l’année 2022, alors que les IA capables de générer une image à partir d’un texte venaient de traumatiser le monde de l’art. Ces systèmes nous rendent capables de générer des textes avec une vraisemblance impressionnante qui, non contente de passer avec succès le test de Turing, peut aussi tromper un être humain. En effet, il est difficile de démontrer qu’un texte a été ou non produit par une IA, sachant que de type de programmes peut non seulement composer un devoir probant, mais aussi de la poésie, un programme informatique, etc. C’est ce qui, toujours selon Alexandre Gefen, donne l’impression de pénétrer dans une « vallée de l’étrangeté », c’est-à-dire un endroit dont on ne comprend pas les mécanismes.

Interactions avec ChatGPT-3

Pour illustrer son propos, Alexandre Gefen a évoqué quelques exemples d’interaction avec ChatGPT-3. À la question « Qu’est-ce que la littérature ? », l’IA a d’abord produit une large définition allant d’un « moyen d’échange » à un « art qu’on partage » en passant par un « filtre dérivé de la parole ». Dans un second cas, en effectuant la même requête mais en modifiant les paramètres de celle-ci, ChatGPT-3 propose en guise de réponse une longue narration d’un personnage masculin réfléchissant à la question posée : dans cet exemple, la littérature est présentée comme « une question de survie ».

Alexandre Gefen précise toutefois que, dans les premières versions des modèles de langage, les réponses produites n’étaient pas alignées sur des attentes de pertinence, de conformité morale et de vérité : les IA « parlaient par [elles]-mêmes […] avec beaucoup d’imagination ».

Ces exemples permettent de réaliser toute l’étrangeté du processus, où la ressemblance des machines aux hommes sont des merveilles, et les différences des monstruosités.

Écrire avec l’IA

Nous sommes à une étape de la création littéraire où l’on utilise l’IA pour coécrire, détecter des best-sellers, faire le tri parmi les manuscrits reçus par les éditeurs, rédiger des quatrièmes de couverture… Dans cette optique, il faut comprendre qu’un modèle de langage n’a pas de conscience du monde, mais qu’il le connaît par le truchement sémantique, sans aucune représentation mentale. Or, la littérature dépend autant du langage que du raisonnement, ce qui permet à une IA comme ChatGPT de produire des résultats probants. Même si on peut prendre une IA en défaut, sa capacité à écrire « à la manière de » et de générer des textes vraisemblables est indéniable.

Mais une fois l’illusion d’humanité dévoilée, des questions troublantes demeurent : qui est l’auteur du texte ? Est-ce l’IA ? Est-ce un savoir collectif ? Sont-ce les écrivains qui nourrissent le corpus de l’IA ? Peut-on parler d’originalité pour qualifier un texte produit par une IA ? Enfin, on peut se demander si cet « art de la requête » engendré par l’utilisation des IA pourrait devenir un art en soi, une littérature du second degré avec un auteur humain indirect.

Une évolution anticipée

Sans atteindre le stade de machines universelles, ces modèles de langage posent question sur l’appréciation de l’art au niveau social, économique et juridique. On pourrait notamment se demander comment penser « l’auctorialité » de l’IA. Mais en réalité, tous ces questionnements ont été anticipés par la culture et les écrivains : de nombreux textes mettent en scène des IA créatrices, et ce, dès le début des années 2000. Depuis plusieurs années, les textes coécrits fleurissent, par exemple en poésie ; et en dehors de la littérature, on trouve des exemples de cocréation dans d’autres arts, comme le cinéma. Ces expérimentations sont frappantes depuis que l’IA est tombée dans les mains du grand public, mais, avec un peu de recul, on constate que des modèles de langage apparaissent dans la littérature de tous les siècles. Ce trouble s’insère donc dans une longue tradition culturelle.

Aujourd’hui, des IA comme ChatGPT permettent de réaliser des dialogues, des petites descriptions, mais on est encore loin de la possibilité de faire écrire un roman entier à une IA. Des usages raisonnés sont en train de se développer parmi les écrivains, mais certains concours de texte sont saturés de propositions générées par une IA.

En résumé, l’utilisation des IA génératives de texte nous invite à réfléchir à l’usage de la littérature : c’est une évolution qui enrichit des questions que nous nous posons sur nous-mêmes depuis longtemps.

Conférence 2 : « IA et le monde de l’édition »

  • Thomas Parisot, directeur adjoint, Cairn.info

Thomas Parisot, directeur adjoint de la plateforme Cairn.info, a abordé trois familles d’innovations/risques lors de cette conférence : l’écriture et la création assistées, l’assistance à la lecture et à l’appropriation, et l’optimisation des processus de production et d’analyse.

Écriture et création assistées

  • Aide à l’écriture. Exemple de l’outil « Scite.ai », qui insère des références pour rendre un texte plus « scientifique ». Aussi, le processus d’écriture académique pourrait désormais débuter par un propos avec une documentation qui viendrait se rajouter ensuite.
  • Risque et prolifération. Un risque de prolifération et de saturation vient d’Amazon qui n’autorise pas la publication de romans écrits entièrement par une IA, mais qui ne contrôle pas cela. Il y a aussi un risque d’usurpation d’identité via l’IA, car il est facile de recréer un style d’écriture.
  • Risque d’effondrement. Il y a un risque d’effondrement de la confiance (usurpation d’identité, valeur du livre).

Assistance à la lecture et à l’appropriation

  • Algorithmes et recommandations. Babelio a un algorithme qui demande ce qu’on a lu, ce qu’on aime et propose des recommandations : cela déborde sur le métier de libraire.
  • Classification automatique. Post-indexer un million d’articles n’est plus possible, Cairn automatise désormais un peu ce processus.
  • Assistance à la lecture. GenIA-L propose par exemple d’interpréter les textes juridiques. Beaucoup d’outils ne se substituent pas à la lecture mais proposent une aide : Explainpaper permet de reformuler des propos parfois complexes. ChatGPT4 Turbo-charged va permettre de nouvelles choses : la limite de 20 pages passe à 300 pages. La capacité à embrasser un texte dans sa globalité change la donne en édition.
  • Résumé automatique. Scholarcy produit des résumés.
  • Synthèse audio et vidéo. Avec Synthesia on peut générer la vidéo d’une personne, par exemple pour faire de la promotion. C’est une nouvelle voie d’exploitation en édition : la vidéo remplace le texte sur les réseaux.
  • Assistance à la lecture. Il y a différents risques : risque de déperdition (quand on lit un résumé on ne lit pas le livre) ; risque de simplification (en ne lisant pas comment le propos est amené on risque de louper des choses signifiantes) ; risque d’enfermement (les résumés créent une forme de passivité) ; risque de réduction de la diversité (les IA sont très développées en anglais, moins dans d’autres langues)

Optimisation des processus de production et d’analyse

  • Mise en page automatisée. Une IA peut effectuer une grande partie d’organisation de texte. Donner des consignes à une IA (écrire le prompt) est un métier qui se développe. Dans l’édition, on travaille sur des formats précis, et l’IA propose des formats pivots qui opèrent une révolution.
  • Traduction automatique. Les IA ne peuvent pas tout traduire, il faut être capable de distinguer ce qu’on peut bien exprimer avec cet outil (scène d’arrivée de train) de ce qui sera appauvri (scène d’amour).
  • Synthèse de voix pour livres audio. Il n’est pas possible de payer pour tous les livres un·e acteur·rice pour une version audio, d’où l’idée d’utiliser l’IA pour reproduire une voix. Les IA travaillent à créer des voix imparfaites permettant une meilleure écoute.
  • Textes alternatifs aux images/accessibilité. Il y a des IA qui proposent de générer des textes à partir d’images : EDRLab a été créé de sorte à donner forme à un écosystème pour créer une boîte blanche open source afin de dépasser le problème d’accessibilité.
  • Évaluation du potentiel de vente. Une estimation de vente peut être donnée par une IA, aujourd’hui c’est surtout un outil allemand qui est utilisé : QualiFiction.
  • Détection de tendance. En édition, la détection de tendance (qui devient scientifique) est permise par les IA : Babelio Data documente la réalité du marché public.
  • Risque d’« intoxification ». Certains outils de traduction dérivent en qualité.
  • Risque de désincarnation. Il y a un collectif nommé En Chair et en Os qui ne souhaite pas que la technologie intervienne dans la traduction et la correction éditoriale.
  • Risque de destruction d’emplois et de savoir-faire. Le cofondateur de DreamWorks pense qu’on va vers 90 % de perte d’intervention humaine car l’IA remplace, ou fait mieux.

Conclusion

Il y a un appel à la transparence. Nous allons vers un « nutri-score » de l’édition. Les consommateurs ont le droit de savoir à quel point l’IA a été utilisée. Cependant, les logiciels de reconnaissance d’IA ont 20 % de marge d’erreur. Et, sans moyen de reconnaître l’IA, pas de régulation possible. Il y a un enjeu de maîtrise de l’accès au corpus des IA… les livres pourraient être la matière première de l’IA de demain.

Conférence 3 : « L’IA dans les bibliothèques »

  • Nicolas Morin, Agence bibliographique de l’enseignement supérieur (Abes)

L’intelligence artificielle est un projet ancien qui, subitement, éclot aujourd’hui dans tous les secteurs économiques, y compris celui de la documentation. Il n’est jamais facile de réagir à une explosion, à ce qu’elle implique de reconfigurations, de poussière brouillant l’horizon, de peurs et aussi, rapidement, d’opportunités.

Quelle place l’IA pourrait-elle occuper dans le contexte documentaire de l’enseignement supérieur et de la recherche ? Comment nos communautés professionnelles peuvent-elles se saisir de ces sujets ?

Nous faisons le constat d’une croissance très importante des investissements privés sur l’IA et notamment dans le domaine de la recherche fondamentale. Cela questionne les relations des acteurs publics avec le privé. À partir de quel moment ces évolutions vont-elles nous impacter dans notre travail courant ?

Le temps d’adoption des révolutions technologiques est long : il a fallu trente ans pour que l’électrification ou l’informatique atteignent 50 % d’adoption.

L’effet de l’automatisation n’est pas toujours celui qu’on croit. Par exemple, les distributeurs de billets n’ont pas remplacé les guichetiers de banque.

Au cœur des métiers documentaires, toutes les fonctions ne sont pas touchées de la même manière. Il y a également émergence de nouveaux métiers comme le Machine Learning Librarian, à la croisée entre bibliothèque, science ouverte et IA.

Les collections comme données

Il y a trois types de données documentaires :

  • les données de collections numérisées et numériques : des métadonnées au full text ;
  • les données produites par le secteur documentaire en tant que tel : métadonnées en particulier ;
  • les collections comme training data des Large Language Models (LLM) et de l’IA en général.

À titre d’exemples :

  • Sudoc : 18 millions de notices ;
  • Science+ : métadonnées pour 600 000 articles à ce stade ;
  • Theses.fr : environ 450 000 notices et environ 150 000 thèses en full text ;
  • les « agents » : (autorités IdRef) 3,9 millions de personnes et 300 000 collectivités.

Les métadonnées sont objet et enjeu stratégique de négociation des contrats de documentation électronique. Néanmoins, nos données sont encore largement en silos : au sein des bibliothèques, entre bibliothèques, dans le secteur culturel et académique en général, entre acteurs publics et acteurs privés. Ce n’est pas toujours le secteur documentaire public qui a les « meilleures » données, ni en volume, ni en qualité… le volume étant en soi une qualité.

Enfin, les grandes questions éthiques générales commencent à être mieux cernées, par exemple sur les biais de données, la consommation énergétique, etc.

L’IA dans le projet d’établissement de l’Abes 2024-2028

Il s’agit en particulier d’appliquer l’IA sur les données gérées par l’Abes, dans une démarche d’ouverture à la fois des données source, des données résultant des traitements, et des modèles utilisés pour en permettre la plus grande réutilisation.

Il est prévu de proposer des services d’assistance par l’IA aux utilisateurs des logiciels proposés par l’agence.

Quatre types de livrables et d’action sont inclus dans le nouveau projet d’établissement :

  • transformer et améliorer les données gérées par l’Abes ;
  • équiper les outils mis à la disposition des utilisateurs professionnels de fonctionnalités d’aide à la décision, voire d’automatisation ;
  • partager ces fonctionnalités sous la forme d’API, de modèles ouverts et de code ouvert, pour permettre à nos partenaires de les utiliser sur leurs propres données et dans leur propre contexte ;
  • proposer nos données comme intrants des IA de tiers, y compris pour nourrir les grands modèles (LLM).

L’IA est un futur inégalement distribué et indéterminé : nous avons des marges de manœuvre à son égard

Pour le secteur documentaire de l’enseignement supérieur et de la recherche, il y a à la fois des collaborations et des concurrences réelles entre secteur public et secteur privé au sujet de l’utilisation de l’IA. Nous pouvons et devons travailler sur nos collections comme données, utiliser l’IA quand cela est pertinent, accompagner dans la (longue) durée les évolutions de notre secteur, y compris les métiers. Enfin, nous devons être modestes et avoir un spectre large d’analyse, car l’avenir de l’IA ne dépend pas des bibliothèques. Il est possible d’utiliser ces évolutions pour étendre le champ d’application de nos valeurs : des collections, des données et des services accessibles, inclusifs, qui soutiennent l’innovation, la recherche, la formation. L’IA et notre capacité de réponse à l’IA contribueront largement à définir notre pouvoir d’action dans les décennies à venir.

Les bibliothèques sont perçues comme un secteur qui a des qualifications importantes au sujet de la qualité des données qu’il détient, fournit et conserve. Il sera d’autant plus facile de nous positionner que nous nous appuierons sur des valeurs fondamentales : ouverture, transparence, adaptation aux besoins des communautés que nous desservons.

Table ronde 3 : « Usages professionnels #1 : archivistique et édition »

  • Animation : Céline Guyon, maître de conférences associée, Enssib
  • Jean-Baptiste de Vathaire, directeur de Cairn.info
  • Françoise Banat-Berger, cheffe du Service interministériel des Archives de France, ministère de la Culture
  • Jean-François Moufflet, conservateur en chef du patrimoine aux Archives nationales
  • Christopher Kermorvant, société Teklia

Le premier intervenant à prendre la parole était Jean-Baptiste de Vathaire, qui traitait de l’utilité de l’IA pour faciliter l’accès au contenu sur la plateforme Cairn.info. En effet, cette dernière s’est développé depuis dix-huit ans et rassemble aujourd’hui des contenus très divers en sciences humaines et sociales. Depuis son origine, la plateforme inclut la question du traitement automatique du langage, avec du « taggage » sémantique, permettant d’extraire des données dans du texte, d’abord avec la lemmatisation, puis avec des outils spécifiques d’IA. Il faut comprendre que Cairn.info est une base de contenu structurée disposant d’une matière assez riche pour pouvoir faire ce type de traitements. Elle propose des recommandations et, plus récemment, des fonctionnements plus personnalisés, notamment en fonction des usages des personnes connectées et identifiées sur la plateforme. Cairn.info est en constant renouvellement. À la fin du premier trimestre 2024 tous les différents « cairns » seront rassemblés, y compris les portails linguistiques. Il est donc important de s’interroger sur les différentes solutions que l’IA peut offrir à ces évolutions.

Françoise Banat-Berger a présenté plusieurs applications de l’IA au monde des archives. L’IA est une solution efficace et rentable à l’exploitation des données archivistiques numériques, du fait de la masse de données générée. En effet, diverses applications sont notables et permettent à terme de gagner en efficacité de recherche. La reconnaissance automatique des caractères manuscrits – et ainsi la transcription automatique, nécessitant au préalable l’intervention des compétences paléographiques des archivistes – tend à être généralisée dans un futur proche. Ainsi, par exemple, une base de données du recensement de la population française entre 1830 et 1930 devrait voir le jour d’ici la fin 2025. À terme, cette base devrait rassembler entre 400 et 500 millions de noms et permettrait de suivre les mobilités et les professions des ancêtres.

Concernant les archives nativement numériques, divers projets sont en cours. Il convient de noter la mise en place de « chatbots » afin de répondre aux demandes récurrentes des usagers et ainsi opérer à un déchargement du service des archives. L’IA est également envisagée pour mener à une recherche plus efficace dans les fonds, permettant de faire une discrétisation rapide des métadonnées (ex : fouille des travaux de classement et des messageries des administrations).

Jean-François Moufflet offre quant à lui un ensemble de retours d’expériences sur des projets exploitant l’IA, au travers de trois thématiques différentes. Les premiers projets présentés touchent au Handwritten Text Recognition (HTR), mais aussi au Named Entity Recognition (NER). Puis il évoque HIMANIS, projet incluant l’utilisation de Transkribus pour travailler sur les registres de la chancellerie royale. Et enfin le projet e-NDP, travaillant sur les 26 registres du chapitre de Notre-Dame de Paris, mais cette fois avec l’utilisation d’eScriptorium. La deuxième catégorie est l’utilisation du texte pour créer des métadonnées, avec cette fois la présentation du projet LECTAUREP, qui porte sur les archives de notaires parisiens, et dont l’objectif est de transcrire des répertoires de notaires avec les indications des noms de personnes. Ce projet a débouché sur NER4Archives, qui vise à faciliter la reconnaissance d’entités, consistant à fournir un inventaire en XML/EAD en identifiant les individus, leurs titres et les personnes morales. Le dernier type de projets présenté concerne l’élaboration d’un outil pour la rétroconversion des inventaires anciens, allant du XVIIIe au XXe siècle, sous la forme de répertoires et de registres, disposant d’analyses succinctes, de côtes, et autant de fiches utiles pour trouver un élément précis.

Le dernier intervenant de cette table ronde, Christopher Kermorvant, de la société de reconnaissance automatique de documents numérisés Teklia, a fait à son tour part de ses expériences avec l’IA. Depuis trente ans, on observe dans notre société une grande concentration technologique de l’IA. Aujourd’hui, dans la pratique, toutes les sociétés utilisent du deep learning sous la forme de grands réseaux entraînés avec toutes les données disponibles sur le Web, permettant d’obtenir un niveau de performance jamais atteint jusqu’ici. Depuis cinq ans, les concentrations des modèles, qui étaient auparavant spécialisés dans de petites tâches, prennent maintenant le même modèle, que ce soit pour les images, les vidéos ou les textes, ce qui fait que nous sommes aujourd’hui dans une situation où plus on entraîne l’IA, moins on a besoin de personnel pour l’entraîner. Ces différents modèles doivent être « alignés » (c’est-à-dire « éduqués »), pour satisfaire les besoins de l’utilisateur et garantir la sécurité, mais aussi l’éthique des interactions, ce qui permet de faire un ensemble de tâches génériques. Toute la partie d’entraînement des modèles n’est pas effectuée par l’entreprise Teklia, ce sont les acteurs qui entraînent les modèles dans leur secteur spécialisé. Ces modèles peuvent être utilisés en étant connectés à une base de données, permettant aux utilisateurs de se passer de la couche technique. Il faut comprendre qu’aujourd’hui ces modèles peuvent très bien être utilisés sans les techniciens de l’IA, notamment avec les modèles de type ChatGPT entraînés sur des fonds de la BnF. Néanmoins, ce sont avant tout des nouvelles technologies qu’il ne faut pas sous-estimer leurs répercussions dans le monde des archives, et si encore aujourd’hui cela peut paraître inaccessible à un certain nombre de personnes du milieu, il est primordial que les institutions archivistiques et patrimoniales adoptent ce système de langage.

Table ronde 4 : « Usages professionnels #2 : bibliothèques »

  • Animation : Alexandra Adamova, chef de projet de Gallica Images (fouilles d’images pour Gallica grâce à l’IA)
  • Luc Bellier, directeur adjoint du SCD de l’université Paris-Saclay
  • Marie Carlin, coordinatrice BnF Data Lab
  • Géraldine Geoffroy, Data Librarian à l’École polytechnique fédérale de Lausanne

La quatrième table ronde s’est interrogée sur les opportunités offertes par l’intelligence artificielle en bibliothèques et sur le chemin à parcourir afin de pouvoir véritablement les exploiter.

Luc Bellier, directeur adjoint du service commun de la documentation (SCD) de l’université Paris-Saclay, présente pour commencer l’initiative AI4LAM et son chapitre francophone. Il s’agit d’une structure informelle impulsée par Emmanuelle Bermès, en partenariat avec la Bibliothèque nationale de Norvège et les bibliothèques de l’université de Stanford, pour permettre un partage d’expériences sur l’intelligence artificielle en bibliothèques, archives et musées. Dans un domaine qui nécessite des compétences extrêmement pointues, il est primordial de pouvoir identifier facilement les bons acteurs à l’échelle francophone. Deux axes sont priorisés : cartographier et dynamiser les initiatives éparses, et effectuer un repérage des formations les plus pertinentes afin d’éventuellement les traduire pour les rendre accessibles à tous. Cette communauté naissante, qu’il est possible de rejoindre sans engagement, offre la possibilité de mieux travailler ensemble dans la durée, au-delà des frontières institutionnelles et de tutelles.

Marie Carlin, coordinatrice du BnF Data Lab, présente ensuite la feuille de route de l’intelligence artificielle à la Bibliothèque nationale de France. L’un des principaux chantiers est la définition d’un modèle pour extraire les informations structurelles et textuelles des fiches de désacidification rédigées au centre de conservation de Sablé-sur-Sarthe, afin de favoriser le suivi de la conservation préventive. L’enjeu ici est de maîtriser, si ce n’est les outils, du moins les modèles, pour proposer des services ultérieurement, et transmettre les compétences en interne. L’accompagnement des chercheurs par le DataLab est également une opportunité de redécouvrir certaines collections, comme le fonds de manuscrits arméniens Édouard Dulaurier ou encore le vaste éventail d’affiches du théâtre. Les prochaines perspectives pour la BnF seront de continuer l’acculturation à l’intelligence artificielle en son sein, trouver de nouveaux partenaires dans l’enseignement supérieur ou le monde industriel, et partager les savoirs et compétences. Les bibliothèques ont beaucoup à gagner à se saisir de ces technologies, à ne pas les laisser filer face aux grands géants du numérique. Et cela afin de garder la maîtrise des données et de ne pas devoir déporter les services aux usagers sur des plateformes répondant à des modèles économiques qui ne sont pas les leurs.

Géraldine Geoffroy, Data Librarian à l’École polytechnique fédérale de Lausanne, exprime quant à elle un retour de terrain plus « prosaïque » : l’intelligence artificielle n’a pas encore traversé les métiers des bibliothèques. Il existe un décalage certain entre les gros opérateurs nationaux (BnF, Agence bibliographique de l’enseignement supérieur) et les établissements plus modestes, où le travail courant estompe le mode projet. Il est pourtant relativement aisé de valoriser des données locales (aide au désherbage, aux acquisitions, association de moteurs de recommandation aux catalogues). La plupart des frameworks sont en effet en open source et extrêmement documentés. La difficulté vient du fait que ces propositions sont généralement vues comme des « gadgets ». Certains bibliothécaires estiment que l’intelligence artificielle ne les concerne pas, s’en méfient, ou se mettent dans une position attentiste, le regard tourné vers les têtes de réseaux chez qui « tout se passe ». Mais les choses sont en train de changer, depuis que l’imposant verrou constitué par la capacité des algorithmes à manier le langage naturel a sauté, facilitant la navigation dans un corpus. Pour favoriser cette progression, il est important de valoriser les compétences techniques tout au long du parcours professionnel et ne pas les réduire à un profil atypique qui limite les perspectives d’évolution. Il faut également raisonner en termes de mutualisation des infrastructures, de projets autour des données, de recherche de financements. Bon nombre de choses passionnantes restent à construire.

Le temps d’échanges avec la salle révèle un besoin des professionnels de savoir par où commencer dans cette nébuleuse vertigineuse qu’est l’intelligence artificielle. L’une des pistes peut être, pour les bibliothèques universitaires, de développer des relations différentes avec les laboratoires. Il ne s’agit plus simplement d’être pourvoyeur de services, mais d’initier des programmes de recherche en s’appuyant sur la richesse des données possédées. En parallèle, énormément de fonds sont en train de se débloquer, des consortiums se montent, ainsi que des appels à projets spécifiques. C’est en repensant leur manière de travailler pour basculer en mode projet que les bibliothèques pourront trouver des partenaires avec des compétences et des objectifs complémentaires.

Table ronde 5 : « Impact des usages publics sur les usages professionnels de l’IA »

  • Animation : Emmanuelle Royon, Auvergne-Rhône-Alpes Livre et Lecture (ARALL)
  • Sabine Mas et Dominique Maurel, professeures à l’École de bibliothéconomie et des sciences de l’information (EBSI) de l’Université de Montréal (distanciel)
  • Benoît Arpin et Lucille Guillermin, start-up Compilatio
  • Yann Mahé, start-up MyScienceWork

Une approche centrée sur l’humain

Sabine Mas et Dominique Maurel, professeures à l’École de bibliothéconomie et des sciences de l’information (EBSI) de l’Université de Montréal, ont présenté le projet qui les occupe actuellement. Il prend place au sein d’un organisme gouvernemental canadien envisageant de faire appel à l’IA pour améliorer la qualité de son service public. Dans l’optique d’ordonner les données et les processus de travail, S. Mas et D. Maurel ont été chargées d’analyser les informations – essentiellement non structurées – qu’utilisent les agents lorsqu’ils répondent aux demandes des usagers par téléphone. L’étude qualitative menée s’est notamment basée sur l’analyse des sources d’informations et des appels enregistrés, sur des entrevues avec les agents, et par le décryptage des raisonnements consécutifs aux requêtes des citoyens.

À terme, des recommandations seront formulées en vue de proposer une solution basée sur l’IA, qui devra répondre à la fois aux enjeux de capitalisation et de transfert de connaissances pour les employés, aux enjeux d’efficacité de l’agence qui doit maintenir sa crédibilité et sa réputation, et aux enjeux informationnels pour les usagers, qui ont besoin de réponses rapides et fiables.

« L’IA dans l’enseignement », perceptions enseignantes et étudiantes

Pour nourrir la réflexion sur les usages de l’IA, Benoît Arpin et Lucille Guillermin de la start-up Compilatio ont ensuite présenté l’enquête menée dans le cadre de l’enseignement supérieur et de la recherche à l’été 2023.

Si les enseignants sont nombreux à exprimer des craintes, les résultats montrent qu’ils ont tendance à surévaluer les usages de l’IA par les étudiants. Dans les faits, ceux-ci privilégient encore largement les moteurs de recherche pour leurs recherches documentaires. Ils recourent plutôt à l’IA générative pour délimiter un sujet ou pour la rédaction de leurs travaux, en s’attachant parfois à reformuler le texte obtenu dans un effort d’appropriation du contenu engendré. L’IA est aussi utilisée pour effectuer des tâches estimées ennuyeuses ou sans enjeu dans la formation, constatation qui peut amener la communauté enseignante à s’interroger sur ses méthodes d’apprentissage et d’évaluation, et sur les compétences qu’un exercice entend valider.

L’inquiétude suscitée par l’IA réunit étudiants et enseignants, qui redoutent un appauvrissement de la réflexion, la baisse des aptitudes rédactionnelles, ou encore des risques accrus de désinformation et de violation du droit d’auteur. Un cadre réglementaire s’avère nécessaire pour poser la limite entre les usages tolérables ou répréhensibles, qui doivent au préalable être discutés dans les structures d’enseignement et de recherche. À partir du texte de cadrage produit, qui peut être intégré dans le règlement intérieur de l’établissement, il demeure essentiel de mener des campagnes de communication et de sensibilisation pour être connu et compris des étudiants.

Lignes d’impact de l’IA dans la recherche

L’IA a enfin été abordée sous l’angle de la recherche, à travers l’intervention du directeur général de la start-up MyScienceWork. En partant du constat qu’elle fera partie du paysage futur de la recherche, Yann Mahé a décliné plusieurs modalités d’usages de l’IA, et les opportunités qu’elle occasionne.

Les chercheurs sont aujourd’hui soumis à des rythmes de publication soutenus, dont la rédaction proprement dite représente une phase de travail chronophage. Utilisée comme aide à la rédaction, l’IA laisserait aux chercheurs plus de temps à consacrer aux tâches comportant pour eux une plus grande valeur ajoutée. Par ailleurs, le champ de diffusion des articles – beaucoup plus important lorsqu’ils sont publiés en anglais – peut être étendu grâce à la traduction automatique générée par l’IA. Sa fiabilité va croissant, si bien que certaines revues proposent d’ores et déjà cette technologie pour la publication, qui s’accompagne toujours d’une vérification préalable par l’humain.

Conséquence de la masse de données publiée chaque année, la relecture des travaux constitue un défi pour le monde scientifique qui peine à trouver suffisamment de chercheurs aptes à évaluer leurs pairs. L’automatisation de la relecture par l’IA, qui peut effectuer un premier rapport sur les éventuelles erreurs décelées, apparaît comme un recours possible dans le processus de validation des données scientifiques.

Recommandations de contenus dans la recherche documentaire, détection d’images trafiquées, production d’indicateurs pour mettre en place une stratégie de recherche sont autant de champs d’action supplémentaires de l’IA, qui demanderont l’accompagnement et l’expertise des professionnels des sciences de l’information.

Conférence de clôture par Grégory Chatonsky

La Biennale du numérique 2024 s’est achevée sur l’intervention de l’artiste Grégory Chatonsky. Ce spécialiste de l’IA la voit comme un « symptôme précieux et encore illisible de notre époque historique », suscitant fascination et rejet de la part de la société dans laquelle elle apparaît. La peur du remplacement de l’humain par la technologie ou à l’inverse le technosolutionnisme et sa foi dans l’IA à nous faire progresser, présupposent d’une part comme de l’autre de savoir définir précisément ce qu’est l’être humain, de pouvoir circonscrire ce qu’est la conscience ou l’intelligence. G. Chatonsky a replacé les débats contemporains dans le contexte plus vaste de la crise climatique et de l’extinction de masse : nous n’avons jamais produit autant de données, alors que les risques pesant sur notre futur n’ont jamais été aussi grands.