Journées d’étude « Intelligence artificielle : écosystèmes, enjeux, usages. Une approche interprofessionnelle » • Jour 1 : « Écosystème et enjeux », 13 novembre 2023

Brittany Boivin

Mathis Chane-Sane

Louise Fritz-Corallini

Blanche Gonod

Marina Mis

Elena Richardot

La 7e édition de la Biennale du numérique s’est tenue à l’École nationale supérieure des sciences de l’information et des bibliothèques (Enssib) à Villeurbanne, les 13 et 14 novembre 2023. Elle a focalisé son attention sur la question des usages de l’intelligence artificielle (IA) : usages professionnels, usages publics, et comment usages professionnels et usages publics s’influencent mutuellement.

Préambule introductif

  • Nathalie Marcerou-Ramel, directrice de l’Enssib
  • Malcolm Walsby, directeur de la recherche à l’Enssib

La Biennale du numérique est une manifestation interprofessionnelle qui a lieu chaque année depuis 2014. Y sont invités bibliothécaires, éditeurs, documentalistes, auteurs, chercheurs, acteurs territoriaux et étudiants. Cette année, pour sa 7e édition, les archivistes rejoignent l’équipe d’intervention par leur rôle essentiel dans la réflexion autour de l’intelligence artificielle.

Si le sujet de l’IA peut paraître battu et rebattu, la proposition de cette thématique par Emmanuel Brandl, l’organisateur de la Biennale, a été faite dans le but tout particulier de traiter la question de manière interprofessionnelle. Il s’agit de penser l’utilisation de l’IA à travers la modification des usages des publics, de confronter les usages publics et professionnels de l’information de demain. L’Enssib est justement là pour investir de nouveaux angles de recherche, de réflexion, de nouvelles techniques et outils afin de faire évoluer des pans entiers de métiers.

Brad Smith, le président de Microsoft disait dans une interview que « l’intelligence artificielle est le balai rangé dans la cuisine, devenir un outil indispensable ou une arme ». L’utilisation de l’IA dépend des règles qui sont fixées par les gouvernements et les institutions. Si les changements sont inévitables, l’Enssib se doit de les anticiper en formant les professionnels de l’information aux notions de base de l’IA.

Cette 7e Biennale du numérique présente ainsi l’opportunité d’aborder la question de l’intelligence artificielle et de ses usages d’un point de vue international et pluridisciplinaire, afin de prévoir au mieux les évolutions à venir.

Conférence inaugurale : « IA : fake généralisé ou technologie cognitive appropriée ? »

  • Dominique Boullier, professeur de sociologie, Sciences Po Paris

Survivre aux passages à l’acte pour penser les IA

Selon Dominique Boullier, il s’agit de penser l’IA et de ne pas seulement réagir à son implémentation dans notre quotidien personnel et professionnel. Il est important de savoir qu’il existe de nombreux modèles d’IA et qu’OpenAI, entreprise spécialisée dans le raisonnement artificiel, est loin d’être la seule solution. Si OpenAI propose une forme d’IA grâce à ChatGPT et son architecture d’IA générative, il existe cependant des architectures connexionnistes et symboliques 1

X

Notions peu développées dans la conférence : une IA symbolique fonctionne de manière similaire à un cerveau humain, avec très peu de données pour arriver à des connexions (sous forme d’arbre décisionnel), et l’IA connexionniste fonctionne avec diverses représentations des données (similaire à un système neuronal). L’IA générative se base sur un maximum de données pour faire ses calculs.

.

Il s’agit de comprendre que face à l’IA, nous avons le choix, et n’avons pas à subir une adaptation forcée au type d’IA prédominant dans la sphère publique qu’est ChatGPT. Malgré son nom, OpenAI est loin d’être transparent dans sa récolte des données.

La double face des IA génératives : interfaces et architecture de connaissances

Le fonctionnement de l’IA s’apparente à une technologie cognitive selon Dominique Boullier. Elle peut être décrite comme un couplage particulier du matériel et du logiciel qui nous forme à penser différemment, à transformer nos manières de raisonner. Ces technologies cognitives induisent un glissement dans la manière de penser de la part des concepteurs vers le public.

Elles sont alors constituées de deux dimensions :

  • Un agent conversationnel (le « chat ») : il permet l’accès aux données, l’entrée des commandes et les interactions avec l’objet.
  • Large Language Models (LLM) : un mode de langage pré-entraîné sur une grande quantité de données comme ChatGPT 3 et 4.

Interfaces

Les interfaces nous influencent dans notre manière d’interagir avec les technologies. C’est d’autant plus véridique dans le cas de l’IA, car elle demeure notre seule connexion avec les données derrière.

Au niveau communicationnel, l’homme valorise le langage verbal et écrit. Si de nombreux autres signaux participent au processus de la communication, ils ne font pas partie de l’interface des IA, dissimulant ainsi une partie de la communication. On peut alors y voir une remise en valeur du test de Turing, à savoir qu’une machine est intelligente lorsqu’elle le paraît aux yeux des humains, et donc des usagers.

Histoire des interfaces
1980-19841990-1991200120072023
InterfaceWYSIWYG GUIWeb et liens hypertextesWikipédia et écriture wikiiPhone tactileChatGPT
InnovationInterface graphique (vue + toucher)BibliothèqueEncyclopédieCommande par touches et codesCommande par fonctions
Mutation industriellePC/MACWebWeb 2.0Smartphone, apps et app storeAgents conversationnels de l’IA générative
Organisation des connaissancesOS et accès aux logicielsGraphes de liens hypertextesÉcriture, distribution et coopérationApplications ferméesRéponse à tout
Processus attentionnelProduction de documentsSurferCoordinationAlerter et réagirImmersion dans l’interaction
Design organisationnelPassage de l’informatique personnel à l’informatique en réseauConnectivités des documents spar URLDistribution des contributions en peer-to-peerOS mobiles et accès à l’information permanenteDélégation de tâches à une seule forme d’IA
DérivesVers les stations de travail professionnellesVers les moteurs de recherche comme moteurs de réponsesVers des plateformes publicitaires sur les réseaux sociauxAlerte permanente et traçabilité généraliséeVers un outil aux réponses immédiates
Dans le domaine du jeu, les modes d’interactivité évoluent également rapidement via la réalité virtuelle et usages annexes avec la Wii (manettes, pédales, etc.). Le fonctionnement du torrent et de la distribution des fichiers n’est que peu pris en compte car il reste mineur face à d’autres modes de communication/interfaces.

Pour communiquer, ces interfaces nécessitent un modèle de parole qui ne fait que masquer leur structure propre. Ce langage, reconnu par les publics, fait passer l’IA comme savante alors qu’elle ne fait qu’établir des connexions entre les masses de données qu’elle accumule. On ne nous donne pas la possibilité de comprendre le fonctionnement de l’IA générative, pas plus que de choisir comment les données sont collectées.

L’IA générative ne fait que des connexions basées sur la statistique pour fournir ses réponses et ne prend pas en compte la syntaxe ni la sémantique. Elle récupère le contexte pour parvenir à un résultat qui paraît juste mais qui n’est que le fruit d’une analyse mathématique d’occurrences. De plus, ce système demande une consommation énorme en énergie car il brasse d’énormes quantités de données. La performance vient de la quantité de données, pas de la qualité.

Dans l’utilisation de l’IA, on adopte alors une posture d’attente de réponse et non de recherche. Si nécessaire, le modèle peut d’ailleurs inventer des réponses qui n’ont pas de sources pour satisfaire la demande. On met en avant la valeur de l’immédiat au détriment de la fiabilité du résultat. Cette posture affecte d’autant plus la relation que nous entretenons avec la machine, qui a davantage vocation à répondre aux usages personnels qu’aux usages strictement scientifiques.

Quel futur pour les IA génératives ?

Si elle est déjà très populaire, l’IA générative tend à toucher des publics de plus en plus larges. La tentative de couplage de cette technologie aux moteurs de recherche est une voie possible, mais elle a été rapidement abandonnée car elle parvient à corrompre les bases de données utilisées par ces mêmes moteurs.

Conclusion

On assiste à une mise en péril du régime de vérité. Si les conversations entre acteurs sont basées sur la vérité et la confiance, l’extension de ces modèles d’intelligence encourage à douter des informations qui nous parviennent. Cela sera d’autant plus véridique que ce type d’intelligence sera davantage implanté dans le numérique et les systèmes d’information.

Ces IA perdurent avec des interfaces intuitives qui dissimulent des modèles d’information opaques. Ces interfaces permettent d’attirer les publics. Il faudrait encourager une certaine adaptation qui est loin d’être obligatoire.

Au final, entre la mise en péril des sources scientifiques, la tentation des politiques et le désarroi des publics, les grands gagnants de cette poussée de l’IA générative restent les « disrupteurs » et les entreprises qui les mettent au point.

Conférence 1 : « L’IA se met au travail : du véhicule autonome à ChatGPT »

  • Yann Ferguson, sociologue, chercheur à l’Institut catholique d’arts et métiers (Icam) à Toulouse

« Les humains sont sous-estimés. » (Elon Musk)

L’intervention de Yann Ferguson, sociologue à l’Icam de Toulouse et directeur scientifique du LaborIA, a mis en lumière les enjeux de l’employabilité de l’IA en se concentrant sur les perspectives d’automatisation des emplois et leurs conséquences économiques et sociales.

En guise d’introduction, Yann Ferguson réfute la prédiction d’Herbert Simon stipulée en 1958 sur la capacité future des machines à égaler les capacités humaines. Cette remise en question s’appuie sur les paradoxes de Polanyi et de Moravec. Ces deux théories révèlent les difficultés inhérentes à la reproduction de tâches complexes qui sont naturelles pour les humains, en raison de la part tacite de la pensée humaine, et de compétences corporelles et sensorielles difficiles à reproduire mécaniquement. En outre, l’approche connexionniste de l’IA générative produit certes de nouvelles performances exceptionnelles, mais les résultats des réseaux de neurones sont aujourd’hui encore opaques, souvent inexacts, instables et invérifiables, ce qui met en difficulté leur usage dans le monde du travail.

L’intervenant explore d’abord les conséquences de l’IA sur le marché du travail. Il se base sur des études liées au rapport de Cédric Villani Donner un sens à l’intelligence artificielle (IA), publié en 2018. Des enquêtes, comme l’étude de Carl Frey et Michael Osborne de l’université d’Oxford (2013) 2

X

Carl Benedikt FREY & Michael A. OSBORNE, « The Future of Employment : How Susceptible Are Jobs to Computerisation ? », Oxford Martin Programme on Technology and Employment, University of Oxford, 2013. En ligne : https://www.oxfordmartin.ox.ac.uk/publications/the-future-of-employment/

, prédisent une automatisation alarmante de 47 % des emplois et mettent en avant pourtant des capacités humaines insurmontables par les machines, telles que la dextérité physique, la créativité et l’intelligence sociale. Par ailleurs, l’échec de l’usine Tesla, intégralement automatisée par le milliardaire Elon Musk, souligne la complexité de l’automatisation massive et ses implications parfois négatives sur la productivité. Le rapport du Conseil d’orientation pour l’emploi sur l’automatisation, la numérisation et l’emploi (2017), commandé par France Stratégie, mentionne quant à lui une menace à l’encontre de 10 % des emplois existants due à l’automatisation et à la numérisation. Selon cette étude, le progrès technologique favoriserait les emplois qualifiés à très qualifiés, impliquant flexibilité, capacité d’adaptation, résolution de problèmes et interactions sociales. Les métiers les plus vulnérables seraient donc les emplois pas ou peu qualifiés. Enfin, l’édition 2023 des Perspectives de l’emploi de l’OCDE (Organisation de coopération et de développement économiques) prédit, en considérant l’ensemble des technologies d’automatisation, y compris l’IA, que 27 % des professions seraient fortement exposées au risque d’automatisation. Comme les aptitudes de l’IA ont davantage progressé sur le plan de l’organisation de l’information que sur le plan sensoriel et physique, ce sont les directeurs, cadres et gérants, les ingénieurs et spécialistes en science technique et les professions spécialisées en finance et en administration qui seraient les plus exposés, en lieu et place des emplois peu ou pas qualifiés. On peut parler de révolution sociale et de revanche potentielle « des cols bleus sur les cols blancs ».

Pour contrebalancer ces perspectives, théoriques et quantitatives, une étude du LaborIA en 2023 sur les « capabilités », définies comme la rencontre entre capacités et résultats en fonction de l’environnement de travail, met en lumière les effets négatifs de l’automatisation sur la reconnaissance, l’autonomie, le savoir-faire et les relations humaines dans le contexte du travail. Ces effets peuvent engendrer la démotivation des équipes, la déresponsabilisation, un sentiment de dépossession et de surveillance, et conduire à terme à une baisse de productivité. En conclusion de cette étude, Yann Ferguson souligne la nécessité d’une approche éthique et collaborative dans le développement et l’adoption de l’IA au travail. Les expérimentations devront intégrer différentes dimensions techniques, sociales et économiques pour garantir un impact positif aux organisations.

En ce qui concerne les IA génératives au travail en particulier, leur apparition ne constituerait pas une révolution technologique en tant que telle. Car, tout d’abord, des entreprises comme OpenAI (ChatGPT) ou MidJourney ne respectent pas les 7 critères de confiance pour l’intelligence artificielle imposés en 2019 par un comité d’experts mandatés par la Commission européenne. Cependant, la tendance actuelle de l’accélération des usages autonomes de l’IA par les employés illustre une évolution majeure dans la manière dont l’IA est intégrée dans le travail et démontre un renversement hiérarchique et organisationnel. De l’usage collectif de systèmes payants, approuvés, officialisés et recommandés par les dirigeants, à un usage gratuit, individuel et sans transparence des employés, il va sans dire que les IA génératives vont perturber l’organisation actuelle des systèmes d’information. Elles auront aussi pour conséquence d’augmenter les inégalités entre employés face au numérique. Ainsi, l’apparition de l’IA générative devra favoriser une formation accrue et un contrôle à moyens termes de son usage avec l’apparition de nouveaux modèles de données plus transparents et conformes aux volontés européennes.

Le LaborIA

En réponse à l’une des recommandations du rapport Villani et en complément de l’implication française dans le Partenariat mondial pour l’intelligence artificielle (PMIA), le ministère du Travail, du Plein emploi et de l’Insertion et l’Institut national de recherche en sciences et technologies du numérique (Inria) ont fondé ensemble en 2021 le LaborIA, un laboratoire visant à construire et consolider une vision terrain pour mieux cerner l’intelligence artificielle et ses effets sur le travail, la population active, l’emploi, les compétences et le dialogue social [source : site du LaborIA].

Conférence 2 : « L’intelligence ne peut qu’être artificielle. Repenser les sciences humaines à l’époque des LLM »

  • Marcello Vitali-Rosati, professeur au département des littératures de langue française de l’Université de Montréal

Selon Douglas Hofstadter, l’intelligence est tout ce qui n’a pas été fait. Cette définition s’inspire du théorème de Tesler décrivant l’intelligence humaine comme tout ce qu’une machine n’a pas fait ou tout ce qui n’est pas une machine. La réflexion que partage avec nous Marcello Vitali-Rosati repose sur cette notion fragile d’intelligence, sur l’idée même que l’intelligence n’a pas une définition fixe. Ainsi il s’interroge sur la possibilité d’une course pour rendre la machine plus intelligente mais aussi sur l’apparition d’une course qui vise à modifier le sens du terme intelligence.

Par ailleurs, M. Vitali-Rosati questionne son auditoire sur la définition du mot humain en comparaison avec la notion de machine. L’humain serait défini par tout ce qui échappe à la machine comme par exemple son intuition ou son langage naturel. L’homme est donc caractérisé par tout ce que la machine ne sait pas faire. Néanmoins, il est possible de modifier la machine pour qu’elle soit en capacité de faire ce que l’homme sait faire. Ainsi la machine pourrait devenir « humaine » car elle a les mêmes capacités que l’homme. Ce raisonnement nous montre que la différence entre machine et homme est mal définie. L’idée précédente se poursuit avec l’invention de ChatGPT. En effet l’objectif de la création de cette intelligence artificielle est de reproduire l’intelligence humaine. La machine manipule du langage naturel grâce au « renforcement learning ». Néanmoins, la machine n’est pas encore capable de comprendre et d’utiliser le concept de vérité. Il y a donc des limites à son utilisation, la machine reste programmée par l’homme.

Après avoir exposé ce raisonnement, M. Vitali-Rosati pousse son auditoire à modifier son questionnement. Il faut oublier ou du moins ne pas s’inquiéter de cette course et à la place se questionner sur l’utilité et l’impact économique de l’intelligence artificielle.

Ensuite, M. Vitali-Rosati expose la notion de Posthuman Studies de Karen Barad. Cette notion vise à questionner la définition de l’humain. Ici on ne compare pas l’homme et la machine mais on cherche à comprendre les différentes définitions de l’intelligence. L’idée maîtresse est qu’il n’y a pas une bonne définition du terme mais autant de définitions que l’on en donne, tant qu’elles sont explicites et non ambiguës. Cette idée est accompagnée de l’utilisation du concept d’attention, la capacité à créer une relation pondérée entre deux vecteurs, à donner deux poids différents à deux termes au sein d’une même phrase. Ainsi, pour comprendre un mot, il est inutile d’analyser tout le corpus.

Afin d’expliciter son discours, M. Vitali-Rosati évoque le projet IEML (Information Economy Meta Language) de Pierre Levy. Ce projet vise à créer un langage artificiel capable d’expliquer des concepts et leurs sens, c’est la création d’une logique syntaxique propre à une AI. Ainsi les termes deviennent formalisés et non uniques. C’est un moyen d’associer plusieurs définitions d’un même terme. M. Vitali-Rosati termine son discours avec cette affirmation : « Le futur des sciences humaines est de modéliser l’intelligence artificielle. »

Table ronde 1 : « Enjeux éthiques et régulation de l’IA »

  • Manuel Zacklad, professeur en sciences de l’information et de la communication au Conservatoire national des arts et métiers (Cnam), directeur du laboratoire Dicen-IDF
  • Antoine Petel, consultant, juriste spécialisé dans les données et l’intelligence artificielle
  • Mathieu Guillermin, maître de conférences à l’Institut catholique de Lyon
  • Thierry Curiale, doctorant au groupe Orange sur les relations humaines et agents conversationnels textuels

Manuel Zacklad : introduction

Les avancées et innovations dans le domaine de l’intelligence artificielle posent plusieurs questions éthiques sur son utilisation et son impact sur les populations. Deux approches sont alors développées. Tout d’abord, l’éthique externe qui consiste à faire appel à des « éthicien·nes » pour trouver des moyens de limiter les impacts et corriger les biais d’une technologie, en partant du principe que celle-ci est essentielle ou déjà installée. Cette forme de traitements des enjeux éthiques est souvent utilisée par l’Union européenne (UE), les gouvernements et les grandes instances, mais est aussi critiquée. À l’inverse, l’éthique dite située consiste à revenir à la source des problèmes, sur les besoins et l’intérêt de la technologie envisagée. Pour identifier les enjeux éthiques, tous les domaines des sciences humaines et sociales sont alors mobilisés, pas seulement les « éthicien·nes ». Les intérêts de tous les acteurs sont étudiés pour ouvrir le débat. Cette approche peut être difficile à mettre en place du fait des intérêts privés des instances proposant les solutions et technologies.

Antoine Petel : « Règlement sur l’intelligence artificielle : que prévoit l’Europe ? »

Contexte des législations sur l’IA

Deux projets de législation sont en cours de négociations. Le premier est un règlement sur l’IA (RIA) qui a pour objectif de promouvoir le développement économique. Le texte n’est pas encore adopté mais il y a une pression politique pour que cela aboutisse rapidement, l’UE voulant se positionner comme pionnière dans la législation sur les systèmes d’IA (SIA).

En quoi consiste le projet de RIA ?

Le projet de RIA s’adresse à une multitude d’acteurs : le fournisseur (qui met sur le marché ou met en service un SIA pour son propre compte), l’importateur (qui met le SIA à disposition pour le compte d’un acteur n’étant pas sur le marché intérieur), le distributeur (qui utilise un SIA sans en changer les propriétés) et l’utilisateur (qui utilise le SIA à des fins professionnelles ou non).

Quatre niveaux de risques sont établis : inacceptables (interdiction de certaines pratiques d’IA), élevés (encadrement des SIA à haut risque), limités (obligation de transparence), faible (promotion d’un code de conduite).

Les obligations principales pèsent sur le fournisseur du SIA, qui doit être son propre contrôleur. Des sanctions monétaires importantes sont prévues (30 millions d’euros ou 6 % du chiffre d’affaires).

Mathieu Guillermin : « Comment (re)penser ce que veut dire être humain au temps de l’IA ? »

Comment définir un être humain

Définir l’être humain devient essentiel avec le désir de garder l’être humain dans la boucle et le droit d’avoir une intervention humaine. Ce sont des notions intrinsèquement difficiles mais quelques points peuvent être soulignés, comme la présence d’un héritage culturel et politique, de rationalité et de raison, de dignité, de responsabilité, de solidarité, d’émancipation, d’autonomie individuelle et de liberté d’expression.

Problèmes du profilage, des recommandations, de la délégation et de l’automatisation

La présence de l’IA créé des bulles cognitives ainsi qu’une possibilité de penser et satisfaire les désirs et envies rapidement. Cela impact alors la société et notre capacité et expérience à être humain·e.

De même, le gain progressif en performance et efficacité de l’IA exerce un effet déshumanisant, une perte de compétence, de savoir-faire et une dilution de la responsabilité. Cela entraine la disparition d’expériences fondatrices pour le développement de la personne et des différences fondamentales dans l’expérience de la culpabilité.

Thierry Curiale : « Les agents conversationnels, un simulacre d’incarnation ? »

Le but d’une IA générative conversationnelle, sémantiquement centrifuge comme ChatGPT, est de simuler une conversation humaine, soit pour un objet inorganique de simuler l’organique au travers de projection anthropomorphique. Néanmoins, la conversation n’existe pas avec un « chatbot » car aucune machine ne dispose d’un vécu subjectif. Sans corps, il n’y a pas d’intelligibilité et il est uniquement possible un simulacre d’incarnation de par la « tokenisation » et la vectorisation de la langue. Ces caractéristiques limitent l’influence et le pouvoir de persuasion des agents conversationnels sur les humain·es.

Table ronde 2 : « Typologies d’usages, droits d’auteur et production de valeur »

  • Thomas Parisot, Cairn.info
  • Antoine Raulin, directeur d’études chez BvDIM
  • Ghislaine Chartron, professeure en sciences de l’information et de la communication au Conservatoire national des arts et métiers (Cnam)
  • Philippe Masseron, ancien directeur général du CFC (Centre français d’exploitation du droit de copie), actuellement administrateur délégué à la prospective au Groupement français de l’industrie de l’information (GF2I)

Antoine Raulin : comment définir une technologie permettant une telle diversité d’usages ?

Antoine Raulin ouvre le débat, évoquant la diversité des usages et des typologies des intelligences artificielles embarquées, c’est-à-dire capables d’évaluer leur propre production. Cette diversité rend toute définition de l’IA difficile, mais deux points importants émergent : tout d’abord, l’IA sur laquelle on se focalise aujourd’hui est dite « faible » car elle fonctionne avant tout grâce à un apport humain. Deuxièmement, les termes « intelligence » et « artificielle » doivent être remis en question : ne devrait-on pas remplacer le terme « artificiel » par celui d’« inorganique » ? Quant à celui d’« intelligence », doit-il être entendu dans son acception française ou anglaise ?

De là, il s’agirait plutôt de cartographier les usages qui sont faits de l’IA. Antoine Raulin fait la typologie de ces usages en 9 segments combinatoires, affirmant que l’IA la plus optimale possible serait celle qui prendrait en compte tous ces segments.

Ghislaine Chartron : « Données ouvertes au centre des IAG »

Ghislaine Chartron poursuit la réflexion en dressant le panorama des données ouvertes, dont la problématique est au cœur des intelligences artificielles génératives (IAG). En effet, les données sont primordiales pour l’apprentissage des IAG, mais elles sont parfois « volées » dans le processus. Les IAG posent donc le problème du partage de la production de valeur : doit-on protéger ses données contre les IAG, ou a contrario les ouvrir ? Aujourd’hui, il existe un mouvement de repli des producteurs de données qui se protègent contre le vol avec par exemple des clauses interdisant la réutilisation des données par les IAG. Cependant, ce repli engendre un appauvrissement des IAG grand public qui risquent de n’être nourries que de données de faible qualité. L’enjeu est donc politique autant que sociétal puisque l’appauvrissement des IAG grand public est facteur de désinformation et d’invisibilisation des données de qualité.

L’ouverture des données aux IAG permettrait donc de construire un espace public de qualité permettant de réduire les stratégies de désinformation. Mais le risque demeure, ce faisant, de renforcer le pouvoir des géants du numérique qui s’approprieraient ces données.

Philippe Masseron : la valeur produite par l’IA peut-elle être régie par le droit d’auteur ?

Rebondissant sur les propos de Ghislaine Chartron, Philippe Masseron pose la question de la survie du droit d’auteur, vieux de 250 ans et toujours fondé sur le principe du contrat. Aujourd’hui, l’IAG remet en question ce principe, à la fois en amont et en aval.

En amont, zcomment penser, dans le cadre du droit d’auteur, les œuvres utilisées pour l’entraînement des IAG ? Est-ce qu’une telle utilisation est autorisée par les ayants droit ? Dans l’Union européenne, des dispositifs législatifs d’exception peuvent être appliqués pour fournir aux IAG le contenu dont elles ont besoin, comme dans le cadre de la recherche scientifique. Cependant, il n’existe pas encore de législation en France.

En aval, la question du droit d’auteur porte sur les productions générées par IA. Peuvent-elles être protégées par le droit d’auteur, quand bien même en France celui-ci est défini par l’originalité d’une œuvre, impliquant dès lors qu’un humain doit en être à l’origine ? Dans le système anglo-saxon, par exemple, il a été décrété qu’un simple prompt n’est pas suffisant pour qu’une œuvre puisse être protégée par le droit d’auteur.

L’enjeu porterait donc sur la création d’un autre droit permettant de protéger le contenu, comme ce fut le cas du droit voisin. Le débat devra alors se centrer sur la responsabilité endossée par les créateurs des IAG par rapport à leurs utilisateurs.

Thomas Parisot : une régulation de l’IA est-elle pertinente ?

Thomas Parisot réagit sur cette tension apparente entre la loi et l’usage effectif de l’IA. S’il est possible d’interdire certaines choses à l’IA au nom de la loi, certains défauts d’anticipation demeurent, notamment pour les ayants droit. Par ailleurs, y a-t-il vraiment un intérêt à réguler ces pratiques en France, quand bien même l’innovation n’est pas européenne ?

Conclusion : l’IA permet d’intégrer de nombreux enjeux au débat

Les intervenants sont invités à poursuivre le débat sur la question des prochaines étapes envisagées pour une régulation et une protection des données. Ce faisant, plusieurs sujets sont abordés, comme la pertinence d’une éventuelle opposition aux géants numériques, ou encore la nécessité d’une intervention humaine pour que l’IA ne se pollue pas elle-même. L’importance des métadonnées, permettant de labelliser le contenu généré par IA, est ainsi soulignée. La conversation s’achève sur la neutralité du Web, au travers des conflits opposant les médias aux réseaux sociaux.

Conférence 3 : « L’IA dans les bibliothèques : une approche internationale »

  • Sandy Hervieux, bibliothécaire en chef à la bibliothèque de l’Université McGill (Montréal)
  • Amanda Wheatley, coordinatrice de la communication et de l’engagement à la « Humanities and Social Sciences Library », Université McGill (Montréal)

Les intervenantes ont, dans cette conférence, détaillé un tableau des possibilités d’utilisation de l’intelligence artificielle dans les bibliothèques. Elles ont commencé par rappeler des définitions de l’IA, puis ont pris l’exemple de ChatGPT pour enfin étendre le sujet à la place de l’IA en bibliothèque.

Selon elles, l’IA a plusieurs facettes : un programme développé pour accomplir des tâches, un programme unique qui produit un raisonnement pour des tâches différentes, etc. L’IA n’a pas de définition universelle. Elles rappellent que l’IA peut être développée par le Machine Learning (comment l’IA apprend et agit sans que cela soit explicitement codé) et le Deep Learning (construction d’une hiérarchie de concepts pour, à la suite, éviter l’intervention humaine). Elles ont également évoqué la popularité des IA génératives, des intelligences artificielles développées en Machine Learning qui répondent à des questions ou des prompts pour créer un contenu. Elles prennent l’exemple des Large Language Models qui sont des modèles qui enseignent aux IA sans instructions explicites.

Le plus célèbre outil développé grâce à ce modèle est ChatGPT. ChatGPT est un outil de modélisation du langage qui utilise l’IA en traitant du langage naturel pour un usage public. Il répond à des questions (enseignée par des modèles de prompts) sous forme de discussions. Ce qui est intéressant, c’est que ChatGPT ne peut être utilisé comme un moteur de recherche, car il n’est pas connecté. Il est composé de data internes ce qui peut lui faire générer des informations non existantes : en effet, il ne fait que prédire des réponses. ChatGPT est basé sur du texte prédictif.

ChatGPT, couramment utilisé, est un outil qui doit être enseigné pour être bien utilisé. Par exemple, plusieurs institutions font ce travail de manières différentes :

  • les AI Lab, comme celle de l’université de Rhode Island, qui peuvent être utilisés par les étudiants (comment développer une AI de manière plus ludique et libre) ;
  • les challenges AI, comme le « 99 AI Challenge » des bibliothèques de Toronto, qui développent des connaissances et délivrent des certifications ;
  • l’intégration d’outils dans les bibliothèques, comme Transkribus, un outil de reconnaissance optique et transcription de textes.

Ce ne sont que quelques exemples, mais ils permettent aux bibliothèques de nombreuses opportunités d’intégration de nouveaux services innovants, de création de nouveaux partenariats, ou de valoriser leur rôle informatif. Les intervenantes soulignent malgré cela qu’il y a de nombreux défis à surmonter, comme la courbe d’apprentissage, les exigences financières, l’impact sur l’environnement, et l’éthique de l’IA.

En conclusion, elles reviennent sur des projets qu’elles ont mis en place dans leur bibliothèque, comme des ateliers « Keeping Up with AI », ateliers ChatGPT pour étudiants en droit, des formations de groupe de travail autour de l’IA, ou encore des partenariats entre professeurs et élèves.