Libre accès à l'information scientifique et technique

État de l'art et perspectives

Juliette Doury-Bonnet

Le séminaire « Libre accès à l’information scientifique et technique : état de l’art et perspectives » a rassemblé à Paris, les 23 et 24 janvier 2003, 250 personnes de 39 nationalités, dans un amphithéâtre du ministère délégué à la Recherche et aux Nouvelles Technologies. Il était organisé par le Centre national de la recherche scientifique (CNRS)/Institut de l’information scientifique et technique (Inist), l’Institut national de la santé et de la recherche médicale (Inserm) et l’International Council for Scientific and Technical Information (ICSTI), avec le concours de l’International Council for Science (ICSU). Il avait pour ambition, a souligné Christine Deschamps, présidente de l’IFLA, de réunir les producteurs et les diffuseurs de l’information scientifique et technique (IST) pour permettre le dialogue direct et faire avancer le débat.

État des lieux

Au cours de ces deux journées, les intervenants ont abordé différentes facettes de la question. Pierre Oudet, de l’Inserm, a souligné les coûts prohibitifs des revues et des banques de données et les contraintes dues au système actuel d’évaluation. Paul F. Uhlir, directeur du Bureau des programmes internationaux en IST, a fait état des pressions mises en œuvre pour restreindre le domaine public : questions de sécurité nationale, questions économiques, problème des accès et des abonnements, progrès dans la gestion de la protection. Il a opposé les normes structurant la recherche scientifique du secteur public aux valeurs appliquées dans le secteur privé.

Thomas Dreier, professeur à la faculté de droit de l’université de New York, a constaté qu’il régnait une certaine confusion concernant le cadre juridique, les mesures de protection de la technologie et les contraintes économiques. Les lois sur le droit d’auteur interdisent de copier un article, mais pas d’utiliser l’idée qu’il véhicule. Il considère que le libre accès n’a pas beaucoup de conséquences juridiques.

Pieter Bolman, représentant d’Elsevier Science, « une société qui réussit et qui fait des envieux », a constaté que l’on était dans une phase de transition et de désordre. Il a bien sûr défendu le rôle des éditeurs « traditionnels ». Il ne lui semble pas que le libre accès soit une bonne stratégie. Sally Morris, de l’Association of Learned and Professional Society Publishers, a souligné que la publication électronique n’avait pas un coût tellement moindre que l’édition papier.

Les éditeurs ont justifié les hausses du coût des abonnements (5 à 8 %) par les désabonnements des bibliothèques (le financement de la recherche scientifique a doublé par rapport à celui des bibliothèques) et insisté sur l’amélioration du service rendu et sur l’accroissement du contenu des revues. « Il aurait fallu augmenter les tarifs de 12 % pour faire des bénéfices. » À la question d’Hervé Le Crosnier, opposant fonds publics de la recherche et bénéfices privés des éditeurs, il a été répondu « valeur ajoutée aux données brutes ».

Dominique Wolton, du CNRS, a apporté le point de vue du sociologue. Il a identifié deux révolutions : le changement de statut de l’information, dont la dimension politique cède le pas à la dimension économique, et l’explosion technique qui fait passer l’information de la rareté à l’abondance. Trois groupes professionnels essentiels doivent travailler ensemble : les professionnels de l’information, les journalistes et le monde académique qui gère la problématique de la connaissance. D. Wolton distingue trois chantiers, pour lesquels il faut : cesser d’opposer « vieux » et « nouveaux » médias, sinon on entre dans l’idéologie des systèmes d’information ; sortir de la fascination de la technique et des mirages économiques ; valoriser les compétences de ceux qui peuvent hiérarchiser les connaissances et servir d’intermédiaires.

L’initiative de Bupadest pour l’accès ouvert

Jean-Claude Guédon, professeur à l’université de Montréal, a souligné que les systèmes de mise en valeur des revues créent des barrières et génèrent une « géopolitique du savoir ». Il a rappelé les circonstances de la rencontre de décembre 2001, parrainée par l’Open Society Institute (OSI, institut fondé par George Soros). Cette réunion a donné naissance à l’Initiative de Budapest pour l’accès ouvert aux archives (BOAI) dont les principes de base sont l’auto-archivage selon des standards définis et la création de nouvelles revues savantes en accès libre. Libre, c’est-à-dire gratuit et sans restriction, ce qui n’est pas le sens que tous les participants au colloque donnaient au mot… Depuis 2001, la discussion et les travaux ont continué.

Stevan Harnad, professeur de sciences cognitives à Southampton et à Montréal, a rappelé que le but de la BOAI n’était ni de lutter contre les éditeurs ou de les remplacer, ni de résoudre les problèmes budgétaires des bibliothèques, ni de fournir l’accès aux enseignants, aux étudiants, au grand public ou au tiers-monde (même si cela y contribuerait). Il considère que le cycle d’impact de la recherche est accéléré et augmenté grâce à l’accès libre. L’impact scientifique indique l’importance de la contribution, génère les subventions de la recherche, contribue au prestige et à l’entretien des institutions de recherche, fait avancer la carrière du chercheur et le progrès scientifique.

Andy Powell, de l’université de Bath, a présenté UKOL, programme financé par des fonds nationaux et qui a un rôle de conseil sur la formation numérique auprès des bibliothèques. Il a donné le point de vue technique de l’Open Archives Initiative, qui est un protocole de collecte des métadonnées que soutient la BOAI. Le vrai problème, a-t-il noté, ce sont les changements culturels pour que les chercheurs soient incités à déposer leurs données. Les bibliothèques auraient un rôle de « managing agents » pour l’archivage institutionnel : elles exerceraient un contrôle qualité, enrichiraient et sauvegarderaient les métadonnées.

Réalisations et projets

Jan Velterop, éditeur de BioMed Central, a insisté sur l’importance du partage des connaissances. Le potentiel d’Internet n’est pas encore réalisé. L’édition concerne la collecte et la diffusion des données, mais aussi leur réutilisation dans d’autres contextes (banques de données). Elle apporte une valeur ajoutée qui devrait consister à optimiser la visibilité des articles, à multiplier les citations, etc. La solution est de créer des revues dédiées dès le départ au libre accès. Celui-ci suppose des données déposées dans des archives ouvertes garanties, dans un format adéquat et pérenne et un matériel réutilisable. Les principes de base sont les suivants : le libre accès n’a rien à voir avec la qualité de la rédaction et du comité scientifique, l’évaluation par les pairs est aussi bonne dans les revues en libre accès que dans les revues traditionnelles. Il peut y avoir aussi un examen a posteriori. Concernant les coûts, il n’y a pas d’abonnement : le financement vient du paiement par les auteurs (ou en leur nom) et par la publicité. Le paiement en amont renverse le modèle économique classique. Le libre accès coûte moins cher, mais cela ne doit pas être le facteur déterminant. Car jusqu’à quel point c’est moins cher, on ne le sait pas. Le libre accès utilise toutes les possibilités d’Internet : il augmente la visibilité des articles et la chance d’être cité, il permet l’émergence d’un nouveau modèle durable.

Laurent Guillopé, professeur à l’université de Nantes, a présenté la cellule MathDoc du CNRS 1. Le programme Numdam, né en 1999, a pour objectif de préserver un patrimoine culturel en rétronumérisant des séries de périodiques. Les méthodes et moyens mis en œuvre ont été : le choix de standards (XML, Unicode, métadonnées), la consolidation des droits d’auteur, la négociation avec les éditeurs, le contrôle de qualité, les liens avec les autres bases de données.

Daniel Charnay a évoqué le Centre pour la communication scientifique directe (CCSD), structure d’accueil du CNRS pour l’archivage. Le CCSD collabore avec la cellule MathDoc et avec l’équipe de Paul Ginsparg (ArXiv). Il propose deux serveurs généralistes, alimentés par les auteurs et les laboratoires. Dans le futur, il est envisagé d’étendre la couverture disciplinaire, de faire un travail de rétroconversion, de favoriser l’émergence de revues nouvelles constituées de tables des matières et de liens pointant vers une archive générale et universelle et de mettre le dispositif sous contrôle international pour en assurer la pérennité.

Les pays en voie de développement

Une table ronde a eu pour thème les enjeux du libre accès pour les pays en voie de développement. Dans son introduction, Kaye Raseroka, future présidente de l’IFLA, a mis l’accent sur la grande diversité de ces pays qui manquent de ressources financières et humaines (à cause de la « fuite des cerveaux »), mais pour qui la recherche scientifique est une question de vie ou de mort, en particulier dans le cas du sida. Barbara Kirsop, de Electronic Publishing Trust for Development, a identifié les problèmes majeurs posés par la fracture entre le Nord et le Sud : l’augmentation des coûts des documents, le manque d’information, la difficulté à publier et à distribuer les revues locales, qui incite les chercheurs à essayer de se faire publier ailleurs. La recherche locale est mal connue et mal reconnue internationalement. Barbara Aronson, de l’Organisation mondiale de la santé, a insisté sur les coûts de connexion qui demeurent élevés, même si certains projets, comme HINARI de l’OMS, proposent l’accès gratuit aux pays les plus pauvres et des tarifs préférentiels équitables pour les autres. Il y a aussi un problème socioculturel : il faut encourager les scientifiques du Sud à s’impliquer dans les projets internationaux. Jean-Jacques Pierrat, du ministère des Affaires étrangères, Georges Malamoud, de l’Agence universitaire de la francophonie, et Manfred Spiesberger, d’INTAS, ont présenté des actions en cours en direction des pays du Sud.

Les communications ont été très riches et il ne pouvait être question d’en rendre compte intégralement ici. Sur le site de l’Inist 2, la plupart des interventions sont disponibles sous forme de résumés, de transparents et de vidéos. De nombreux documents complémentaires y sont accessibles, en particulier, le rapport rédigé par Jack Franklin pour l’Inist en introduction au colloque. La lettre mensuelle de l’Inist Captain-doc 3, consacrée à la documentation électronique, publie les actes du colloque dans son numéro 15 de février.