La qualité de l’édition scientifique en Europe

Academic Publishing in Europe 2008 : Quality and Publishing

Chérifa Boukacem-Zeghmouri

Joachim Schöpfel

Du 22 au 23 janvier 2008, l’académie des Sciences de Berlin-Brandebourg a accueilli la 3e Conférence « Academic Publishing in Europe » (APE 2008  1). Sous les auspices de la Commission européenne, les organisateurs de ce forum développent depuis 2006 l’échange d’expériences, d’informations et d’analyses entre les professionnels de l’édition scientifique européenne. Cette année, environ 230 éditeurs, intermédiaires et chercheurs de 15 pays ont répondu à l’invitation et débattu pendant deux jours des questions liées à la qualité de l’édition.

Au cours de quatre sessions, plusieurs axes de réflexions ont été développés, du libre accès à l’information, à l’édition, à ses modèles économiques, à l’évaluation dans le contexte du web 2.0 et bien d’autres questions. Leur programmation, articulée autour de sessions et de présentations (treize au total) a donné lieu à un programme riche laissant toujours la place à l’échange et au débat.

Le libre accès au centre des analyses économiques des modèles éditoriaux

Le discours d’ouverture, présenté par le directeur désigné du Cern, Rolf-Dieter Heuer, a permis d’illustrer, à partir d’une discipline propice aux innovations – la physique des hautes énergies – les évolutions apportées par le libre accès  2.

Arne K. Richter (European Geosciences Union) est intervenue en faveur de l’adaptabilité du modèle du libre accès avec, pour exemple, l’initiative d’un système d’évaluation et de peer reviewing plus efficace dans un environnement libre, sous la responsabilité et à la charge des sociétés savantes et communautés scientifiques (« service charge model »).

Michael A. Mabe (STM Publishers) a resitué l’évolution et la croissance d’une recherche de plus en plus internationale et basée sur le réseau, dont les pratiques de lectures et de coautorat augmentent en quantité et en qualité. Il rejoint R.-D. Heuer dans la mise en exergue de la notion d’« e-infrastructure » à même d’assurer la continuité de cette évolution pour les décennies à venir. Sa présentation s’est terminée sur le projet européen Peer (Publishing & Ecology of European Research) qui, par le biais d’un « observatoire » de 300 titres de périodiques, teste la pertinence et la durabilité de nouveaux modèles économiques et de leurs effets sur la pratique et la politique des dépôts en Europe. 

La session intitulée « Peer Review and Quality » a permis d’aborder les dernières évolutions en matière d’évaluation alternative, basées sur la dimension collaborative du web 2.0. Trois expérimentations présentées par Catriona McCallum pour PLoS, Linda Miller pour Nature et Ulrich Pöschl (Max-Planck-Gesellschaft) ont permis de démontrer comment de nouveaux critères introduits permettaient d’améliorer les modalités traditionnelles en termes de rapidité et de qualité. Sans pour autant tomber dans une « confusion qui lierait la qualité à la rapidité de diffusion ». Parmi ces critères, citons une plus grande ouverture à la pluridisciplinarité, moins de limites dans la taille des textes et une moindre importance accordée à l’originalité et à la nouveauté des résultats de la recherche.

Marc Ware (cabinet Marc Ware Consulting) a prolongé la thématique par l’exposé d’une enquête menée en 2007  3 auprès de 3 040 chercheurs issus de différentes entités académiques, afin d’identifier leurs pratiques mais aussi leurs préférences en matière de peer reviewing. Les personnes interrogées se sont déclarées en grande partie en faveur de la pérennité du processus d’évaluation, renforcé par une double évaluation à l’aveugle.

Le coût des savoirs scientifiques numériques

La session suivante, « All about money » a commencé par la présentation par Alexis Walkiers, économiste (Ecares Bruxelles), du rapport What means rich in publishing ?, remis à la Commission européenne en 2006. L’étude comparait les périodiques des éditeurs commerciaux et non commerciaux et démontrait entre autres que ces derniers étaient plus souvent cités. C’est le point de départ d’une démonstration qui s’attaque à la question du coût et des structures de marché qui l’alimentent (corrélation entre le prix et la concentration, la grande spécialisation dans certaines disciplines, etc.). L’intervention, on s’en doute, a été très mal reçue par les éditeurs présents dans la salle.

Thomas Connertz (Thieme, éditeur allemand) a présenté la chaîne de valeur de la communication scientifique qui s’appuie sur cinq éléments incontournables : usages et compétences, technologie, temps, coût et valeur ajoutée. Ces éléments sont présents à chaque étape de la chaîne, de la soumission du manuscrit au service final à l’usager.

Les bibliothèques face à leurs rôles

La table ronde de la journée du 23 janvier, dédiée aux bibliothèques et à leurs rôles dans le contexte de l’édition scientifique numérique commerciale et alternative a été introduite par Nol Verhagen (bibliothèque universitaire d’Amsterdam). Il a souligné le rôle actif de l’usager dans le changement de son propre environnement global. Mais aussi l’importance des services à penser et à mettre en place par les bibliothèques pour les e-lecteurs, de plus en plus nombreux et présents. Il a, à cet effet, pointé la portée des statistiques et de leur exploitation par les professionnels des bibliothèques.

Ann Okerson (Yale) a surtout axé son discours sur la question de la conservation, « un des éléments d’une valeur ajoutée des bibliothèques qu’il est de plus en plus difficile de démontrer ».

Wolfram Neubauer (ETH Zürich) a permis de sortir d’un discours quelque peu « fataliste » en admettant un constat « d’échec » et en revenant avec plus de recul sur le rôle contrasté que peuvent jouer les bibliothèques : en fonction des domaines (STM, SHS), des niveaux (1er, 2e, 3e cycles), des contextes auxquels elles  choisissent de faire face (open access, dépôts institutionnels, etc.).

Indicateurs et outils d’une science sur le web

La deuxième session de la matinée a porté sur la question de la pertinence des indicateurs bibliométriques traditionnels pour une science qui se fait de plus en plus sur le réseau. Elle a posé aussi la question de leur pertinence en fonction de la discipline, avec pour exemple la généralisation du facteur d’impact pour les conférences, particulièrement en informatique. Mais la discussion et le débat ont surtout porté sur la prise en compte des nouvelles formes de communication par les indicateurs scientifiques et l’utilisation d’autres outils (Google Scholar, Scopus, bases de données thématiques) et d’autres technologies émergentes pour éditeurs et chercheurs : le textmining (analyse de grands corpus textuels), le semantic markup (web 2.0), Acap et Onix pour la gestion des licences.

Laurent Romary (Max-Planck-Gesell-schaft/Inria) a permis d’élargir la réflexion sur les SHS. Le service qu’il développe dans le domaine de la linguistique, Living Sources, est un exemple de ce qu’il est possible de faire aujourd’hui en matière de revues, en facilitant la diffusion de la recherche, son archivage, tout en restant dans un objectif d’interopérabilité et de granularité plus fine ; ce que les usagers recherchent de plus en plus.

La dernière session intitulée « Scholarship in the digital age : Are we prepared at all ? Considerations and recommandations » a été présidée par Rudi Schmiede (Darmstadt), qui a noté l’importance prise par les nouvelles formes de communication (blogs, wikis, etc.) dans les discours. Selon lui, nous ne sommes pas passés à l’ère électronique mais plutôt à un environnement électronique de communication.

Il a pointé le fait que si certaines interventions ont utilisé la notion d’« e-infrastructure », voire d’« e-science », le manque de standards, insuffisamment déployés, nous amène à faire le constat que nous sommes à une époque encore balbutiante d’une « infrastructure électronique de la communication scientifique » caractérisée par l’intégration des données scientifiques, le développement de documents dynamiques et l’automatisation de certaines procédures scientifiques. Pour autant et pour l’heure, les freins ne sont pas technologiques, mais encore d’ordre économique, politique et social.

La prochaine conférence aura de nouveau lieu à Berlin, du 20 au 21 janvier 2009. Sa thématique : « The Impact of Publishing ».