L’édition scientifique en Europe
Joachim Schöpfel
Pour la cinquième fois, l’Académie des sciences de Berlin-Brandebourg a accueilli la conférence « Academic Publishing in Europe » (APE 2010), les 19 et 20 janvier derniers, sous les auspices du ministère fédéral de l’éducation et de la recherche. Parmi les 200 participants figuraient tous les grands éditeurs scientifiques et quelques organismes et bibliothèques de recherche.
Au programme, cette année, le changement de rôle des éditeurs, bibliothécaires et scientifiques. En fait, il était surtout question des attentes et besoins des uns et des autres.
Les chercheurs au cœur du système
C’est peut-être une banalité mais parfois, comme à Berlin, tout rappel a du bon : au cœur du système se trouve le chercheur, la communauté scientifique. Le chercheur est roi, comme quelqu’un l’a exprimé à Berlin, c’est lui la « force majeure » du système, et tout modèle économique ou technologique n’a de sens qu’en fonction des besoins de cette communauté.
Or, quels sont ces besoins ? D’après les discussions de Berlin, l’intérêt principal d’un chercheur est de savoir où et par qui il sera publié. Et, liées à cette question, d’autres interrogations l’intéressent : comment protéger ses droits d’auteur, comment optimiser la dissémination de ses résultats et réflexions, et comment obtenir la reconnaissance par la communauté. Une étude récente 1 laisse penser que, pour la majorité des chercheurs, l’accès libre à l’information ou le web 2.0 2 sont des préoccupations secondaires.
L’éditeur Nature évoque un « user-centric world » (un monde centré sur l’utilisateur). Pourtant, il faut éviter de généraliser : les disciplines sont assez différentes ; et la recherche en Chine et en Inde prend de l’ampleur, avec d’autres modes de fonctionnement, d’autres besoins et comportements.
Agences de moyens
Plusieurs organismes de financement, dont l’équivalent de l’Agence nationale de la recherche (ANR) en Allemagne 3 et une fondation privée 4, ont exprimé leurs attentes face au système de communication scientifique. Pour eux, le système doit avant tout assurer la qualité des résultats et la sélection et l’émergence de thèmes de recherche. L’accès libre aux publications figure sur leur agenda – à condition qu’il puisse garantir la qualité des résultats et offrir une alternative au peer review (évaluation par les pairs) organisé par les éditeurs. Les agences comptent utiliser leurs moyens – incitation et financement – pour contribuer à changer le comportement des chercheurs dans ce sens. Comme un des conférenciers le faisait remarquer : « L’argent et la science sont liés. »
Les éditeurs innovent
Les éditeurs présents à Berlin ont poursuivi une stratégie offensive, avec toute une gamme de nouveaux contenus et services à forte valeur ajoutée qui intègrent des documents et des données 5. En fait, les éditeurs mettent en œuvre la déconstruction du document conceptualisée par d’autres 6 et expérimentent de nouveaux modes et de nouvelles formes d’information, en mettant en avant qualité et conservation.
Dans ce contexte, il n’est pas anodin que les deux modèles présentés pour améliorer l’évaluation des publications et des chercheurs ont été développés avec et pour les éditeurs : article metrics, l’indicateur basé sur l’usage des articles de la Public Library of Science, et le nouvel indicateur SNIP, présenté comme une alternative au facteur d’impact, développé par le chercheur hollandais Henk Moed (Leiden) et industrialisé par Elsevier dans Scopus.
Quel rôle pour les bibliothécaires ?
Malgré la présence de Claudia Lux, l’ancienne présidente de l’Ifla (Fédération internationale des associations de bibliothécaires et d’institutions), les bibliothécaires étaient plus ou moins absents des débats. Seul le problème financier des bibliothèques universitaires (BU) a été évoqué ; mais, d’après une enquête anglaise, les chercheurs se battraient d’abord pour leur budget de recherche, pas pour les besoins des bibliothèques.
À terme, les communautés scientifiques payeraient directement leur information, sans intermédiaires. Utopie ? Cauchemar ? Toujours est-il que cette absence des bibliothécaires dans le débat reflète une interrogation légitime : la médiation traditionnelle des BU est-elle dépassée ? Le groupe de réflexion Future Lab de la conférence était d’accord sur un point : de tous les acteurs de la chaîne de valeur de l’IST (information scientifique et technique), la bibliothèque scientifique subira les changements les plus importants. La BU, futur « café de l’information » ? Le bibliothécaire, simple « facilitateur » entre éditeur et chercheur ?
Quel modèle économique ?
En 2009, on a pu dire que les éditeurs, les bibliothèques et les communautés scientifiques adoptaient des stratégies variables, à la recherche d’un ou de plusieurs modèles économiques durables. En 2010, on a la curieuse impression que tout cela n’est plus un problème pour les éditeurs, du moins pour les grands. Ils mettent l’accent sur le développement de nouveaux services, et l’accès libre semble banalisé, sinon neutralisé. Aux États-Unis, une table ronde a élaboré des recommandations consensuelles sur l’édition scientifique pour le gouvernement fédéral 7 ; le consensus porte notamment sur la nécessité du peer review et de la conservation pérenne de l’IST, sur un modèle économique durable et sur un accès plus large à l’information. Par contre, on n’a pas eu de nouvelles du projet européen « Publishing and the Ecology of European Research » (PEER) qui est en train d’évaluer l’impact financier des archives institutionnelles sur l’édition scientifique 8.
Google, encore et toujours
Comme en 2009, Google a occupé le devant de la scène. Pendant plusieurs heures, les échanges ont porté sur son projet de numériser et mettre en ligne 10 millions de livres. Globalement, tout le monde semble s’accorder sur le bien-fondé de cette initiative – l’accès, sur le web, à tous les livres pour tout le monde, reste un objectif difficile à contester. Les critiques se sont concentrées sur deux aspects : le risque d’un monopole de fait (ou d’un oligopole) autour de Google qui exclut toute relation équilibrée avec les éditeurs, auteurs ou bibliothèques ; et l’action illicite par rapport à certaines législations nationales. La France a été citée en modèle, pour son action en justice contre Google 9 et sa politique de numérisation 10. N’empêche qu’une personne manquait à cette table ronde : l’utilisateur final, le lecteur et internaute lambda… Quelle sera sa position ? À suivre.
Une dynamique autour de l’édition scientifique
Matthias Kleiner de la DFG avait introduit la conférence avec les sujets à l’ordre du jour : licences nationales, accès libre, archivage national, données brutes, cadre légal et environnement virtuel. En Allemagne, une initiative « information numérique », née d’une alliance entre agences de moyens et organismes de recherche, coordonne le développement d’une infrastructure nationale, contribue à la normalisation et encourage l’émergence d’une évaluation alternative.
En France, l’initiative vient des bibliothèques universitaires. Après APE 2010, nous avons assisté au colloque « Penser global, agir local. Politiques de mise en ligne de la production académique » à l’université Nice Sophia Antipolis (29 au 30 mars 2010) dont l’objectif était de créer un forum d’échange et de développer une dynamique universitaire autour de l’édition scientifique. Hasard du calendrier ? Ou synergie des projets et des initiatives ?
Pour en savoir plus…
On trouvera les présentations sur le site de la conférence 11, avec un rapport synthétique rédigé par Svenja Hagenhoff et Chris Armbruster. Les communications ont été enregistrées et mises en ligne 12.
La 6e conférence est annoncée pour janvier 2011. La 2e Conférence sur l’édition scientifique en région méditerranéenne, initialement prévue pour 2011, cherche encore un lieu d’accueil.