Open Access Week 2013
Open access et nouveaux médias de communication – 21-27 octobre 2013
Dans le cadre de l’Open Access Week 2013, le réseau social MyScienceWork a organisé trois rencontres parisiennes. La dernière a eu lieu le 24 octobre et portait sur le thème « Open access et nouveaux médias de communication ». Ce fil rouge a permis de découvrir différents projets qui touchent à ces domaines. Il est dommage que le retard pris sur le programme ait poussé à réduire certaines interventions, sans qu’elles perdent toutefois de leur intérêt.
La gestion des données dans les digital humanities
Stéphane Pouyllau, directeur adjoint du projet Huma-Num, a d’abord donné des éléments sur la définition et l’histoire des digital humanities. Ont notamment été évoqués la rédaction du Manifeste des Digital Humanities en 2010, l’évolution des outils qui interroge la méthodologie et les pratiques en sciences humaines et sociales (SHS), et enfin le fait que le mouvement est en marche, avec une communauté de plus en plus importante.
Le cœur de son propos a porté sur les données issues du travail de recherche. Il en existe deux types : celles que le chercheur fabrique et celles qu’il utilise. Dans les deux cas, son objectif est de pouvoir les traiter pour diffuser les résultats dans des articles. Or aujourd’hui, l’administration de la preuve scientifique se fait de plus en plus fortement sentir. Il faut à la fois prouver ce que l’on avance et autoriser à le vérifier. Les enjeux autour de la consultation des données sont donc stratégiques, ce qui soulève des questions sur les moyens d’y accéder, sur leur réutilisation et leur archivage. Huma-Num cherche justement à agir à ces différents niveaux. Actuellement, l’accès à ces données est facile car les scientifiques prennent conscience de leur importance et disposent de plus de moyens. Cependant, les environnements techniques, juridiques et archivistiques ne sont pas forcément mûrs pour les transmettre aux générations futures. Ainsi, de nombreuses données sont muettes car non contextualisées. Si elles ne sont plus lisibles dans dix ans, quel est alors l’intérêt du libre accès ? L’enjeu est donc de pouvoir mettre en place une migration des données, sans perte maîtrisée par la communauté elle-même.
Pour conclure, Stéphane Pouyllau a décrit deux projets. D’abord MédiHAL, dont l’idée est de permettre aux chercheurs de déposer des images, de les documenter et de les rendre accessibles. Cette plateforme, connectée à HAL 1, est pensée en interaction avec le monde numérique dans lequel elle vit : elle prend en compte l’archivage à long terme (images et métadonnées). Le second projet est Isidore, qui moissonne des entrepôts en SHS pour proposer une plateforme qui agrège et enchâsse leurs contenus.
Les échanges avec le public ont apporté des précisions. Il a notamment été souligné qu’en SHS, de nombreux programmes de numérisation de masse ont été lancés, dont le programme Persée, et qu’un segment de BSN 2 y est consacré. Autre question, celle de la propriété intellectuelle, qui n’est pas simple et nécessite d’informer au mieux les chercheurs. MédiHAL n’a encore soulevé aucun problème à ce niveau. Enfin, confrontées à un déluge de données, les Digital Humanities tendent à s’inspirer des travaux menés par le CERN et dans le domaine de la physique des particules. Des infrastructures sont ainsi partagées pour l’hébergement des données, comme le centre de calcul de l’IN2P3.
Réseaux sociaux et Open Access
Pour Laurence Bianchini, journaliste pour le site MyScienceWork, la recherche est basée sur la publication, qui s’appuie elle-même sur la production de données, qui repose sur des équipes de recherche qui ont besoin de financements. Mais dans une période de crise financière, avec une attractivité moindre pour les étudiants, comment faire mieux avec moins ?
Il faut noter que l’impact du numérique sur la recherche est bien réel. Chacun des niveaux cités précédemment sont concernés : des publications sont faites à partir d’outils numériques (Zotero, Mendeley, Word, LateX), une veille bibliographique est possible (Google, WoS, PLOS, arXiv, PubMed), des machines de calcul de données permettent d’accéder à des open data et au big data (Figshare, Slideshare), les équipes, les personnels et les financements peuvent se retrouver grâce au réseautage (LinkedIn, BiomedExperts). Cependant, les réseaux sociaux scientifiques soulèvent des questions et des réticences de la part des chercheurs, pour plusieurs raisons : ils ne sont pas pris en compte dans l’évaluation, se heurtent à la crainte du vol d’idées et demandent un temps de prise en main et d’exploration dont les scientifiques ne disposent pas. Pourtant, le web collaboratif offre des possibilités intéressantes, en connectant les personnes entre elles et en permettant l’émergence d’une intelligence collective. Il faut donc décider de ses besoins et objectifs pour choisir l’outil le plus adapté. Nombreux sont les outils qui existent pour augmenter sa visibilité, se documenter, transmettre son savoir et sortir de l’isolement. Les réseaux sociaux scientifiques permettent d’accéder à des articles, de se créer un réseau, d’entrer en contact avec des experts et de trouver un poste.
MyScienceWork en fait partie. S’appuyant sur l’open access, ce site propose l’accès à un moteur de recherche. Ce dernier permet d’accéder à des publications en libre accès moissonnées dans différents dépôts, à des offres d’emplois et de (re)trouver des membres. Son objectif affiché est de donner encore plus de visibilité à ces documents, en y ajoutant un filtre de qualité et de pertinence 3. D’autres contenus (actualités, dossiers…) sont produits par les équipes de MyScienceWork.
Le public a souhaité connaître le business model de cette plateforme. Il repose sur des investissements privés et publics, ainsi que des services apportés autour de contenus. Laurence Bianchini a également précisé que MyScienceWork apporte l’outil : c’est aux personnes de créer l’usage.
Table ronde : vers de nouvelles pratiques de recherche ?
Pour conclure cette soirée, une table ronde a été animée par Celya Gruson-Daniel, cofondatrice du site Hack Your PhD.
Salma Mesmoudi, membre de l’Equipex Matrice et chercheuse en neuro-imagerie, a parlé de la révolution apportée par le partage des données dans ce domaine. En effet, les projets sont très coûteux, prennent du temps et engagent beaucoup de personnel. Or les différentes données obtenues peuvent être diffusées. Cela se fait notamment aux États-Unis, où des structures existent et où le partage est valorisé financièrement. Ainsi, différents établissements mettent à disposition des images brutes, des scanners ou des bases agrégeant des données réparties dans différents articles. En s’appuyant sur les possibilités offertes par ce libre accès, la plateforme CARMA a été créée et a permis la mise en place d’un modèle de connaissance du cerveau. Ce type de projet pose la question de l’interopérabilité mais aussi de sa prise en compte par les procédures d’évaluation.
Élizabeth de Turkheim, responsable de la délégation à l’évaluation de l’INRA, a justement parlé de l’évaluation de la recherche et sur son adaptation. Il s’agit d’une activité nécessaire, qui apporte une reconnaissance indispensable, permet d’obtenir des ressources, de rendre compte aux contribuables, d’établir une stratégie et d’améliorer la qualité de la recherche. Les chercheurs s’adaptent à ce que l’on attend d’eux. Les méthodes utilisées doivent donc faire l’objet d’une analyse critique régulière pour évoluer. Mais avec la science « ouverte », de nombreuses questions se posent, dont celle de sa mesure et de son apport à la recherche. Face à ces nouveaux usages, faut-il comptabiliser l’impact sur l’utilisation d’un article, les collaborations que cela entraîne ou le meilleur accès donné aux citoyens ? Les chercheurs doivent être incités à s’inscrire dans ce mouvement, par la preuve ou par des conditions strictes. Mais, dans ce cas, il conviendra de réviser ou de modifier les méthodes d’évaluation en prenant en compte de nouveaux critères, comme par exemple le nombre de téléchargements d’un article.
Rayna Stamboliyska, chercheuse à l’université Paris-Descartes, s’est intéressée aux altmetrics. Les pratiques de recherche évoluent et les méthodes d’évaluation le devraient également. En effet, l’open source se développe, mais pas forcément dans les laboratoires. Quand on utilise un logiciel propriétaire, comment connaître son fonctionnement et la manière dont il traite les données ? C’est la même question lorsque des données ne sont pas mises à disposition pour la reproductibilité des expériences : il y a un manque de transparence. D’autre part, l’évaluation basée sur les publications pose problème. Il est prouvé que la relecture par les pairs est lente et inefficace. Pourtant, ce sont toujours l’Impact Factor des revues et le H index qui sont pris en compte. Ces indicateurs sont peu pertinents, mais l’on s’appuie sur eux pour l’attribution de crédits. Une solution est donc de se tourner vers les altmetrics, mesures nouvelles liées à l’avènement des TIC. Sont notamment proposés le nombre de vues d’une page web, les discussions autour d’un article sur les réseaux sociaux ou les « Tweet citations », ainsi que le fait en partie la revue Medical Research. Des mesures nouvelles, qui reposeraient sur toutes les activités qui montrent l’intérêt suscité par un article, sont donc à trouver, tout en gardant à l’esprit que chacune d’entre elles a ses limites.