entête
entête

i-expo, le salon de l'information numérique

Juliette Doury-Bonnet

Le Palais des congrès de la Porte Maillot avait accueilli en 2002 le dix-neuvième et dernier salon de l’information numérique IDT-Net. En 2003, cette manifestation, à la fois salon et congrès, renaît de ses cendres sous le nom d’« i-expo ». Elle est désormais organisée par le Groupement français de l’industrie de l’information (GFII) et le groupe Spat. Les conférences ont tourné autour de trois thématiques : l’environnement professionnel (17 juin), les professionnels de l’information (18 juin) et les outils de l’information en entreprise (19 juin). Deux rencontres ont retenu plus particulièrement l’attention de la rédaction : « Un nouveau modèle d’accès à l’information scientifique : le libre accès » et « Le “technoweb” : nouveaux outils et nouvelles pratiques pour la communication scientifique et technique ».

Un nouveau modèle d’accès à l’information scientifique : le libre accès

Lydia Mérigot, inspecteur général des bibliothèques, a souligné en introduction que la table ronde avait pour objectif de réunir des représentants des différents acteurs concernés par le libre accès et de replacer le thème dans son contexte. Francis André, responsable de la prospective à l’Institut national de l’information scientifique et technique (Inist), a proposé un état des lieux. Il a retracé l’histoire des initiatives internationales depuis 1990 lorsque certains universitaires ont posé un « regard militant sur le système de publication scientifique monopolisé par les éditeurs commerciaux et figé dans la chaîne de production papier ». Il a évoqué les colloques qui se sont succédé depuis la convention de Santa Fe en 1999. On s’achemine vers un consensus politique : l’accès « libre » (mais pas « gratuit ») est justifié par de bonnes raisons (efficacité, visibilité, pragmatisme, enjeux sociaux). Les positions stratégiques des différents acteurs ont évolué. Francis André a rappelé l’environnement juridique et les avatars de la question du droit d’auteur. Enfin, le modèle économique est modifié par l’open access, puisque c’est la distribution qui coûte le plus cher actuellement. L’intervenant a insisté, en livrant quelques réflexions prospectives, sur la valeur ajoutée du document électronique.

Jérôme Kalfon, directeur du Service commun de la documentation (SCD) de l’université René Descartes- Paris V, a donné « le point de vue du bibliothécaire ou comment gérer les restrictions d’accès », dans une université scientifique. Il s’agit d’un circuit fermé : les producteurs sont les principaux consommateurs. Le bibliothécaire est un acteur de plus en plus présent, car si l’on observe une « tendance centrifuge de l’accès », la gestion suit un schéma centripète. Jérôme Kalfon a énuméré les limitations qu’il est amené à gérer et à masquer. Il s’est interrogé sur la question du paiement en aval et sur la gestion des liens. « Le libre accès des liens sera-t-il le prochain grand combat de l’open access ? »

Christian Lupovici, directeur du SCD de l’université de Marne-la-Vallée, a abordé la question des nouveaux métiers et nouvelles formations pour les personnels des bibliothèques universitaires (BU), face à un nouveau public « sociologiquement modifié », adapté à l’environnement technologique, possédant une culture de réseau et de découverte empirique et « apparemment de plus en plus autonome ». Les métiers traditionnels se caractérisaient par une grande stabilité dans le temps. Désormais, on a changé de paradigmes. On est passé de la gestion d’objets physiques à la gestion d’objets virtuels dont le support est transitoire, d’un « traitement allogène » des documents (catalogage, indexation) à un « traitement endogène » (métadonnées, liens) de productions très diversifiées par leur source, leur structure et leur nature. Une nouvelle bibliothéconomie doit rendre compte des nouveaux outils de recherche, de la navigation hypertextuelle et de l’interactivité. On assiste à une migration des métiers, en particulier vers la formation et vers l’édition documentaire, à l’élargissement des compétences et des responsabilités de tous les personnels. Les profils et la répartition des emplois se modifient, de nouvelles formations sont nécessaires.

Marc Minon (Laboratoire d’études des nouvelles technologies de l’information, de la communication et des industries culturelles, université de Liège) a traité du libre accès dans l’édition universitaire française. Celle-ci représente la moitié des budgets d’acquisition des BU, 60 % des collections de périodiques et 75 % des monographies : on ne peut donc faire l’économie d’une réflexion. Sur les 1 200 à 1 500 périodiques scientifiques actifs, les trois quarts relèvent des sciences humaines et sociales (SHS). L’offre est atomisée et dominée par des maisons indépendantes, fragiles économiquement. Marc Minon a noté la discrétion des publications de SHS françaises sur le réseau : sur 800 à 900 titres, 50 ont une version électronique. L’impact à court et moyen terme du passage au numérique sera l’augmentation des coûts (tant que les versions électroniques et papier coexisteront) et des rendements d’échelle croissants, une impasse économique pour les éditeurs. La question est de savoir comment œuvrer pour l’accès électronique à ces revues. Une nouvelle base est indispensable à un compromis entre les différents acteurs. Il faut renforcer les moyens consacrés aux acquisitions des publications scientifiques, lutter contre la concentration excessive des activités éditoriales en renforçant les consortiums, mettre en place des mécanismes incitatifs pour favoriser l’émergence d’initiatives collaboratives entre maisons indépendantes. En contrepartie, il doit y avoir un engagement des ayants droit pour faciliter l’accès universel au contenu. L’accès aux archives doit être ouvert, quitte à raccourcir la durée de protection des œuvres scientifiques. Enfin, l’interopérabilité entre services d’accès au patrimoine, bases de preprints et services d’accès aux œuvres récentes est nécessaire.

Madeleine Wolff-Terroine, présidente de l’Association française des utilisateurs de systèmes d’information électroniques (afusie), a rendu compte d’une enquête sur l’accès au document primaire. Sera-t-il modifié par le libre accès ? La multiplication des mots de passe, le suivi des commandes, l’inflation des publications, la pérennité des supports et des formats, les coûts de stockage, la compatibilité entre les logiciels, le coût pour les auteurs et leurs organismes de tutelle, le fossé entre pays riches et pauvres sont autant de sujets d’inquiétude pour les établissements et les particuliers qui commandent des documents.

Le « technoweb » : nouveaux outils et nouvelles pratiques pour la communication scientifique et technique

En introduction au débat, Jean-Michel Salaün, professeur à l’Enssib, a souligné que les nouvelles pratiques de communication scientifique induites par l’usage d’Internet étaient « la face immergée de l’iceberg ». Daniel Charnay, de l’Institut national de physique nucléaire et de physique des particules (IN2P3), a décrit le projet de visioconférence et webcast développé pour permettre réunions et conférences entre physiciens. Hervé Le Crosnier, maître de conférence à l’université de Caen et créateur de la liste de discussion Biblio.fr, s’est penché sur les logiciels sociaux, des « logiciels qui servent à créer des communautés ». Les publications scientifiques sont concernées, de même que d’autres formes éditoriales comme la messagerie, les listes et forums, les weblogs, les systèmes d’écriture partagée… Il a insisté sur le basculement des modèles éditoriaux. Au rôle traditionnel de filtrage des éditeurs se substitue la notion de valorisation d’œuvres existantes, de « percolation » : « éditer devient apposer une marque de qualité. » Pour Gloria Origgi, philosophe, le modèle d’édition sur le web est à mi-chemin entre l’édition traditionnelle et le forum. Elle a présenté Interdisciplines 1, un site pour la recherche interdisciplinaire en sciences humaines, lancé en novembre 2002. Portail de colloques virtuels, il propose actuellement les textes de deux colloques passés, « Art et cognition » et « Les défis de la publication sur le web » et d’un colloque en cours, « Repenser l’interdisciplinarité ». La première expérience fut Text-e 2, rencontre virtuelle organisée en partenariat avec la Bibliothèque publique d’information.

François Vadrot, président de FTPress, agence de presse et de communication issue du CNRS, a présenté des exemples de magazines multimédias au carrefour de la communication, du knowledge management et de la formation, comme Bio, le magazine des sciences de la vie du CNRS. Daniel Confland, responsable du développement chez Jouve, est intervenu sur le concept « Congrès Zone », une solution en termes de coût et de temps pour la gestion et la diffusion multimédia des actes de congrès scientifiques.

Tous les intervenants ont insisté sur l’importance d’« éditer » les textes avant leur diffusion.

  1.  (retour)↑  http://www.interdisciplines.org
  2.  (retour)↑  Voir BBF no 4-2002 et l’ouvrage Text-e : le texte à l’heure de l’Internet, BPI, 2003.