L'édition multisupports, une révolution éditoriale ?
Dominique Cartellier
L’exploitation d’un contenu informationnel sur différents types de supports papier ou électronique (livres, sites web, cédérom, e-book) constitue une des perspectives ouvertes par les évolutions de l’informatique éditoriale. Un processus d’uniformisation des formats techniques destinés à rendre possible cette convergence semble se mettre en place dans les grands groupes éditoriaux. Le métalangage XML, qui permet de décrire et de stocker des documents (indépendamment d’une mise en forme dédiée à un format particulier) est ainsi, en peu de temps, devenu la clé de voûte de ce système.
Universitaires, professionnels de l’édition, informaticiens et experts étaient invités à réfléchir sur cette évolution le 14 juin 2001, à l’occasion d’une journée d’étude consacrée à l’édition multisupports, à l’université Paris XIII-Villetaneuse 1. La diversité des intervenants a permis une confrontation d’expériences et des échanges qui ont montré, au-delà des aspects techniques, les multiples implications de ce processus sur le plan de la conception des contenus, des usages ou de la fonction éditoriale.
Ces enjeux concernent, en effet, l’ensemble de la chaîne éditoriale : Jean-François Timmel (Reed Elsevier), décrivant la stratégie multisupports de son groupe, s’est employé à tracer le portrait de l’éditeur futur. Celui-ci deviendra un fournisseur d’informations personnalisées plutôt que de produits. Les bases de données représenteront un enjeu stratégique et la technologie un élément dominant. Enfin, paradoxalement, le papier sera sans doute utilisé comme un des supports destinés à l’archivage... Cette approche a été bien sûr nuancée par les interventions ultérieures qui ont montré un quotidien des éditeurs fait de tâtonnements, d’incertitudes et de questionnements.
Les aspects techniques de ces évolutions et les implications de la structuration XML sont à l’évidence particulièrement importants. La norme, dont Marion Pépin (Vivendi) a présenté les principales caractéristiques, permet en effet de s’affranchir de la forme par la création d’une structure sémantique et d’obtenir un texte dans un format neutre (DTD : définition du type de document). Ce format peut servir dans toutes les circonstances, indépendamment du logiciel de départ et du support et il va pouvoir connaître de multiples applications. Marion Pépin a ainsi souligné que la DTD constitue une valorisation d’un contenu et à ce titre, est un « bien de maison » sous la responsabilité de l’éditeur. Point de vue qui a suscité quelques réactions dont celle d’Alain Pierrot (consultant, Editronics) qui considère que la raison d’être de la DTD est sa réutilisation et qu’une situation de monopole sur une structuration ne serait pas sans danger.
Changements de méthode
Largement adoptée par les éditeurs, la norme XML entraîne des changements de méthode. Décider de structurer implique de savoir pourquoi l’on structure (il n’est pas utile de tout structurer), de définir le niveau de structuration et d’instaurer un dialogue entre éditeurs et informaticiens. Pour François Chahuneau (Berger-Levrault), qui a souligné la distinction entre standardisation de la structure et standardisation du contenu, le grand dilemme des éditeurs qui numérisent leur fonds est, une fois le format XML choisi, de déterminer le bon niveau de modélisation des données textuelles. Question dont la réponse est à la fois économique, technique et éditoriale. Les motivations majeures pour utiliser XML sont, entre autres, de séparer contenu et structure de la présentation, de faciliter les traitements automatiques et, pour un éditeur, d’aborder efficacement l’édition multisupports. Le fait d’envisager l’indépendance entre la forme et le fonds – possible dans certains domaines, illusoire dans d’autres – ne signifie pas qu’il faille faire des compromis sur la présentation.
La question centrale de la production et de l’exploitation des contenus et donc du rôle de l’éditeur, se trouve posée, et a notamment été abordée au cours d’une première table ronde intitulée : « Peut-on éditer sans lien avec un support ? ». Jean-Manuel Bourgois (Groupe Albin Michel Éducation, Magnard, Vuibert) a évoqué les changements en cours ou à venir dans l’édition, qui se traduisent en priorité dans les métiers et dans les relations entre l’éditeur et l’auteur. Plusieurs secteurs sont déjà directement concernés par le numérique : l’édition scientifique et technique, où dès à présent il n’est plus possible de l’ignorer, l’édition universitaire, les encyclopédies. Le livre scolaire amorce le tournant et devrait être suivi par les secteurs de livres avec images (édition d’art, voyages...), l’édition pour la jeunesse et, enfin, la littérature générale.
Deux types de risques sont vraisemblablement à redouter, concernant la diversité des opérateurs d’une part, les droits d’auteur et d’autre part les problèmes juridiques extrêmement complexes. Mireille Maurin (Hachette Multimédia) a insisté sur l’articulation entre la forme et le contenu. Il s’agit de ne pas confondre évolution technologique et révolution éditoriale. Quels que soient les supports, l’éditeur est amené à créer des produits pour son public et à anticiper. Si son métier se transforme, fondamentalement, son rôle reste le même. Pour Pierre Cohen-Tanugi (Terentia et GiantChair Inc.), les éditeurs multisupports sont encore très peu nombreux. En revanche, l’exploitation, sur différents supports, de contenus préexistants prévus pour un support particulier, est une pratique courante ; beaucoup d’œuvres connaissent plusieurs vies et différents supports. Mais ces derniers sont liés à des usages différents et il est extrêmement compliqué d’envisager ces multisupports. Alain Pierrot a insisté sur la nécessité d’analyser la consommation du livre en tant que contenu et en tant qu’objet avec lequel on a un rapport variable selon les situations. La question qui se pose est bien de savoir quel produit vendre aux clients, et quelle est la fonction de ce que l’on édite. Il a par ailleurs évoqué les questions liées à la propriété intellectuelle en lien avec la standardisation et le caractère interopérable des métadonnées.
Approche historique
L’approche historique proposée par Christian Robin (Université Paris XIII, Formedi) a apporté un éclairage utile à ces évolutions. On peut ainsi distinguer deux façons de faire du multisupports : soit en « déclinant » une œuvre, soit en proposant un seul objet sur différents supports (encyclopédie papier, cédérom, etc.). La publication sur des supports différenciés pour atteindre un public, le plus large possible, a toujours plus ou moins existé ; dans l’édition française, aucun éditeur, quel que soit son secteur, ne pourrait survivre sans avoir recours à cette logique multisupports. Il ne s’agit donc pas d’une révolution éditoriale. En revanche, ce qui est nouveau c’est la tentation de « mixer » ces logiques et de décliner la même information sur différents supports. Reste alors à savoir si nous sommes en face d’une industrialisation plus poussée de la chaîne éditoriale, comment se positionnent les editors et les publishers et si ces deux logiques ne sont pas contradictoires.
Les usages constituent un autre type d’enjeux que Ghislaine Chartron (Unité de recherche et de formation en information scientifique et technique-URFIST, Paris) a abordés en rappelant au préalable que XML est une technologie ancienne, à un niveau très générique, et que ses enjeux ne sont pas uniquement éditoriaux. Ils sont notamment marqués par une volonté politique très forte se traduisant par de nombreux financements publics de projets. Ils sont également économiques, dans la mesure où sont espérés des gains de productivité pour lesquels les gros éditeurs semblent mieux placés que les petits. Ghislaine Chartron a ensuite orienté son propos sur les différentes catégories d’usagers (éditeurs, auteurs, bibliothécaires, lecteurs) et l’usage du numérique dans l’édition de revues scientifiques. Elle a évoqué tout à la fois l’intérêt du langage XML comme outil permettant la réappropriation de certains produits (thèses en ligne, revues universitaires, etc.), notamment par les institutions académiques productrices, mais aussi les réticences liées surtout aux coûts d’investissement, aux reconfigurations importantes nécessaires dans les chaînes de production, aux habitudes des auteurs et des lecteurs qui veulent un mode de lecture linéaire. La compréhension des usages du document numérique suppose de faire une analyse fine de la demande, face à une logique de l’offre fortement soutenue. Ghislaine Chartron a insisté en conclusion sur le caractère évolutif de ce processus d’innovation, dont les usages ne sont pas encore stabilisés et sur le phénomène d’accumulation de supports plutôt que de substitution.
Les enjeux pour la fonction éditoriale
La deuxième table ronde portait sur les enjeux du XML pour la fonction éditoriale. François Rouet (Ministère de la Culture, Direction des études prospectives) a repris différents points concernant les débats forme et fond, structuration ouverte ou fermée, partage entre élaboration des formes initiales et exploitantes, etc. Ce faisant, il était conduit à nuancer ou infirmer des propos d’éditeurs, souvent entendus dans les années 1980 : « Nous, éditeurs, quel que soit le support, nous savons éditer. » Du côté du livre, une partie des produits restera sous forme de livre, l’autre sera multisupports, ce qui entraîne plusieurs questions : quelle sera la nouvelle image de l’édition créée à partir du champ restreint de la forme papier ? Quel sera le statut de la forme initiale, autrement dit, peut-il y avoir une forme initiale qui ne soit pas conçue comme un produit d’édition, avec un éditeur, un auteur, etc. ? Quelle sera la répartition entre les acteurs de l’aval maîtrisant mieux les attentes du public et ceux, peut-être plus faibles économiquement, qui interviennent au niveau de la conception ?
Du côté de l’éditeur, éditer, c’est d’abord jouer un rôle de médiation entre offre et demande. Ce rôle ne peut que perdurer, mais ses rapports avec l’aval vont sans doute évoluer très fortement. C’est aussi être une instance de légitimation, fonction qui restera, car le besoin sera renforcé avec Internet. C’est enfin être chef d’orchestre et, là aussi, des changements profonds sont à attendre. Les éditeurs offrent à la fois ce que l’on attend et ce que l’on n’attend pas. Si la difficulté de cerner la demande se trouve démultipliée avec les supports, quelle sera l’attitude éditoriale ? Toutes ces questions supposent d’être examinées au niveau de chaque secteur, en fonction des cultures des professionnels, des caractéristiques des branches de ces domaines émergents.
Pour Yves Garnier (Vivendi), l’important est de redonner sa vraie place à la fonction éditoriale dépossédée d’une partie de la matière intellectuelle par des tâches techniques très lourdes. Enfin, Peter Stockinger a souligné la nature différente des enjeux selon que l’on se place dans une logique de chercheur ou d’éditeur. Alors que ce dernier s’intéresse au produit, le chercheur s’intéresse à l’information, c’est-à-dire au contenu cognitif véhiculé par le produit, à un ensemble de ressources qu’il s’agit de mettre en commun. Il en résulte notamment des approches stratégiques d’utilisation différentes du XML.
De nombreuses pistes de réflexion restent bien sûr à explorer – sur l’évolution des compétences requises par la fonction éditoriale, sur le numérique et le multimédia, sur l’articulation entre les notions d’œuvre et d’information, etc. – qui n’ont été qu’effleurées au cours de cette journée déjà dense et stimulante à bien des égards.