entête
entête

Éditer autrement

Métiers du livre et Nouvelles technologies

Isabelle Boudet

Tous les métiers du livre se transforment aujourd'hui avec l'introduction des nouvelles technologies. C'est pourquoi le terme d'« édition électronique » recouvre tant d'acceptions différentes selon la catégorie de professionnels concernés. L'imprimeur, l'éditeur, le documentaliste parlent tous d'édition électronique, chacun lui donnant un contenu différent qui renvoie à son propre rôle dans la publication et la diffusion d'un document. La confusion est également entretenue dans la mesure où l'on mélange, sous ce vocable, l'apport de l'électronique à la fabrication de l'imprimé traditionnel et la mise au point de produits électroniques totalement nouveaux.

Alors, édition électronique de documents, ou édition de documents électroniques ? Pour éclaircir le flou actuel, il serait préférable de réserver le terme d'édition électronique aux documents qui ont un support électronique (logiciels sur disquette, produits télématiques, DON, CD-ROM) et qui se matérialisent sur écran.

D'autre part, sans que cela préjuge du type de producteur, le terme d'édition devrait conserver, de son sens classique, les notions de conception d'un produit, ce qui le distingue du simple archivage de données, et de diffusion commerciale de ce produit, ce qui exclut, par exemple, la circulation de l'information à l'intérieur de l'entreprise.

Mais circonscrire le champ de l'« édition électronique » n'est pas faire l'économie d'une analyse de l'édition traditionnelle. Au contraire, alors que le développement de la micro-informatique et celui de la reprographie élargissent et assouplissent les conditions de production de l'imprimé, il semble important de faire le point sur des métiers que l'on dit parfois menacés par ce possible contournement de leur savoir-faire.

Par ailleurs, c'est l'évolution même des techniques de fabrication de l'écrit qui permet d'envisager aujourd'hui d'autres supports de diffusion que le papier. Pour prendre la mesure des changements en cours, il faut donc observer comment l'électronique et l'informatique ont progressivement investi ces techniques.

Leurs effets les plus spectaculaires se sont manifestés, en amont de l'impression, dans le traitement du texte et de l'image qu'elles ont complètement transformé.

Les nouvelles technologies n'ont pas pénétré de façon égale et au même rythme les différents maillons de la chaîne qui mène un texte de son auteur à son lecteur. Dans les mutations qu'elles ont opérées, il faut réserver une place à part à la presse, la première et la plus radicalement concernée. En ce qui concerne le livre, ce sont les techniciens justement, les imprimeurs, qui ont vu leur métier évoluer le plus vite. Aujourd'hui, les éditeurs s'engagent à leur tour dans un processus d'informatisation de leurs fonctions.

Dégager les faits porteurs de changement dans ces deux secteurs doit permettre de mieux apprécier les perspectives réelles offertes par les techniques nouvelles.

Le bouleversement des techniques

C'est à partir des années 1950 que s'est développée la photocomposition, parallèlement à la généralisation d'un procédé d'impression à plat, l'offset, fondé sur le principe de la répulsion entre l'encre et l'eau.

le traitement du texte : la photocomposition

Alors que la linotypie et le plomb étaient associés à l'impression typographique, en relief, les composeuses produisant directement du texte sur film ou papier sensible correspondaient mieux aux besoins de l'offset dont la surface imprimante est plane.

Peu à peu, la composition « froide », photographique puis électronique, a remplacé la composition « chaude», celle qui mettait en oeuvre le métal en fusion. Mais ce changement a été lent et souvent difficile à amorcer. Il n'a pris d'ampleur véritable que dans le courant des années 1970.

Quatre générations de photocomposeuses

On a pris l'habitude de distinguer quatre générations de matériel.

La première génération était conçue selon les mêmes structures que les composeuses mécaniques et n'en dépassait pas les performances. A la place des matrices creuses en cuivre, il y avait des matrices photographiques, de petits blocs en plastique transparent avec lettres et signes en clair sur fond noir, et au lieu du creuset de plomb, une caméra.

On doit à deux Français, René Higonnet et Louis Moyroud, d'avoir donné l'impulsion décisive à la photocomposition en y introduisant l'électronique. Faute de soutien financier en France, leur Lumitype Photon fut construite aux Etats-Unis en 1949. Elle fut le point de départ de la deuxième génération (1).

Ce sont les photocomposeuses des années 1960 qui allient mécanique, optique et électronique. Elles ont été le plus souvent fabriquées par des sociétés d'électronique qui n'avaient rien de commun avec l'imprimerie.

Lettres et signes sont portés par des matrices photographiques négatives, rangées sur des disques ou des tambours qui tournent entre une source lumineuse (un flash) et l'objectif d'une caméra. La source lumineuse donne un éclair chaque fois que la lettre est dans la position voulue. Le désenclenchement de l'éclair est commandé par un calculateur (2).

Deux configurations sont possibles sur les matériels de la deuxième génération : soit le clavier de saisie est intégré à l'unité photographique, la vitesse de la machine est alors limitée à celle de l'opérateur (de 5 000 à 10 000 signes/heure); soit le clavier est indépendant et fournit une bande perforée ou magnétique qui est introduite ultérieurement dans l'unité photographique et en commande le fonctionnement. La vitesse n'est plus celle du claviste puisque la photocomposeuse est alimentée par la production simultanée de plusieurs postes de saisie.

Cette séparation des différents éléments de la machine et l'adjonction d'instruments électroniques de calcul permirent d'atteindre des vitesses de 25 000 à 75 000 signes/heure.

La qualité des photocomposeuses de la deuxième génération tient à la variété de leurs caractères. Les disques ou les tambours portent un grand nombre de polices (série de caractères) de style différent. Les objectifs ou les zooms, dont elles sont équipées, produisent une large gamme de corps (taille du caractère).

Mais, avec la deuxième génération, la vitesse plafonne, car le mouvement des matrices photographiques suppose encore l'intervention de pièces mécaniques, infiniment plus lentes que la vitesse de propagation de la lumière.

Tube cathodique et digitalisation

A la fin des années 60, une nouvelle série de photocomposeuses, dites de la troisième génération, est mise au point suivant un tout autre principe, purement électronique. Il n'y a plus aucune pièce mécanique en mouvement. A l'emploi du rayon lumineux qui exige pour le diriger des mécanismes optiques, avec lentilles, miroirs ou prismes, on a substitué celui du flux d'électrons qu'un champ magnétique suffit à faire dévier à volonté (3).

Ce pinceau d'électrons fait apparaître les lettres et les signes en points lumineux sur un tube cathodique, placé devant l'objectif d'une caméra qui les photographie.

Lettres et signes sont engendrés de deux façons. Dans un premier temps, on a continué à utiliser des matrices photographiques qui n'étaient plus photographiées par un flash, mais analysées point par point par une caméra électronique et reproduites dans l'arrangement voulu sur l'écran cathodique. On atteint ainsi des vitesses de 1 à 2 millions de signes/heure.

Mais pourquoi refaire l'analyse des structures invariables d'une lettre, des dizaines de fois par seconde ? La digitalisation des caractères fut entreprise aussi bien aux Etats-Unis qu'en Allemagne. Chaque lettre est découpée en un très grand nombre de cases : celles que la lettre recouvre égalent 1, les autres égalent 0. La courbe n'est pas parfaite puisqu'en marches d'escalier mais les irrégularités sont imperceptibles sur une image très réduite.

Les caractères sont désormais engendrés par des matrices électroniques : des signaux électriques, contenus dans une mémoire magnétique, définissent des milliers de points, dont l'association reconstitue, sur le tube cathodique, les lettres et les signes dans l'arrangement voulu.

On a reproché aux photocomposeuses de la troisième génération leur faiblesse dans le domaine esthétique. A partir d'une seule matrice, un seul dessin sert à composer tous les corps, mais aussi tous les types. On peut, par manipulation électronique, engraisser, affiner, incliner un caractère de base. Mais les lettres soumises à de telles distorsions sont loin d'avoir la qualité et la beauté des caractères classiques. Aujourd'hui ce constat doit être nuancé grâce à une meilleure prise en compte, par les constructeurs, des règles de l'art typographique. Un récent colloque de l'INRIA, « Typographie et informatique », a permis de confronter les points de vue entre informaticiens et créateurs de caractères (4),

C'est en 1977 qu'est apparue pour la première fois sur le marché une photocomposeuse de la quatrième génération, à laser. Lettres et signes sont directement dessinés par le rayon laser sur les surfaces sensibles, film ou bromure.

le développement des systèmes

Le principal avantage de la photocomposition, on l'a vu, est celui de la rapidité. L'électronique fait atteindre des vitesses de production vertigineuses. Et c'est aussi et surtout sa souplesse, les possibilités d'adaptation qu'elle autorise. Dès les années 60, la composition programmée a permis de modifier à volonté un même texte. En effet, les bandes perforées « au kilomètre » ne contiennent que les lettres et les signes. C'est l'ordinateur qui les code pour le style de caractère, le corps, l'interlignage et la justification. Il est donc toujours possible de programmer différemment la bande initiale (5).

La composition programmée a été la première étape d'une évolution rapide qui s'est traduite par l'élaboration, dans le courant des années 70, de « systèmes informatiques » de composition.

On est passé peu à peu de systèmes centralisés, fortement hiérarchisés, liés aux caractéristiques des équipements informatiques disponibles à l'époque, à des systèmes « à l'intelligence répartie », avec l'apparition de terminaux autonomes (6).

Cette dernière étape des systèmes de composition a été rendue possible par l'intégration, dans leurs structures, des terminaux à écran. Ces terminaux comprennent écran, clavier et processeur, et permettent de visualiser les résultats des traitements opérés sur le texte. Ils ont démultiplié les potentialités offertes par la composition programmée en créant un lien direct et tangible avec l'ordinateur. Les premiers terminaux à écran servaient à la correction et à la fourniture d'une deuxième version du texte. Les plus récents exécutent toutes les opérations de composition.

l'avenir de la photocomposition

La caractéristique essentielle de l'évolution de la photocomposition est donc. l'orientation vers des systèmes modulaires, une configuration légère au départ pouvant être enrichie progressivement, qui permettent une grande variété et une grande souplesse d'exploitation.

L'autre élément décisif de cette évolution est la faculté qu'offre l'informatique d'interconnecter les systèmes, de les relier entre eux par les réseaux de télécommunication.

La saisie peut ainsi être séparée du traitement. Un écran-clavier est relié à la photocomposeuse par le téléphone, grâce à une unité d'échange de type MODEM.

Plus important encore, l'interconnexion des systèmes doit permettre à la photocomposition de traiter des données saisies en amont sur d'autres matériels que les siens : machines à traitement de textes ou bien micro-ordinateurs.

A l'heure actuelle, l'utilisation des photocomposeuses de la troisième génération se généralise, le tube cathodique tend à supplanter les unités opto-mécaniques.

Le dernier et non le moindre des développements récents concerne les terminaux de mise en page. Dès 1974, un modèle avait été conçu pour la presse. D'énormes progrès ont été faits depuis. Les écrans de mise en page permettent de saisir, corriger et afficher les pages entières de texte. On peut jouer sur la présentation en modifiant tous les paramètres typographiques : justification des lignes, style et corps des caractères, habillage.

Actuellement, la sortie des textes se fait sur papier ou sur film, y compris sur les composeuses à laser. Mais le futur est à l'exposition, non plus de matériaux intermédiaires, mais directement de la forme imprimante, de la plaque de métal. C'est là que la nouvelle technologie du laser prendra toute sa dimension, car le laser réunit des caractéristiques de haute résolution, permettant d'obtenir une meilleure qualité graphique, et surtout de haute intensité, indispensable à une sortie directe sur plaque (7).

Faut-il penser, comme le créateur de caractères Ladislas Mandel, que l'avenir de la photocomposition risque d'être « son remplacement par des imprimantes d'ordinateur (8) » ?

Les imprimantes

Les matériels de traitement de textes et les micro-ordinateurs concurrencent la photocomposition pour la saisie des données, en amont des opérations spécifiques à la photocomposition, l'enrichissement typographique et l'exposition photographique.

Mais elle est également concurrencée dans sa fonction de « sortie », de production du texte, par toute une série de nouvelles techniques qui fournissent, on line, les informations sur support papier. Parmi les procédés des imprimantes d'ordinateur dits non impact, sans contact, on peut citer celui du jet d'encre.

Il consiste à projeter une encre très fluide, à l'aide de buses, sous forme de gouttelettes microscopiques. Ces trains de gouttes sont chargés électrostatiquement, de manière à ce que leur trajectoire puisse être dirigée à volonté pour tracer des lettres. L'avantage du jet d'encre est qu'il permet l'impression en couleurs.

Les imprimantes à laser sont très rapides, avec une production pouvant aller jusqu'à 20 000 lignes à la minute. Leur principe est électrophotographique. Sur un tambour à surface photoconductrice, un émetteur laser projette point par point l'image des caractères à imprimer. Par effet électrostatique, l'encre se dépose sur les zones insolées. Une fois encrée, l'image du texte est transférée de la surface du tambour à celle du papier (9).

On obtient des matériels récents des résultats plus satisfaisants sur le plan graphique que l'effet « listing ». Mais, dans la majorité des cas, les caractères des imprimantes sont plus proches de la machine à écrire que de la photocomposition dont ils sont loin d'atteindre la qualité typographique.

Le traitement de l'image

La caractéristique essentielle aujourd'hui du traitement de l'image est le développement spectaculaire de la couleur dans l'imprimé. Cet usage massif de la couleur a été rendu possible par l'électronique, par la standardisation des procédés de photogravure. En effet, ces dix dernières années, en France, ont vu le passage de la photogravure conventionnelle à la photogravure électronique par scanner.

Le scanner

Dans un scanner, une cellule photo-électrique analyse l'image, point par point et ligne par ligne. L'intensité lumineuse de chaque point est convertie en signal électrique, retransformé, grâce à une lampe à éclats ou un laser, en impulsion lumineuse qui insole un film photographique.

On connaît le principe de la quadrichromie. La reproduction des couleurs nécessite l'élaboration de quatre films correspondant aux trois couleurs de base: jaune, magenta et cyan, plus le noir. Cette fabrication des films est appelée sélection des couleurs : on repère pour chaque élément du document la proportion de chaque couleur de base.

Les scanners de sélection sont apparus dans les années 60. Dans les scanners récents digitaux, les signaux électriques sont transformés en données stockées et traitées par un ordinateur. Elles sont corrigées selon des paramètres programmés en fonction du contraste de l'image, du mode d'impression ultérieure, pour tenir compte de la qualité du papier et de la viscosité des encres.

Le gros obstacle à la numérisation et à la mémorisation de l'image en couleurs a longtemps été l'énorme quantité de place nécessaire pour le stockage des informations en mémoire magnétique et par là même le coût que ce stockage implique. Car un scanner, travaillant à 1000 lignes/ pouce, engendre un million de points au pouce carré. Pour chaque point ou pixel (contraction de picture element), on distingue 256 tons de gris entre le noir et le blanc. Et cela pour les quatre films de sélection.

On mesure donc l'importance des données à traiter et stocker. Une diapositive nécessite pratiquement autant d'espace-mémoire que la Bible tout entière !

Grâce à la digitalisation des données, la photogravure a suivi une évolution comparable à celle de la photocomposition, avec la mise en place de systèmes où le scanner n'est plus une unité de production isolée, mais le périphérique d'entrée d'un ensemble de mise en page et de montage électroniques.

Les systèmes de montage électronique

Les informations codées sous forme numérique circulent d'un élément à l'autre, et permettent de passer directement des originaux à la page entière montée, sans qu'il n'y ait aucune concrétisation matérielle des opérations intermédiaires. On passe du support du film au stockage en mémoire magnétique (10).

Ces systèmes comprennent un ou plusieurs scanners, servant à l'analyse des documents originaux au départ, et à la fabrication des films des pages montées, en fin de parcours. Un poste de travail, avec tablette graphique, est utilisé pour la correction des couleurs et les indications de montage. Un écran de contrôle et une mémoire à disques pour le stockage complètent le dispositif.

Le coût très élevé de ces systèmes en a réservé pour l'instant l'usage essentiellement à la publicité.

L'association du texte et de l'image numérisés

A l'heure actuelle, il existe des systèmes de mise en page « à priorité au texte », et d'autres « à priorité à l'image », qui ne répondent pas aux mêmes besoins, car les premiers travaillent pour la presse quotidienne, en noir et blanc, à partir de la photocomposition, et les seconds, pour les périodiques et la publicité, en couleurs, à partir de la photogravure. Il n'est pas encore très fréquent d'intégrer du texte, de façon importante, dans la filière couleurs. Il est peu rentable en effet d'entrer du texte dans un système par scanner, en mode image, et plus logique de partir de la saisie, en mode caractère, de la composition. Or la difficulté est de combiner les deux modes qui ne correspondent pas aux mêmes types de traitement.

A l'inverse, pour la filière noir et blanc, le scanner a longtemps fait défaut. La technologie de la couleur avait pris une grande avance sur celle du noir et blanc, la photogravure conventionnelle étant encore le moyen le plus simple et le plus économique de traiter l'illustration en noir et blanc. Il manquait ce maillon dans la chaîne du traitement pour pouvoir associer image et texte, au stade de la mise en page électronique. Plusieurs scanners permettent désormais de numériser un document noir et blanc pour l'intégrer dans une page montée sur écran.

Les développements les plus attendus sur le plan technique doivent venir justement des possibilités qui seront offertes de traiter simultanément le texte et l'image.

De l'ordinateur à la plaque

Ce besoin se concrétise dans la dernière étape de la chaîne graphique avant l'impression, la préparation de la forme imprimante.

Sa caractéristique essentielle en effet est la suppression des supports de transfert intermédiaires, papier sensible ou film. Ceci vaut entièrement pour la fabrication des plaques offset.

De nouvelles techniques, dites de l'électrophotographie, associent rayon laser et plaque électrostatique. Le laser est guidé par un scanner de digitalisation analysant ligne par ligne les pages montées. La plupart des procédés partent du montage papier. D'autres sont mixtes : l'information relative au texte est stockée dans la mémoire centrale du système; les illustrations en images positives tramées sont montées. Le laser change de mode de contrôle suivant qu'il s'agit de texte ou d'illustration : il est directement commandé par l'unité centrale pour toutes les zones de texte, sinon les signaux viennent de la lecture du montage papier.

La tendance est là encore à supprimer l'étape du montage papier pour fabriquer directement la plaque à partir des données, texte et image, numérisées et stockées en mémoire centrale.

Pour le moment, il y a encore des problèmes de coût, mais les systèmes « de l'ordinateur à la plaque » se développent. C'est déjà une réalité pour nombre de quotidiens américains. En France, le journal Officiel (qui n'a pas d'illustration) s'est équipé d'un tel système de fabrication des plaques offset.

L'évolution des métiers

La presse

La presse quotidienne a été la plus sensible aux bouleversements technologiques. Car l'élément déterminant, pour le choix des matériels comme pour l'organisation du travail dans une entreprise de presse, est l'extrême brièveté du temps imparti à la fabrication du journal. C'est pourquoi les ateliers de composition, de montage et même d'impression ont toujours partagé les locaux de la rédaction et fait partie d'un même ensemble.

L'informatique, par la souplesse, la rapidité, la forte productivité qu'elle autorise, convenait tout à fait au traitement des articles de journaux, et les systèmes de composition informatisée ont été largement introduits dans les imprimeries de presse à partir de 1970. En quinze ans, le plomb a été définitivement abandonné.

La mise en page électronique devient aujourd'hui de plus en plus courante pour la publicité et les annonces classées. Certains titres sont progressivement équipés pour leurs pages d'information : Le Midi libre, Ouest-France, Nice-Matin, Les Dernières Nouvelles d'Alsace.

Les quotidiens régionaux ont été également les pionniers de la décentralisation de la saisie, prise en charge par leurs antennes locales. Ce système a été mis en place dès 1975 par Le Provençal.

Un autre exemple de la mise en oeuvre de ces techniques est celui de l'Imprimerie de la Presse, dont la spécialité est la composition des journaux boursiers. Les opérations de la Bourse se terminent à 14 h 30 et le quotidien est bouclé à 15 h 15. Il faut donc un système extrêmement puissant et une saisie automatisée au maximum. Tous les tableaux sont en mémoire et seuls les résultats des cours du jour sont à modifier.

Leur entrée est effectuée par lecteur optique, dont l'Imprimerie de la Presse a été la première à se doter en 1976. Les agences boursières font parvenir leurs informations par commutation directe. Avec une force de saisie de 3 lecteurs optiques et de 30 lignes d'entrée dans son système informatique, l'Imprimerie de la Presse est en mesure de réaliser les pages boursières de ses propres titres et d'assurer la sous-traitance d'une partie des quotidiens de la presse parisienne.

Décentralisation de l'impression

Informations et articles sont transmis, mais aussi les pages elles-mêmes, en fac-similé, par lignes à haute vitesse ou satellite. La fabrication des formes imprimantes et l'impression peuvent être décentralisées et réparties entre plusieurs imprimeries.

En France, depuis 1977, 11 quotidiens sont transmis de Paris à une dizaine de centres régionaux d'impression. Chaque soir, entre 20 h et 1 h du matin, plus de 200 pages sont ainsi envoyées par les NMPP (Nouvelles messageries de la presse parisienne). Quatre hebdomadaires ont suivi la même voie : Le Canard enchaîné, France-Dimanche, Le Journal du Dimanche, le Meilleur.

La mise en place de ce réseau a imposé une standardisation des formats et des horaires de bouclage pour la province plus contraignants. Mais il a permis d'améliorer la diffusion et de raccourcir les délais de distribution des quotidiens « nationaux ».

Comme le texte, l'image peut être transmise par télécommunication. Pour les Jeux Olympiques de Los Angeles, un scanner portatif avait été mis au point, capable d'analyser les photos en couleurs, de les digitaliser et d'envoyer les données aux agences de presse du monde entier (11).

L'AFP (Agence France-Presse) expérimente à l'heure actuelle un système de transmission d'images numérisées, le SYTIN, pour une liaison directe avec les imprimeries de presse (12).

La rédaction électronique

On assiste aujourd'hui à l'amorce d'une nouvelle mutation avec la prise en charge par les journalistes eux-mêmes de la saisie de leurs articles. Le premier quotidien à avoir informatisé sa salle de rédaction a été, en 1983, Presse-Océan, un journal du groupe Hersant dont le siège est à Nantes.

Le passage de la presse à la « rédaction électronique » est possible du point de vue technique, mais il exige de nouveaux investissements et risque de déstabiliser l'organisation du travail, car il remet en cause la répartition des tâches entre rédacteurs et ateliers de composition.

Déjà un certain nombre de métiers spécifiques du plomb, avec l'automatisation des tâches, se sont transformés en emplois de type tertiaire. Les typographes se sont reconvertis en opérateurs de terminal ou ont été remplacés par des dactylos. Avec le transfert de la saisie à la rédaction, c'est leur existence même qui se trouve menacée. Certes il faudra toujours des professionnels pour donner les indications de mise en page et de composition, pour « coter » les articles que leurs auteurs auront frappés « au kilomètre », mais le nouveau partage des responsabilités reste à définir. Dans la presse, les traditions demeurent vivaces et les transformations des processus de fabrication ne vont pas sans tension.

Le livre

L'imprimerie

On l'a vu, la presse a été le secteur pilote du développement des nouvelles technologies, en raison des gains de temps qu'elles permettaient.

Dans la fabrication du livre, la question du délai est moins primordiale, et les marchés entre imprimeurs et éditeurs se concluent plutôt sur des prix de revient.

Les premiers imprimeurs à s'être équipés d'outils informatiques de composition sont ceux qui traitaient des travaux de type annuaire, dictionnaire, bibliographie, qui exigent des saisies importantes, de nombreux tris et des mises à jour fréquentes.

C'est ainsi par exemple qu'une imprimerie de la région parisienne, la Sogitec, s'est développée. Spécialisée à l'origine dans la fourniture de la documentation technique pour l'aéronautique, elle a dû rapidement s'équiper d'un matériel informatique très puissant, si l'on songe qu'un manuel d'entretien d'avion comprend des milliers de pages et de schémas pour un tirage ne dépassant pas quelques centaines d'exemplaires. Elle fournit ses produits sur différents supports, papier ou microforme, et a diversifié ses activités jusqu'à la création, récente, d'images video de synthèse.

Mais le gros bataillon des imprimeries ne s'est équipé en photocomposition qu'à partir de 1976, avec l'introduction sur le marché de machines compactes, de petite et moyenne capacité.

La tendance la plus remarquable a été l'autonomisation de la fonction de composition, avec la multiplication d'ateliers de saisie, indépendants des unités d'impression proprement dites.

L'impression électronique

Les nouvelles imprimantes ont aujourd'hui des applications plutôt « bureautiques ». Elles n'en présentent pas moins un certain intérêt pour le marché des petits tirages (moins de mille exemplaires). C'est ainsi que, depuis 1981, une filiale du groupe Bayard-Presse, Quantics, s'est spécialisée dans la production des ouvrages à faible tirage, sur une imprimante à laser Xerox 9 700. Mais on notera que, dans ce type d'utilisation, l'impression électronique fait plutôt office de super-photocopie et qu'elle ne peut pas concurrencer les matériels lourds d'impression, ni sur le plan de la vitesse, ni sur celui de la qualité. Son principal avantage tient plutôt au fait que l'on peut modifier complètement, en sortie d'ordinateur, le contenu de l'imprimé d'un exemplaire à l'autre. C'est pourquoi, à l'heure actuelle, les imprimantes à laser servent surtout aux banques, à la Poste ou aux Impôts pour imprimer de grandes quantités de données qui varient sans cesse.

De la composition à la base de données

L'informatique a introduit une dynamique de stockage et traitement de données chez des imprimeurs comme Jouve qui est passé, en douze ans, de la composition programmée à la gestion de bases de données. Il s'est en effet spécialisé dans la production de texte sur double support, papier et électronique, à partir d'une même saisie. C'est ainsi par exemple qu'il fournit, pour la base PASCAL du CNRS, à la fois les fascicules papier et la bande magnétique que le CNRS transmet à ses propres serveurs. Mais pour la base KOMPASS de la DAFSA, il assure même la fonction serveur de la base, interrogeable par Minitel, en plus de l'édition des annuaires, des étiquettes-adresses et de divers autres sous-produits.

C'est dans la même voie que s'est orientée une société d'imprimerie et d'édition comme Didot-Bottin, qui s'est dotée d'un puissant service informatique pour assurer ses prestations de gestion d'adresses. Elle assure une sortie en photocomposition classique ou une version vidéotex de ses ouvrages (Boitin des communes, Bottin gourmand, consultables sur Minitel) et fait office de centre serveur pour la télématique professionnelle (Duplex).

Une seule et même saisie est codée et formatée selon différentes procédures pour servir à différents usages, sortie papier ou banque de données documentaire (13).

Un certain nombre d'imprimeurs ont ainsi acquis un savoir-faire qui leur permet de diversifier leurs activités et qui leur donne un rôle prépondérant dans la mise au point de produits électroniques.

Récupérer les textes saisis en amont ?

L'autre dynamique introduite par les nouvelles technologies est la tendance à éviter une répétition de la saisie chez l'imprimeur.

Les éditeurs se sont peu équipés en matériel de photocomposition. Une enquête réalisée par la FFIIG (Fédération française de l'imprimerie et des industries graphiques) en 1979 montrait que pour 2 560 photocomposeuses vendues à l'imprimerie, les constructeurs n'en avaient placé que 149 chez des éditeurs.

Mais le développement des machines à traitement de textes et des micro-ordinateurs, avec logiciels de traitement de textes, rend possible un changement dans la répartition des tâches.

Qu'en est-il à l'heure actuelle des possibilités réelles pour les imprimeurs de récupérer des textes saisis en amont, par l'éditeur ou même l'auteur ?

De système à système, les transferts en ligne ou sur bande magnétique sont courants. La bande magnétique est le support le plus universel, car les standards internationaux permettent d'échanger les données entre ordinateurs de constructeurs différents.

En revanche, il n'y a pas de normes en ce qui concerne les disquettes des micro-ordinateurs: diamètre et nombre de faces codées différents, divergences sur les modes d'archivage utilisés (plan de classement, taille et emplacement des répertoires, nombre d'informations par enregistrement physique). Les échanges sont plus difficiles techniquement. Il existe des systèmes de transcodage susceptibles de « lire » plusieurs types de disquettes. Mais pour des volumes de texte importants, les disquettes sont moins commodes à gérer et à manipuler pour leur entrée dans le système de composition que les bandes magnétiques.

En dépit de ces réserves, les imprimeurs se soucient de pouvoir assurer les interfaces nécessaires. Une société de composition comme Italique a mis au point un logiciel pour pouvoir enrichir typographiquement les textes saisis sur Mac-Intosh.

L'édition

Certains imprimeurs ont adopté une autre démarche pour résoudre le problème de la compatibilité entre les matériels. Ils placent directement terminaux et logiciels chez les éditeurs. C'est ainsi que Maury propose à ses clients (Belin, Laffont, Le Seuil) un PC 350 de Digital Equipment avec le logiciel EDT (Editeur de texte) adapté aux besoins de codage ultérieur (14).

Cette formule a l'avantage de donner à l'éditeur la maîtrise des corrections. Mais ce qui fait son succès sur le plan technique, l'intégration dans la chaîne de traitement de l'imprimeur, présente l'inconvénient pour l'éditeur de le lier à un imprimeur particulier.

Par ailleurs, les fonctions éditoriales ne se réduisent pas à la saisie. Au contraire, l'éditeur intervient généralement sur un texte déjà dactylographié par les soins de l'auteur, et son travail d'éditeur s'exerce à deux niveaux, sur le fond et sur la forme. Sans entrer dans le détail, car les pratiques sont très diverses, un éditeur a de multiples façons d'agir sur un texte. Entre un roman auquel il ne touchera pas une virgule et la réécriture complète d'un guide de voyage, de la vérification d'une traduction à la correction de fautes d'orthographe ou de grammaire, son registre est large et infiniment varié. En ce qui concerne la présentation du texte, sa responsabilité n'est pas moins lourde puisqu'il s'agit de le mettre en forme et en page selon la maquette qu'il établit, et de le préparer pour la composition, c'est-à-dire de le doter de toutes les instructions dont l'imprimeur peut avoir besoin.

Il n'est donc pas utile d'insister sur l'importance de ces tâches pour la qualité d'un ouvrage, et sur le fait qu'elles ne sauraient se dissoudre ou se téléscoper entre la saisie du texte et sa composition typographique.

Ce sont ces opérations spécifiques qu'il est question d'informatiser aujourd'hui, par exemple à la Documentation française (15). Partant du principe que de plus en plus de textes ne seront plus tapés sur des machines à écrire, mais mis en mémoire sur des micro-ordinateurs, surtout dans les administrations qui sont ses auteurs, la Documentation française se préoccupe d'éviter la resaisie, tout en jouant son rôle d'éditeur.

Elle met donc en place un système pour récupérer les données sur disquettes et automatiser le processus manuel de préparation de copie : contrôle du texte, corrections et codage pour l'imprimeur auquel elle fournira en bout de course une bande magnétique.

D'autres projets s'ébauchent aujourd'hui chez les éditeurs en matière d'informatique éditoriale : stockage de leurs ouvrages en banques de données internes pour pouvoir effectuer rapidement les mises à jour (manuels juridiques chez Lamy, encyclopédie chez Larousse), projet au SNE (Syndicat national de l'édition) d'un logiciel d'aide à la saisie sur micro-ordinateur pour les auteurs.

Trois secteurs porteurs

De ce rapide tour d'horizon de l'évolution des techniques et des métiers liés au livre, il ressort que les effets majeurs de l'introduction de l'informatique dans la fabrication de l'imprimé sont, d'une part, la faculté d'éviter la répétition des saisies successives d'un même texte, d'autre part, l'abolition des distances par la transmission des données. Mais ces effets sont loin d'avoir trouvé toutes leurs applications possibles et les pratiques se transforment lentement.

Trois secteurs apparaissent particulièrement « porteurs » : la presse où les systèmes rédactionnels électroniques vont compléter une chaîne de production totalement intégrée; les ouvrages de référence, dont la composition n'est que l'ultime étape d'une série de traitements informatiques préalables, avec la possibilité, offerte par le stockage magnétique des données, de leur diffusion électronique; enfin l'édition scientifique dans le cadre universitaire, qui peut trouver dans une autre filière de fabrication, saisie sur micro-ordinateur et tirage par imprimante, la solution à la question de sa rentabilité économique.

Autant de pistes pour imaginer l'avenir du livre que l'on suivra prudemment, tant les systèmes traditionnels de production sont encore largement dominants.

Enfin, on ne saurait conclure sans évoquer les perspectives qu'offrent à la presse et à l'édition les nouveaux produits électroniques : journaux télématiques pour des titres comme le Parisien libéré et Libération ; édition de logiciels à usage familial ou scolaire, dans le cadre du plan « Informatique pour tous », par des éditeurs tels que Larousse-CEP ou Hatier. Mais il est un peu tôt pour tirer un bilan de telles entreprises. A l'heure actuelle, la diversification de leurs activités en direction de l'édition électronique, tout comme en direction de l'audio-visuel avec lequel on est tenté de faire un parallèle, constitue encore pour les professionnels de la presse et du livre un pari.

Illustration
De l'électron... à l'électron

  1.  (retour)↑  Cet article reprend une partie d'un mémoire de fin d'études de l'ENSB, 1985, consacré à l'imprimerie, d'un point de vue technique et économique: Nouvelles technologies et industries graphiques en France, 1975-1985.
  2.  (retour)↑  Cet article reprend une partie d'un mémoire de fin d'études de l'ENSB, 1985, consacré à l'imprimerie, d'un point de vue technique et économique: Nouvelles technologies et industries graphiques en France, 1975-1985.