entête
entête

Françoise Banat-Berger

Laurent Duplouy

Claude Huc

L’archivage numérique à long terme : les débuts de la maturité ?

Paris, La Documentation française, 2009, 284 p., 24 cm
Coll. Manuels et guides pratiques
ISBN 978-2-11-006942-9 : 25 €Sous la direction de Corinne Leblond
Paris, Lavoisier, 2009, 222 p., 23 cm
Coll. Traité des sciences et techniques de l’information
ISBN 978-2-7462-1845-1 : 70 €

par Yves Desrichard

« Il est d’abord nécessaire de préserver les bits. »

 

Il est des bibliothécaires – dont l’auteur de ces lignes avoue bien humblement faire partie – pour lesquels associer « pérennité » et « numérique » relève de l’oxymore, tant, quels que soient leurs avantages par ailleurs, les fichiers numériques semblent d’une conservation pour le moins problématique – aussi bien pour ce qui est des supports et de la nature de l’inscription des données, que pour ce qui est des données elles-mêmes. À l’heure où les notions de « patrimoine numérique » ne semblent plus devoir quitter les préoccupations des professionnels (grand emprunt et in consequo mannes financières aidant), s’interroger sur cet oxymore (donc) relève plus que de l’urgence.

Ébloui et ébranlé

Jusque-là ferme dans ses doutes, le lecteur de L’archivage numérique à long terme : les débuts de la maturité ? ressortira de cette lecture ébloui et ébranlé. Disons-le tout net, il y aura un avant et un après ce livre, cette somme, qui propose sur ces sujets des développements considérables et passionnants, avec une rigueur sans faille et une exigence que seul, nous semble-t-il, un éditeur public (La Documentation française) était capable d’assurer, tant le prix, fort modeste, de l’ouvrage (25 euros) n’est pas en rapport avec le coût intellectuel, « exorbitant », d’une telle entreprise.

La gestion des risques

Dès l’abord, l’introduction pose la question cruciale de la conservation numérique sous forme d’un apparent paradoxe : « Comment conserver de l’information sous forme numérique en s’appuyant sur des technologies qui n’ont aucune pérennité ? » On apprécie la franchise : beaucoup de concepteurs de matériels, voire de logiciels, vantent la durée de vie de leurs produits, en prétendant nier, pour rassurer les éventuels clients, ce qui relève pourtant de l’évidence, les cycles de production très courts et desdits matériels et desdits logiciels. Les auteurs de l’ouvrage, eux, en prennent acte, pour élaborer à partir de cette contrainte majeure leur propre conception de la pérennité : « Une fonction active de gestion des risques et des changements constatés ou prévisibles de l’environnement technologique. » C’est cette conception dynamique du propos qui stimule et qui effraie, qui accable et qui intéresse.

L’ouvrage se décline en une dizaine de chapitres d’une telle densité qu’il n’est pas possible, ici, d’en rendre compte de manière exhaustive. Après avoir distingué « informations » (« connaissance qui peut être échangée ») et « données » (« conteneur porteur d’une information »), les auteurs posent les premiers éléments d’analyse du problème, notant d’emblée que la notion de pérennisation « est en complète opposition avec ce qui caractérise le domaine du numérique : évolutions d’une rapidité spectaculaire, capacité de traitement en constante augmentation, progression géométrique des capacités de stockage et de transport, obsolescence rapide des technologies ».

La préservation de « l’intégrité des trains de bits » (sic, la figure a des évocations poétiques) passe par une bonne connaissance des différentes couches de répartition de l’information, de la « couche physique » à la « couche objet », dont la structure est rappelée non par souci pédagogique, mais parce qu’elle sert de point d’appui au reste de l’analyse, notamment pour ce qui est des normes et des standards qui les ordonnent, dont les auteurs notent qu’ils ont fait l’objet ces dernières années d’« enrichissements spectaculaires ». Sur le sujet, le modèle de base, désormais bien connu des professionnels, et largement employé dans les bibliothèques numériques, est le modèle OAIS (Reference Model for an Open Archival Information System), qui « propose une vue globale cohérente de la question de l’archivage numérique ». Ce modèle est relativement complexe, basé sur la notion d’archive OAIS, définie comme « une organisation chargée de conserver l’information pour permettre à une communauté d’utilisateurs cible d’y accéder et de l’utiliser ». On voit donc que nous sommes bien au-delà des documents, voire de ceux qui les manipulent, dans une « pensée globale » de l’organisation archivistique – ce dernier terme, entendu au sens large, incluant aussi les bibliothèques.

Un avenir plus ou moins lointain

À l’issue d’une présentation détaillée du modèle, les auteurs notent son « caractère universel… et son abstraction », qui obligent à un gros travail de paramétrage dans le cas d’adaptations concrètes. D’autres normes, complémentaires, sont présentées, notamment celles concernant le processus de versement, dont « la multiplicité… rend l’utilisateur perplexe et lui complique la vie ». Pour autant, la clarté de la présentation de ces différents outils, records management, MoReq2 1 et norme Z42-013 est telle que, à la fin du chapitre, on comprend mieux les enjeux : « La distinction entre le court et moyen terme d’une part (archives courantes et intermédiaires) et le long terme (archives patrimoniales) s’amenuise avec le numérique. »

Suit un chapitre qui interroge la durée de vie des supports, au sein duquel on recommandera tout particulièrement la consultation des tableaux des pages 85 et 86, particulièrement édifiants sur la durée de vie de certains supports de stockage « révolutionnaires » (à leur époque). S’ensuit une présentation pourtant sereine des préconisations en la matière, tant en supports qu’en formats (et ils sont nombreux !), avec une prédiction qui, là encore, fera froid dans le dos, tout en suscitant l’enthousiasme : « Dans un avenir plus ou moins lointain, la représentation de l’information ne sera sûrement plus binaire. Il ne sera alors plus nécessaire de conserver cette information dans des objets numériques sous leurs formes d’origine. »

Deux modèles de stratégie de pérennisation

Découlent de ces observations deux modèles bien distincts de stratégie de pérennisation : la migration et l’émulation. La migration « est un transfert d’informations numériques au sein de l’archive, dans un objectif de pérennisation de cette information ». Sa mise en œuvre « doit absolument intégrer des moyens de contrôle du bon déroulement des procédures et de la conformité du résultat obtenu ». L’émulation « est une technique qui consiste à élaborer un logiciel qui va être capable de simuler les services et les comportements d’un autre logiciel conçu pour une plateforme différente ». Dans les deux cas, certaines contraintes sont comparables : « Il est nécessaire de maîtriser la problématique du stockage et la migration des supports. » Mais, pour les auteurs, le choix ne fait pas de doute : « seule la stratégie de migration est crédible à grande échelle pour les documents les plus courants », même si « elle ne permet… pas à elle seule de résoudre la question de la conservation de tous les types d’information ».

Préoccupation émergente, problématique séculaire

La partie qui suit, sur les métadonnées, semblera plus familière aux professionnels, même si on y découvre nombre de systèmes dont on ignorait à peu près tout… Celle consacrée à la « gestion des risques », et qui renvoie aux prémices de l’ensemble, semblera pour le coup, et comme revendiquée, « indispensable », et certainement l’une des plus innovantes, puisqu’elle suppose souvent des révolutions logistiques et intellectuelles dans les établissements car, comme souligné, « l’échec de nombre de projets provient du fait que les aspects non techniques… ont été négligés ». Là encore, les processus sont soigneusement examinés, avec notamment une typologie des risques qui ravira l’amateur (de risques ou de typologies).

On mettra, par les temps qui courent, l’évaluation des coûts dans la catégorie des risques, là encore soigneusement étudiée, et qui met l’accent (cet ouvrage est décidément parfait) sur la formation et la compétence des personnels impliqués – de TOUS les personnels impliqués.

La partie consacrée au « nouveau cadre juridique de la preuve » semblera plus anecdotique aux professionnels de l’information et de la documentation (quoique), tout comme celle qui traite de « la montée en puissance de l’administration électronique » qui, elle, laissera même carrément suspicieux, puisque, pour l’auteur décidément indécrottable de ces lignes, la notion, qui lui est souvent liée, de « démocratie électronique » relève, elle aussi, de l’oxymore.

Un excellent outil méthodologique

Comme noté dès l’abord de l’ouvrage, ce souci de pérennité est « une préoccupation émergente au sein d’une problématique séculaire ». La transformation est irréversible, même si « l’un des aspects les plus critiques de l’omniprésence du numérique est la vulnérabilité au temps de toutes les informations qui sont… sous cette forme ». Même si on aimerait bien savoir quel est ce journal, cité page 11, qui conserve aujourd’hui encore ses archives sur microformes, force est de constater qu’un tel ouvrage apporte un cadre méthodologique, sinon des solutions à toute épreuve, pour proposer des solutions viables d’archivage numérique.

Des cas concrets

À ce qui s’apparente à un manuel définitif sur ces questions, l’ouvrage coordonné par Corinne Leblond, Archivage et stockage pérennes, aux ambitions plus modestes, apporte un heureux complément, en proposant notamment quelques comptes rendus d’expérience, solidement étayés.

C’est le cas de la plateforme d’archivage pérenne (PAC) du Cines  2, ou de l’implantation d’un système de records management à la Bibliothèque nationale de France, même si, à vrai dire, les remarquables efforts de cet établissement en la matière sont déjà évoqués dans les annexes de L’archivage numérique à long terme.

Lisibilité technique, lisibilité culturelle

Faute de pouvoir citer toutes les contributions, de bonne tenue, évoquons simplement les deux dernières. Dans « L’archiviste face au défi de l’archivage électronique : adaptation et formation », Carole Gragez et Édouard Vasseur insistent sur le fait que, passant « d’un univers stable et structuré à un univers en mouvement constant », l’archiviste a plus que jamais besoin de s’adapter, et par conséquent de se former – et on pensera, à bon droit, qu’il en est ainsi de tous les professionnels de l’information et de la documentation. Même si la contribution paraît par certains aspects anecdotique, elle a au moins le mérite de poser, aux responsables de formation, quelques bonnes questions.

Enfin, la présentation, par Bruno Bachimont, des enjeux autour de l’« archivage audiovisuel et numérique » est à l’image de tout ce qu’écrit l’auteur : complète, claire, structurée, passionnante, même sur des thématiques parfois peu familières au bibliothécaire, surtout s’il s’y mêle de la conservation, pour des arts et des techniques aussi « jeunes ». Il distingue fort brillamment (c’est une évidence des théories de la communication, mais qui mérite cent fois d’être rappelée) la « lisibilité technique » et la « lisibilité culturelle », cette dernière reposant sur « une médiation culturelle, nécessitant la plupart du temps apprentissage et éducation ».

C’est, affirmons-le, ce qui pèche le plus, et de façon de plus en plus prégnante, avec la révolution numérique. On s’y soucie quasi exclusivement de « lisibilité technique », et peu de « lisibilité culturelle ». Les formats, les supports, les débits, les moyens de transmission, certes. Mais il faut déjà savoir lire, écrire, compter, analyser, comprendre. Évident ? Je n’en suis plus si sûr.

  1.  (retour)↑   Model Requirements for the Management of Electronic Records.
  2.  (retour)↑   Centre informatique national de l’enseignement supérieur : http://www.cines.fr