Solaris : information communication

Normes et documents numériques : quels changements?

par Alain Jacquesson
sous la dir. de Ghislaine Chartron et Jean-Max Noyer. – Solaris : information communication, décembre 1999-janvier 2000, n° 6. S.l. : Groupe interuniversitaire de recherche en sciences de l’information et de la communication. http//www.unicaen.fr/bnum/jelec/Solaris/d06/ . - ISSN 1265-4876

Solaris, revue électronique universitaire gratuit disponible en ligne, a été créée en 1994 et compte aujourd’hui six numéros. Éditée par le GRISIC (Groupe interuniversitaire de recherche en sciences de l’information et de la communication), association fondée par Jean-Max Noyer, Ghislaine Chartron et Sylvie Fayet-Scribe, elle publie des dossiers thématiques consacrés à la production et à la circulation des informations et des savoirs dans un environnement numérique. Ses éditeurs ont une approche multidisciplinaire (historique, sociologique, politique, informatique, etc.) de l’étude des processus de communication des données numérisées.

Le dernier numéro placé depuis janvier 2000 sur Internet, entièrement consacré aux normes et documents numériques, comprend onze articles soit environ 240 pages denses. Les contributions comptent entre 10 et 36 pages et ont été rédigées par des enseignants universitaires, des chercheurs ou des spécialistes du domaine. Les bibliographies sont complétées par des listes des sites et souvent d’acronymes.

La nécessité de normes

L’introduction met en évidence la montée en puissance du document numérique et décrit ses principales caractéristiques; Noyer souligne une caractéristique propre au document numérique : l’hypertextualité, c’est-à-dire la mise en réseau de différents documents. Ghislaine Chartron insiste sur la nécessité des normes, outils indispensables à la compatibilité des services et montre que l’établissement de ces normes est d’autant plus complexe qu’il fait appel à des acteurs différents, internationaux (Iso, W3C et IETF, Ifla, etc.), nationaux (Niso, Afnor, etc.), économiques (éditeurs notamment) ou documentaires. Ces organismes doivent concilier leurs intérêts si l’on veut disposer d’un espace informationnel adapté aux et adopté par les utilisateurs/consommateurs.

François Horn analyse le processus de normalisation et ses conséquences sur les développements technologiques. Il met en évidence la difficulté d’adoption des standards : définie trop tôt, une norme sera un frein; adoptée trop tard, elle ne fera qu’entériner des incompatibilités. Il montre les rôles positifs ou bloquants que jouent les entreprises, l’État ou les organisations internationales dans le processus de standardisation. Il conclut sur le fait que la normalisation doit provenir du monde de la création et prend pour exemple le développement d’Internet : « L’originalité de ces standards [TCP/IP] est qu’ils ne proviennent ni de décisions étatiques (normes internationales), ni de décisions des entreprises privées productrices de logiciels ou de matériels, ce qui leur confère des avantages appréciables ». Marie-Anne Chabin met en lumière les besoins des utilisateurs; les systèmes propriétaires les rendent dépendants de leurs fournisseurs. Elle rappelle le rôle essentiel de la normalisation des supports pour la préservation des informations et le besoin de normes quant à la durabilité des supports. Elle souligne le besoin de notices descriptives normalisées et pérennisées, et termine en pensant que la normalisation des objets documentaires numériques ne peut conduire qu’à une convergence des différents métiers de l’information.

Sylvie Fayet-Scribe et Cyril Canet ont rédigé une « Histoire de la normalisation autour du livre et du document : l’exemple de la notice bibliographique et catalographique » d’une grande érudition et dont la perspective dépasse largement l’objet du dossier puisqu’il embrasse une période allant de 1791 à 1975. Ce remarquable article s’étend sur 66 pages 1.

Des réservoirs de textes normalisés

L’article d’Elizabeth Giuliani porte sur l’identification unique d’objets documentaires. Ce processus va vers une identification toujours plus fine (périodiques, articles, composants de l’article – image, graphique–, etc.) marqué par des DOI. L’identifiant unique doit permettre, en plus des besoins documentaires, la gestion des droits d’exploitation. Une équipe de l’INaLF et du laboratoire d’informatique Loria (Nancy) plaide pour la standardisation des textes littéraires numérisés, et présente le langage de balisage normalisé – SGML – largement adopté par les milieux de l’édition et de la recherche. La TEI (Text Encoding Initiative) semble en passe d’être adoptée par les acteurs travaillant sur de grands fonds de ressources linguistiques. Des exemples illustrent la complexité du problème. L’article de Marie-Josèphe Pierrat, porte sur l’application de la TEI à un corpus de sociologie pour diffuser des textes structurés. Elle évoque les difficultés rencontrées dans le balisage de textes et les points d’incertitude quant à l’avenir des liens entre documents.

Des normes croisées

Un article est consacré à la normalisation des documents en biologie moléculaire. Les auteurs mettent en évidence, de façon classique, le besoin de normes pour les documents en ligne (XML, etc.), ainsi que la nécessité de faire référence à des bases de données factuelles extérieures au document. Ils présentent les principales bases utilisées en génomique (EMBL, SwissProt, etc.), ainsi qu’un aspect spécifique à leur domaine : le « processus de double publication »; l’acceptation d’articles est liée au dépôt de séquences d’acides nucléiques dans une banque de données reconnue. Dès lors, il est indispensable de relier par des liens hypertextes les documents et les données factuelles. Des schémas et des exemples de notices factuelles illustrent de façon claire la complexité du problème. Cet article présente enfin la notion de collaboratoire, version électronique du collège invisible, espace informel l’échanges d’informations électroniques. Il présente clairement la problématique documentaire des laboratoires de biologie moléculaire.

L’article de Claude de Loupy est consacré à la normalisation du codage des documents dans un contexte multilingue. Il fait un rappel historique sur le codage des caractères et l’établissement aux États-Unis de la norme ASCII dépourvue de signes diacritiques, puis de ses extensions Iso 8859 permettant la saisie de l’essentiel des langues occidentales. En 1989, un consortium réunissant les principaux acteurs industriels de l’informatique définit la table Unicode, qui doit permettre de représenter les langues européennes, mais également l’arabe, l’hébreu, le chinois, le japonais, le coréen, etc. Une extension doit permettre de coder les langues anciennes et les symboles musicaux. L’auteur se pose la question de savoir s’il faut tout coder. Il donne des statistiques sur les langues utilisées sur Internet et les systèmes de courrier électronique.

Les normes : condition d’un développement harmonieux ou frein à l’imagination?

Le texte de Jean-Michel Borde et Henri Hudrisier analyse le développement des normes dans le cadre de « l’évolution des médias de communication interpersonnels ». Ils mettent en évidence le rôle de la linguistique et critiquent l’hypermédia en tant que facteur limitatif du potentiel expressif de l’informatique. Ils démontrent que le cycle de vie des normes constitue souvent un renouvellement. Quant à Marianne Pernoo, elle fait un compte rendu succinct du 2e congrès annuel consacré au livre électronique (NIST, septembre 1999). Tous les grands de l’informatique (Microsoft, IBM, etc.) étaient présents, de même que les spécialistes de l’édition électronique (Adobe, par exemple), des éditeurs dont le français 00h00.com, ainsi que des bibliothécaires. Les développeurs de livres électroniques (Rocket, Softbook, etc.) y participaient. Une longue liste analytique de sites Web complète l’article. Elle signale l’émergence d’une nouvelle norme évolutive OEB Open e-Book, format qui devrait permettre de stabiliser rapidement le marché.

Le dossier de Solaris consacré aux normes est très complet. Il démontre que leur utilisation, préconisée par tous, présente toutefois de nombreuses difficultés. Les articles nous montrent que les normes sont indispensables au travail dans un monde ouvert, mais qu’elles sont parfois des freins à l’imagination et au développement de nouveaux produits et services. Les normes par définition devraient être stables; elles ne font pourtant que suivre l’évolution technologique galopante. Ce dernier numéro de Solaris nous prouve qu’il s’agit d’une revue électronique de haute tenue que tout professionnel de l’information doit ajouter à ses signets personnels et consulter régulièrement, même si, pour apprécier les textes, il faut les imprimer préalablement.

  1. (retour)↑  Les personnes intéressées par l’histoire de la bibliothéconomie liront avec intérêt l’article de Sylvie Fayet-Scribe dans le numéro 4 de Solaris et consacré à l’« Histoire de l’accès à l’information : repères ». http://www.info.unicaen.fr/bnum/Solaris/d04/