Créer et maintenir un service Web
Rares sont les ouvrages consacrés à l'informatique documentaire que l'on attend avec impatience, et dont on sait qu'ils constitueront, sur les sujets qu'ils abordent, des sommes définitives, à jour et pertinentes, et pourtant conçues pour être accessibles à tous les professionnels, et écrites pour être lues sans difficulté ni connaissances approfondies préalables.
Les cours de l'INRIA (Institut national de recherche en informatique et automatique), tenus tous les deux ans depuis 1982, sont de ceux-là. Créer et maintenir un service Web ne déçoit en aucune manière nos attentes. En fait, même s'il est déplacé d'établir, en la matière, un palmarès, c'est le plus achevé, le plus clair, le plus décisif sur ce sujet aujourd'hui vital que constitue la création et la maintenance d'un site Web : d'un million de sites recensés en avril 1997, on en serait aujourd'hui à... 2,3 millions !
Comme toujours, l'ouvrage se présente en chapitres distincts. L'intelligence des intervenants et des coordinateurs fait qu'il existe, entre ces différentes parties, peu de recoupements, de rares redondances et que (peut-être à l'exception d'un seul) ils sont tous indispensables à l'apprenti-créateur de site.
Marketing, formats et logiciels
Du premier chapitre, « Positionnement marketing du site Web documentaire » (Florence Muet), on pouvait tout craindre, tant les « professionnels » de ces sujets nous ont habitués à des verbiages creux et sans utilité. Il n'en est rien ici, et l'on se félicite que les concepts exposés servent de frontispice à l'ouvrage : rappelant qu'Internet n'est qu'un outil, et non une fin en soi, pour les centres de documentation, l'auteur articule sa démarche autour de la définition des besoins de l'utilisateur en matière d'offre documentaire, et des bénéfices qu'il pourrait retirer de la consultation d'un site Web, en replaçant en perspective l'ensemble des services rendus ou à rendre, dont le site n'est qu'un aspect.
Permettant la consultation à distance, l'interactivité, une connaissance individualisée des utilisateurs et une personnalisation « standardisée » (concept original et fort pertinent), Florence Muet impose une enquête auprès des utilisateurs, avérés ou non, comme préalable indispensable à des « positionnements », qui dicteront les choix ergonomiques, techniques, etc.
Dans « Formats et outils pour les documents du Web », Irène Vatton rappelle les grands principes de structuration logique, sémantique, spatiale ou temporelle des documents, et la prise en compte de ces éléments dans les formats, SGML (Standard Generalized Markup Language) et (essentiellement) HTML (Hypertext Markup Language) utilisés pour les sites Web. Les explications sont très techniques, mais jamais ardues. Il semble clair que XML (Extensible Markup Language), le format « extensible » pour le Web, est l'avenir de celui-ci, version « dépoussiérée » de SGML, plus riche et plus souple qu'HTML.
Pour conclure, l'auteur indique que l'on s'achemine vers une structuration de plus en plus grande de l'information, ce qui confortera les bibliothécaires et documentalistes qui, bien souvent, ont l'impression que l'on réinvente la roue en écoutant le discours de commerciaux ou de prestataires de services en la matière...
De l' « Introduction à Java et Javascript », on pouvait, là encore, craindre le pire, tant ces notions paraissent peu claires aux bibliothécaires qui ne souhaitent pas devenir (ou qui n'en ont pas la capacité) de pseudo-informaticiens. Là encore, la pédagogie de l'intervenant, François Rouaix, fait merveille, et l'on comprend tout... ou presque ! Les programmes Javascript sont là pour apporter un aspect dynamique à la consultation d'un site Web. Ils contrôlent, par exemple, la gestion des frames (ou cadres...) ou l'apparition de petits logos, comme « nouveau », lors de la consultation. Ils sont, de toute façon, inclus dans la page html consultée, là où les programmes Java en sont séparés au même titre qu'une image par exemple. Qualifiés aussi d'applets, les programmes Java sont transmis sous forme de fichiers binaires séparés, permettant entre autres de générer des animations, etc. Pour finir, François Rouaix évoque longuement les questions de sécurité posées par la création et la consultation d'un site Web : intégrité des données, confidentialité, fiabilité de consultation, etc. sont autant de problèmes qui trouvent tous des solutions, mais nécessitent souvent un investissement assez lourd de la part du créateur du site.
Multimédia et ergonomie
Complément nécessaire aux deux interventions précédentes, « Images et multimédia sur le Web » (Bernard Hidoine) présente les caractéristiques générales de ces extensions qui permettent au Web de proposer des documents audio, vidéo, des images, etc. Les notions (a priori connues) de pixel, de compression sont succinctement exposées, puis l'auteur évoque la grande variété des formats disponibles : GIF (Graphics Interchange Format), JPEG (Joint Photographic Experts Group), PNG (Portable Network Graphics), ou encore les formats vectoriels qui permettent la description des formules mathématiques.
La mise en oeuvre de documents multimédias est rapprochée des contraintes d'architecture du site, et la notion de « codec » est explicitée comme « un ensemble de composants logiciels destinés à la création et à la diffusion des médias, ainsi qu'un format de stockage ». C'est que la mise en oeuvre simultanée, par exemple pour la création d'un Web dynamique, d'autant de composants différents et hétérogènes, est une entreprise délicate, et que, pour arriver à des produits aussi achevés que ceux qui permettent, par exemple, la visite « virtuelle » d'un établissement, le créateur doit garder à l'esprit le triple souci de la pertinence, de l'ergonomie et de l'interopérabilité.
Fort de ces connaissances techniques, le lecteur peut maintenant s'attaquer à « L'ergonomie des sites Web », sujet de l'intervention suivante de Christian Bastien, Corinne Leulier et Dominique L. Scapin. C'est qu'une mauvaise conception aura inévitablement des effets négatifs, tant sur des utilisateurs frustrés ou déçus que sur le concepteurs mêmes, assaillis de critiques ou de réclamations !
Pour pallier ce risque, les auteurs proposent une démarche itérative, de type marketing, pour cerner les « critères ergonomiques et les recommandations » indispensables à la mise en oeuvre d'un « bon » site Web. La liste en est extrêmement longue, même si les auteurs ont la coquetterie de la qualifier de « bref survol ». Mais elle est parfaitement structurée, toujours judicieuse, constamment étayée d'exemples concrets, qui plus est basés sur l'utilisation des balises du format html, seul garant d'une bonne prise en compte d'un « idéal ergonomique » qu'il faut, à chaque fois, matérialiser. Bref, une somme si magistrale qu'on ne doute pas, après cela, que les tests auprès des utilisateurs et l'exploitation recommandée de questionnaires et d'entretiens ne donne pour résultats une éclatante réussite et une totale satisfaction des interviewés.
Ressources électroniques et architectures techniques
Le chapitre suivant, consacré à la « Description des ressources électroniques » par Roland Dachelet, sera sans doute le plus familier au professionnel. Rappelant qu'il faut adapter les pratiques de description, notamment catalographiques, aux ressources électroniques, et développer de nouveaux schémas de description adaptés à des ressources de type « nouveau » (les logiciels par exemple), l'auteur propose un bref aperçu de quelques tentatives dans ce domaine. L'ensemble d'attributs « Bib-1 », destiné à décrire les ressources bibliographiques, dans le cadre de la désormais fameuse norme Z39-50, est rapidement évoqué, ainsi que le Dublin Core, dont il rappelle qu'il a pour mérite que « ses acteurs sont issus à parité de la communauté des bibliothécaires et de [celle] des informaticiens d'Internet » .
Pour lui, le Dublin Core est désormais un format incontournable dans les projets de bibliothèque électronique, qui sont de plus en plus nombreux à l'utiliser.
Le projet IAFA (Internet Anonymous FTP Archive), moins connu, est présenté, qui a pour objet de proposer une nomination univoque des ressources, de fait de plus en plus nombreuses, stockées dans des archives accessibles via FTP.
Pour Roland Dachelet, il n'y aura pas, à terme, de convergence de ces différents formats, et il faudra s'habituer tout à la fois à mettre en oeuvre des outils de conversion inter-formats et à gérer leur hétérogénéité au sein d'un même service. Il conclut par une pirouette, mais fondée, sur l'énigme que constitue encore la notion même de « ressource » : tant que les différents acteurs ne se seront pas accordés sur la définition du terme, les problèmes de description demeureront.
L'exposé d' « Introduction à la technologie des serveurs Web » (Laurent Prevosto) aurait peut-être été mieux à sa place en tête des chapitres techniques. On y apprend l'essentiel sur les serveurs HTTP (HyperText Transfer Protocol), les Url (Uniform Resource Locator), le protocole HTTP. Les explications sont claires, et l'on comprend mieux les difficultés liées aux interfaçages, aujourd'hui courants, entre des serveurs HTTP et d'autres applications, telles que des bases de données.
L'auteur développe la notion d' « architecture trois-tiers », qui consiste à établir une passerelle entre un serveur de base de données et un serveur http, apportant au premier une meilleure ergonomie de consultation et d'utilisation, et au second un concept dynamique » qui reste délicat à manier, car les architectures peuvent être très complexes, impliquant parfois plusieurs serveurs tournant sur des machines et à l'aide de systèmes distincts, le tout accessible par le biais d'une interface unique. Avec de tels conseils, et l'aide de quelques informaticiens, le néophyte peut désormais construire un service Web, et s'attacher au pendant important, à savoir « Maintenir et exploiter un service www » (Laurent Prevosto).
En fait, dans ce chapitre (qui aurait pu largement être confondu avec le précédent), l'auteur s'attache aussi à détailler les choix techniques d'architecture du serveur, tant en matériel qu'en logiciels. Comme toujours, il faut savoir en premier ce que l'on veut : le nombre de sites Web qu'on souhaite créer, le fait de savoir s'ils seront dynamiques, sont des éléments fondamentaux, car l'éventail de l'offre est très large, des produits gratuits à des solutions de plusieurs centaines de milliers de francs.
Il évoque, sans prendre parti, la querelle UNIX/Windows nt, qu'on peut d'ailleurs contourner en mettant en place des « anneaux de serveurs ».
Il montre qu'il faut penser dès l'initialisation aux modalités de mises à jour du site, qu'elles soient mineures et fréquentes, ou lourdes et espacées. Il détaille aussi l'exploitation que l'on peut faire des nombreuses statistiques de consultation et d'utilisation d'un site qui sont presque consubstantielles au protocole HTTP.
Divers autres outils sont présentés, comme les outils de vérification automatique des liens, et l'on n'oublie pas qu'une bonne consultation est aussi une consultation rapide et que, par conséquent, il faut veiller au bon dimensionnement de son ou de ses serveurs par rapport aux usages prévus.
Le parcours aurait pu être sans faute si le dernier exposé, « Bureautique et Intranet : technologies développées pour le réseau Internet au sein des réseaux privés des entreprises » (Philippe Martin), ne décevait quelque peu. En effet, après avoir rappelé que l'Intranet n'était, au fond, que l'application des techniques Internet au sein d'un réseau local, l'auteur s'égare en évoquant des outils qui n'ont que peu à voir avec les serveurs Web en tant que tels : messagerie, forum de discussion, agenda, visioconférences et partage de fichiers qui font l'ordinaire d'un réseau local sont présentés, mais l'on ne voit pas en quoi ils concernent le sujet précis, et jusqu'alors précisément traité, des cours.
Qualitatif vs quantitatif
Péché véniel au fond : pour le reste, l'ouvrage respecte parfaitement ses intentions, telles que présentées dans le court mais pénétrant « avant-propos » de Jean-Claude Le Moal. Stigmatisant tant l'effet de mode qui amène à l'explosion du nombre de sites Web que l'idée selon laquelle de tels outils rendront inutiles les médiations documentaires, il rappelle que « les fonctions fondamentales assurées dans la vie d'un document papier restent indispensables dans le monde du document numérique ». Dès lors, le site n'est qu'un moyen pour une bibliothèque de mieux remplir sa mission.
Il indique enfin que, dans un monde où le temps est devenu un trésor rare, mieux vaut faire moins mais mieux, et qu'il faut privilégier la « logique qualitative » à la « logique quantitative ». Et lui, ainsi que l'ensemble des collaborateurs experts rassemblés pour l'occasion, le prouve, puisque, dans les trois cents pages denses, mais lisibles, de Créer et maintenir un service Web, l'essentiel est dit sur la question.