Informatique documentaire
Catherine Vallet
ALEXANDRIE, MANDARIN, DARWIN, ASSASSIN... Les logiciels documentaires envahissent le marché et les utilisateurs ont souvent bien du mal à se retrouver parmi cette pléthore de produits concurrentiels. Faire le point sur les logiciels disponibles sur micros 1 tout en présentant les grandes tendances du marché, tel était le programme de la 5e journée MICRODOC « Micro-informatique et documentation » organisée le 20 octobre 1988 par l'Association des documentalistes et bibliothécaires spécialisés (ADBS).
Les adeptes du Mac Intosh peuvent se réjouir : ils disposent enfin d'applications documentaires sur leur micro préféré. Huit logiciels ont été recensés par Roland Bertrand (DBMIST), qui saluait leur sortie, début 1988, comme l'événement marquant sur un marché relativement stable. Très attendus en raison du caractère convivial du Mac Intosh, ces logiciels présentent de nombreuses facilités : gestion de thésaurus (ALEXANDRIE, DOCUMENTA, BASETHEQUE, THEMDOC), indexation automatique avec fichiers de mots vides (DOCUMENTA), combinaison d'arborescence et de booléen (ALEXANDRIE), etc. D'une manière générale, ils permettent une qualité d'édition bien supérieure à celle des PC et allient à la recherche documentaire proprement dite des fonctionnalités de gestion de bibliothèque. Quelques inconvénients ont pu être relevés, tels que des temps de tri très longs sur gros fichiers. Ils devraient être rapidement maîtrisés.
Du côté des PC, les « valeurs sûres » (MICRO-QUESTEL, TAMIL, TEXTO, BRS, etc.) tiennent toujours le marché. Certains produits nouveaux - ou nouvellement introduits en France - méritent cependant d'être mentionnés : EDIBASE (logiciel canadien prochainement diffusé en France) et CDS-ISIS (conçu et diffusé gratuitement par l'UNESCO aux organismes à but non lucratif) sous MS-DOS ; INFLUX (qui intègre la technique du multifenêtrage) et SIGMINI (qui accroît les possibilités de recherche grâce à des opérations dites de « structure ») sous UNIX. Quelques rares produits sont diffusés sous les deux versions MS-DOS et UNIX. Mais, de manière générale, la répartition traditionnelle des logiciels en deux groupes reste valable. Les logiciels sous MS-DOS occupent la plus grande part du marché (22 produits recensés en octobre 1988). Généralement monopostes, ils sont destinés à traiter quelques milliers de notices. Les logiciels sous UNIX (6 recensés à cette date) fonctionnent sur des micro-ordinateurs multipostes et disposent de fonctionnalités documentaires très complètes. Ils nécessitent une configuration plus sophistiquée et plus coûteuse et sont plutôt destinés aux unités documentaires de taille moyenne 2.
Stocks de nœuds
Les logiciels étrangers font peu à peu leur entrée en France. Très diversifiés, ils intègrent de plus en plus de fonctions complexes de traitement de l'information. Outre les logiciels strictement programmés pour la recherche documentaire - et qui sont en tous points similaires à ceux que l'on peut trouver sur le marché français -, il peut s'avérer utile de recourir, suivant l'application envisagée, à d'autres types de produits destinés à la gestion de fichiers, à la gestion de banques de données (systèmes SGBD capables de gérer simultanément plusieurs fichiers) ou encore plus spécifiquement à la gestion de bibliothèques 3.
Les logiciels documentaires devraient être soumis dans un avenir proche à d'autres mutations. Certains produits intègrent déjà les résultats de la recherche en Intelligence artificielle, notamment dans le but d'une interrogation en langage naturel. C'est le cas des linguisticiels (par exemple DARWIN), outils d'ingénierie linguistique intervenant dans l'analyse du contenu et dans la recherche d'information. Une mention particulière était réservée aux logiciels à base d'Hypertexte et d'Hypermedia. Concept ancien d'application récente, l'Hypertexte bouleverse l'architecture traditionnelle des logiciels en introduisant la notion d'« écriture non séquentielle ». Les informations sont stockées sous forme de « noeuds transparents », que l'on peut appeler individuellement et connecter entre eux par des liens logiciels directs. Les logiciels Hypermedia - on peut citer GUIDE, HYPERDOC ou HYPERCARD - sont basés sur ce principe. Ils intègrent des mots, des images et des sons en recourant à des supports de type vidéodisque, magnétoscope ou CD-ROM. Très prometteurs auprès du grand public, ils s'annoncent comme les futurs successeurs des banques de données en ligne classiques.
Véritable banque de donnée locale, le CD-ROM semble, lui aussi, promis à un grand avenir. L'industrialisation de la production est désormais facilitée par l'adoption de standards physiques et logiques hérités du CD-Audio ; elle devrait se traduire dès 1989 par une baisse notable des coûts de production. En matière de logiciel, quelques produits sont déjà disponibles sur le marché américain. Ils se composent en réalité de trois modules-logiciels distincts, dont Bernard Prost (CEDROM Technologies) résumait ainsi la fonction :
- le générateur d'index, sur le site de production, doit créer une structure optimisant la recherche ; il fonctionne sur des ordinateurs bien plus puissants qu'un simple micro ;
- le moteur de recherche (run-time) est monté sur le micro de l'utilisateur ; il doit donc occuper un minimum de place en mémoire centrale ;
- l'interface, standard ou personnalisé, doit être le plus convivial et le plus graphique possible ; il est créé sur le site de production.
Un problème majeur reste à résoudre, celui de la rapidité d'accès à l'information.
Ilôts normalisés
La micro-informatique a désormais franchi le cap de la maturité technique. En concentrant ses efforts sur la standardisation et la portabilité, elle entre dans une nouvelle phase de maturité, davantage tournée vers l'utilisateur. Pour Jean-Michel Cornu, consultant, cette tendance est conforme à l'évolution générale de tout concept et produit informatique.
La normalisation vise essentiellement les interfaces entre les différents modules informatiques ; il n'est bien sûr pas question de normaliser les fonctionnalités internes du système, qui en déterminent pour une grande part la puissance et sont sujettes à évolution. Pratiquement acquise en ce qui concerne l'interface avec les logiciels (POSIX), la normalisation est plus délicate à réaliser en ce qui concerne l'interface avec l'ordinateur ; dans ce dernier cas, les constructeurs semblent s'orienter vers la création d'« îlots » normalisés, les ABI (Application binary interface), ce qui devrait permettre la création de nouveaux produits. En ce qui concerne l'environnement informatique, les travaux portent à la fois sur le matériel (réseaux locaux et communications, mémoires de masse, etc.) et sur le logiciel et les outils de développement (interrogation de bases de données, graphisme, multifenêtrage...). Afin d'améliorer la portabilité des applications, certains constructeurs et développeurs se sont d'ores et déjà regroupés pour proposer des standards : alliance d'AT&T-SUN autour de UNIX system (V 4.0) ou bien consensus plus large sur une série de normes (X/OPEN).
Mais les véritables enjeux de la normalisation résident aujourd'hui dans les fonctionnalités nouvelles qui se développent (multifenêtrage, hypermedia, etc.). Ces plus-values apportées par chaque constructeur à une base standard devraient permettre à l'utilisateur de faire réellement jouer la concurrence.