Nouvelles économies de la connaissance
i-expo 2011
Joachim Schöpfel
Nelly Guillaume
Salon et congrès
La 28e édition du salon de l’information numérique i-expo 1, qui s’est tenu les 18 et 19 mai derniers à la porte de Versailles à Paris, a attiré de nombreux visiteurs et environ 70 sociétés et organismes exposants. Parallèlement au salon, le congrès i-expo, organisé par le GFII 2 et un comité scientifique présidé par Bernard Benhamou 3, a proposé 21 conférences et ateliers, 5 master classes et 26 conférences d’application. Un contenu riche et varié. Voici quelques aperçus.
Les réseaux sociaux
Les deux ateliers sur les réseaux sociaux figuraient parmi les événements les plus fréquentés du salon. Le management des connaissances, aussi appelé à ses débuts Knowledge Management (KM), est un mode de gouvernance de nos sociétés contemporaines. Historiquement, se sont succédé des sociétés monacalisées, des sociétés industrielles, des sociétés de l’information et enfin des sociétés du savoir qui se distinguent des précédentes parce qu’intervient la gestion des connaissances au travers d’une approche culturelle et sociale des savoirs. En même temps, la mondialisation de l’économie, qui génère beaucoup d’informations, a fait de la connaissance un objet relationnel à la base du « capitalisme cognitif ». Pour finir, arrive le web 2.0 avec le fantasme d’organisation horizontale où chacun produit de l’information.
Les réseaux sociaux sont souvent inscrits dans des pratiques de métiers ; l’information seule est insuffisante, la culture d’entreprise est désormais orientée vers les échanges. Il faut parler plutôt de knowing management et de knowledge managers qui existent déjà mais changent régulièrement : les intervenants ont souvent fait état de leur itinéraire, successivement au service de différents acteurs économiques ou sociaux. Trois exemples de réseaux sociaux professionnels ont été présentés. Si les critères de succès sont une bonne appréciation des dirigeants – la fluidification des échanges entre les partenaires, l’intérêt des utilisateurs –, ils ne doivent pas masquer 4 les inégalités techniques, les tailles diverses des équipes, la nécessité du soutien hiérarchique et de l’écoute des utilisateurs. C’est une confiance toujours renouvelée qui préside à ces relations.
Le sujet du deuxième atelier était la veille sur les réseaux sociaux. Pour faire face à la masse d’information qui envahit les réseaux, ont été entreprises des recherches afin d’analyser les données, les trier, repérer leur pertinence et les mettre au service d’une collectivité. Cet atelier a présenté l’état des solutions et recherches en cours.
Trendiction 5 répond à la demande d’entreprises soucieuses de leur e-réputation qui souhaitent savoir ce que l’on dit d’elles sur les 152 millions de blogs très temporaires, les 12 millions d’articles de Wikipédia, les news, les commentaires, les forums… Trendiction cherche à déterminer « l’influence comme donnée clé dans la découverte d’information pertinente ». Cette influence est déterminée par la pertinence et la visibilité (nombre de liens), par l’engagement social (tweets, commentaires… : les réactions déclenchées), par la qualité (algorithmes, outils d’analyse sémantique : nombre de verbes, adjectifs de sentiments…). C’est un outil aboutissant à un classement en contenus.
Langma 6, prototype d’outil de détection de signaux faibles et d’information en temps réel, a quant à lui pour but de faire face à la masse d’informations : « l’infobésité ». Sur les 145 millions de messages et 300 millions d’utilisateurs de Twitter, il détecte, vérifie et publie l’information. Les 1 400 informations/minute sont traitées et vérifiées en moins de quatre minutes : élimination du bruit, fiabilité, pertinence, analyse sémantique et outil grammatical pour repérer les mots clés mal orthographiés par des témoins d’évènements mais pas champions de la dictée et de la précision. Dans la même veine, et en association avec le CNRS, sera étudiée la façon dont un tweet laisse transparaître la peur du twitteur et le danger de la situation. Un projet conduit avec des ONG vise en cas de catastrophe naturelle à obtenir des interventions qui gagneraient en rapidité et efficacité. Des tweets avaient donné l’alarme avant les données sismiques dans le cas du tremblement de terre du 11 mars au Japon.
Enfin, AMI Software 7 tente également de se confronter à la perte des repères et de l’autorité sur les réseaux, à la popularité qui prédomine, en cherchant à savoir qui parle, quelle est son influence, quelle est la qualité des followers, comment est véhiculée l’information, quels sont les référencements, les hyperliens, le niveau de classement du message. Il cherche à déterminer la consanguinité des informations : savoir si un lien est twitté par exemple. Ainsi sont cartographiées des informations et leur propagation, détectées des communautés qui s’autonomisent parfois et tournent sur elles-mêmes ; des tendances se dessinent.
D’un internet de recherche on est passé à un internet de recommandation pour des consommateurs qui prennent le pouvoir. À quand une quotation des sources ? Les bibliothèques ont encore un rôle majeur à jouer dans ce paysage avant une putative tentative de quotation des informations qui deviendrait automatisée.
Des nouveaux espaces informationnels
Les projets et les analyses présentés à cet atelier, également très fréquenté et animé par Stéphane Chaudiron 8, ont servi de trame à une réflexion sur les opportunités et les usages qui émergent aujourd’hui des nouveaux espaces informationnels générés à la fois par l’existence de nombreux réservoirs de données et par les technologies numériques.
En s’appuyant sur deux exemples emblématiques, François Pouilloux 9 a exposé les enjeux et les défis du cloud computing. Selon sa propre expérience, enrichie par l’existence du cluster « Web intelligence » basé en Rhône-Alpes, les tests à petite échelle s’avèrent concluants, mais les process grandeur nature soulèvent certaines difficultés (charge informatique, planification du processus de collecte, coût du stockage longue durée). La qualité et l’hétérogénéité des données restent une question sensible.
La question de l’accès aux informations par mots clés a fait l’objet des deux interventions suivantes.
François Feyler a présenté Otaren (Outil thématique d’aide à la recherche pour l’Éducation nationale), développé par le CNDP 10. Cet outil de recherche établit des équivalences terminologiques entre plusieurs langages documentaires. Rendant interopérables les vocabulaires contrôlés, il permet d’accompagner la recherche documentaire par mots clés, en améliorant les relations entre les concepts, les termes de l’indexation et les mots de la requête.
Se plaçant cette fois du côté des producteurs des langages d’indexation, Bruno Menon 11 a proposé des éléments de comparaison entre l’indexation experte et le tagging social. Si deux modèles se sont longtemps opposés – l’indexation experte (humaine, sélective et contrôlée) et l’indexation automatique (exhaustive et libre) –, une troisième voie est apparue avec le social bookmarking qui, loin de remettre en question les deux approches précédentes, pourrait être complémentaire, même si la question de l’ambiguïté n’est pas résolue par le tagging.
Droit et propriété de l’information
Un atelier et une conférence plénière étaient consacrés aux aspects juridiques des usages professionnels et à l’évolution de l’environnement légal. Michèle Battisti a analysé plus de 1 300 questions relevant du droit posées à l’Association des professionnels de l’information et de la documentation (ADBS) depuis 1998. La plupart des questions tournaient autour du panorama de presse, de la numérisation et des photocopies, de l’utilisation des produits de presse (périodiques) et des photos, du droit de copie, des contrats et de la responsabilité du professionnel. Les questions reflètent le fossé croissant entre facilités techniques et obstacles juridiques. L’ADBS développera son service juridique par des publications en ligne, un wiki et des formations 12.
L’équilibre instable entre la protection des droits et les usages fut également abordé dans la communication de Goerges Chatillon 13. Le droit est dans une impasse du fait de l’hégémonie américaine, tant technologique que juridique (Digital Millennium Copyright Act de 1998). Le vieux modèle du code de la propriété intellectuelle est dépassé, devient « décadent », voire « immoral », car il limite l’accès à la seule information qui relève de l’intérêt général. Confrontés à la surveillance des libertés et au pillage des données personnelles, les internautes sont « désemparés, tantôt criminels, tantôt victimes ». G. Chatillon appelle de ses vœux une régularisation internationale, avec une convention et une instance supranationale et indépendante sur le modèle du tribunal international.
Il a concrétisé ses idées dans une conférence-débat sur des nouveaux modèles économiques et juridiques. Pour lui, le modèle du code civil avec une propriété individualisée absolue et intangible a fait son temps et doit laisser la place au concept de l’information commune à l’image des biens communs de la doctrine sociale de l’église catholique 14. G. Chatillon a esquissé une typologie de l’information qui facilite la compréhension des enjeux (information individuelle, sociale, relationnelle et privée ou secrète). Le droit de l’internet est pour lui une nouvelle catégorie du bonus communis.
Le principe de la protection des produits de presse par le biais de la propriété intellectuelle a été défendu par Laurent Bérard-Quélin 15. Même si l’information (l’actualité) fait partie des biens communs, l’œuvre originale qui vérifie, transforme, enrichit l’information doit être protégée. Internet coûte cher, et la pérennité de l’information nécessite selon lui la faculté d’exploitation. Cependant, comment réagir face au public qui exige gratuité et partage de l’information sur internet ? Tout en admettant que l’utilisation individuelle, contrairement à l’utilisation collective et anticoncurrentielle, ne posait pas problème, L. Bérard-Quélin a indiqué deux pistes de réflexion : la licence globale et le contrat avec l’utilisateur.
Le public a été entraîné dans un voyage dans les mondes virtuels et les nuages par Yves Le Roux 16, qui a décrit comment les jeux en ligne créent de la valeur (virtuelle) non protégée. Il s’est interrogé sur la cascade de responsabilités de l’externalisation des données et outils par le biais du cloud computing, via trois questions : y a-t-il une propriété virtuelle ? Y a-t-il une valeur virtuelle qui détruira de la valeur réelle ? Et en cas de fraude, quelles poursuites faut-il engager ?
Le livre numérique
Peut-être la conférence la plus intéressante du congrès i-expo était-elle celle sur l’économie de la connaissance et les livres numériques, animée par Emmanuel Benoît de la société Jouve. Lorenzo Soccavo 17 a décrit la quatrième révolution du livre sur le plan des pratiques (fragmentaires, sociales, connectées), des dispositifs de lecture, du marché (diffusion multicanal multisupport), de nouveaux entrants étrangers aux industries graphiques et de l’impact sur la langue et la littérature 18.
Les nouveaux modes de lecture entraînent de nouvelles formes d’écriture : c’est la conviction, le crédo et le business model de Jean-Charles Fitoussi dont la maison d’édition – SmartNovel 19 – est spécialisée dans la production littéraire en feuilletons de 10 ou 20 épisodes pour iPhone. Néanmoins, il admet que le modèle économique est loin d’être durable, avec seulement 3 % de téléchargements payants.
L’intervention de Bertrand Eveno 20 était aussi brillante que visionnaire. Plateforme souple et nomade, le livre, selon Eveno, fait partie d’un écosystème spécifique. L’objet livre est indissociable de l’usage ; le livre est un service. Or, on ne lit pas de la même manière un manuel scolaire, un roman de Proust, une encyclopédie ou une table logarithmique. La transition vers le numérique n’exige donc pas une mais plusieurs solutions. B. Eveno préconise cinq étapes pour un projet d’édition numérique : séparer, déconstruire les objets ; identifier les usages ; redéfinir les services ; recomposer (plateforme et services) ; faire réapprendre (nouveaux actes cognitifs cérébraux associés ou Acca).
Le livre traditionnel fait preuve de longévité et d’efficacité. Suivant la loi des substitutions originales, son remplacement ne se fera pas un par un (les médias ne disparaissent pas) mais par des ajouts et des glissements.
Suite
L’entrée au salon et la plupart des événements – conférences plénières, master classes et conférences d’application – étaient gratuits. Il s’agissait d’un lieu unique d’information et de formation, d’échange, de débat et de négociation. Tout ce qui compte dans l’industrie de l’information numérique en France était là, et secteurs public et privé se côtoyaient, tantôt client, tantôt prestataire ou producteur, mais toujours à la poursuite du même objectif : rendre l’information accessible à l’utilisateur final. Rendez-vous donc en 2012 pour la 29e édition. •