L'évaluation de l'information sur Internet
Dominique Mitou
Près de soixante participants se sont retrouvés à l’université Montesquieu-Bordeaux IV, le 28 avril, à l’invitation du centre régional de formation aux carrières des bibliothèques Médiaquitaine et de l’Urfist (unité régionale de formation à l’information scientifique et technique) pour une journée d’étude consacrée à l’évaluation de l’information sur Internet.
Les modes de référencement des moteurs de recherche
En introduction à son intervention sur les modes de référencement des principaux annuaires et moteurs de recherche, Éric Culnaërt, de l’AEC (Aquitaine Europe Communication), a souligné l’importance acquise par ces outils : 80 % de la population en ligne y ont recours pour effectuer leurs recherches d’information.
Après avoir rappelé leurs principes de fonctionnement (indexation, classement des pages selon des critères de pertinence, de popularité 1), il a exposé l’ampleur des enjeux économiques et la faible diversité du paysage de la recherche en ligne. Ce secteur, fortement concurrentiel, est construit sur le modèle économique des ressources publicitaires. Trois grands acteurs se partagent le marché : Google, en tête, avec 70 % des requêtes mondiales, puis Yahoo ! et MSN Search. L’enjeu stratégique du classement des pages (la plupart des internautes ne consultent que la première page de résultats) et le souci de crédibilité conduisent les moteurs de recherche à tenir secrètes leurs méthodes de classement des pages et donc à ne pas dévoiler leur « politique éditoriale ».
Citant le travail de Jean Véronis 2, chercheur en sciences du langage à l’université d’Aix-Marseille, Éric Culnaërt a exposé la méthodologie et les résultats d’une étude comparative de six moteurs de recherche : Google, Yahoo !, MSN, Exalead, Voilà et Dir.com. Cette étude fait apparaître notamment le faible indice de satisfaction des utilisateurs.
Quel avenir pour les moteurs de recherche ? Éric Culnaërt a terminé son tour d’horizon en envisageant des axes de développement probables dont notamment un service plus personnalisé, basé sur une connaissance beaucoup plus fine des comportements des utilisateurs.
Qualité et crédibilité des documents web
Monica Macedo-Rouet, ingénieur de recherche au Centre national de documentation pédagogique, a rappelé que « devenir auteur-éditeur sur le web est à la portée de tout le monde » ; de là l’intérêt pour l’usager d’être capable de vérifier les sources des documents. Or cette démarche « demande une recherche active d’indices de qualité ».
C’est pour mesurer les capacités des usagers à évaluer la qualité et la crédibilité des documents web que plusieurs expériences ont été menées, notamment dans le cadre du laboratoire Irma (Ingénierie des ressources médiatiques pour l’apprentissage) de l’université de Poitiers. Les possibilités d’évaluation des lycéens et des étudiants invités à se prononcer et à justifier leurs avis sur une sélection de sites se sont avérées très faibles. Les indices sont peu fiables (« fait par un médecin », « beaucoup de chiffres »), des interprétations sont erronées (confusion entre l’auteur de l’article et l’auteur qu’il cite comme référence dans son article).
L’utilisateur « tout venant » du web met en place des critères encore plus faibles, comme le portrait de l’auteur ou le design du site et ne mentionne quasiment pas la source. En revanche, lorsque le public testé est composé de documentalistes, les résultats présentent une très nette amélioration. Les documentalistes connaissent leur domaine de contenu, ont des connaissances sur les sources, croisent des critères, notamment liés à la qualité de l’information et à l’identité de l’auteur.
Il résulte de ces expériences que « les compétences d’évaluation de la crédibilité et de la qualité des contenus du web ne s’acquièrent pas spontanément » et que les professionnels de la documentation ont un rôle important à jouer dans la formation des usagers, et plus particulièrement des lycéens et des étudiants.
L’exemple de Wikipédia
Arnaud Klein, sociologue à l’université de Genève et membre de la Fing (Fondation Internet nouvelle génération), est intervenu sur le thème de la construction collective des savoirs sur Internet, à partir de l’exemple de Wikipédia 3. Basée sur un site web utilisant la technologie wiki, cette « encyclopédie libre, gratuite, universelle et multilingue » permet à toute personne de collaborer, « en direct » et rapidement, à la constitution des articles, soit en proposant un nouvel article, soit en modifiant à volonté le contenu d’un article déjà en ligne. Le succès est au rendez-vous : « Wikipédia fait partie des 200 sites les plus visités au monde » et évolue rapidement avec plus de trois millions d’articles dont 275 000 pour l’espace francophone. Arnaud Klein a détaillé son fonctionnement : « L’organisation hiérarchisée s’appuie sur un comité d’arbitrage dont les décisions sont toujours soumises au vote. » Des lignes directrices sont ainsi définies et s’imposent à tous : neutralité du ton des articles et respect des règles du copyright.
Partage des connaissances, anonymat des contributeurs, Wikipédia fonctionne sur la conviction que la validation collective et réitérée offre une garantie suffisante sur la qualité des contenus. En réalité, beaucoup de notices sont proposées par des contributeurs enregistrés et, par ailleurs, chaque notice possède son historique des versions successives. Encyclopédie ouverte, Wikipédia doit se prémunir contre les actes de vandalisme ou les tentatives de propagande idéologique : c’est la forte réactivité de la communauté qui fait bloc pour protéger l’œuvre commune.
Arnaud Klein a conclu son intervention sur la question de la légitimité d’un savoir construit sans les instances intermédiaires des experts identifiés. De nombreux débats, dans les médias grand public ou chez les spécialistes, ont en effet pointé cet enjeu. Est-ce que le projet Wikipédia, fondé sur « une co-construction non élitiste » des connaissances, repose sur une utopie ?
L’auto-publication dans les blogs et les archives
La journée s’est achevée avec l’intervention d’Évelyne Broudoux, maître de conférences en sciences de l’information et de la communication (université de Versailles – Saint-Quentin-en-Yvelines), sur le thème de l’évaluation de l’auto-publication dans les blogs et archives ouvertes. Elle a souligné la caractéristique de l’auto-publication en ligne qui inverse l’ordre chronologique de la chaîne éditoriale traditionnelle (produire, éditer, publier, diffuser). L’auto-publication est en effet marquée par l’absence de travail éditorial avant publication.
Le langage HTML, grâce à son usage relativement simple, a favorisé l’émergence de sites d’auteurs préoccupés d’élargir leur audience en évitant les intermédiaires tels que l’éditeur et le diffuseur. Cependant, c’est avec les CMS (Content Management Systems, systèmes de gestion de contenus), que « l’on quitte la publication pour entrer dans la participation ». Les outils de publication de contenu tels que les blogs ou les wikis introduisent un mode de publication partagé et réactif. Avec le concept de web 2.0, c’est à une nouvelle étape du processus d’appropriation du web par les usagers internautes que l’on assiste : photos, tags, signets… Les moteurs d’indexation permettent un partage des recherches précédemment effectuées.
Dans ce contexte, l’identité des fonctions et des métiers n’est plus clairement définie. Une porosité apparaît entre les rôles de lecteur, d’éditeur et d’auteur : « L’auteur publie en archivant (archives ouvertes) ; le lecteur commente (blog), est aussi auteur (wiki), se fait documentaliste (tags, folksonomies). » La frontière entre sphère publique et sphère privée est floue, notamment dans les blogs, dans lesquels l’auteur expose des faits relevant traditionnellement de la vie privée.
Quel est le degré de fiabilité des contenus basés sur le consensus ? Que deviennent le statut de l’auteur et les droits attachés à la propriété intellectuelle ? Évelyne Broudoux a fait observer que ces innovations techniques accompagnent de nouveaux modèles de participation sociale et que ces nouveaux usages modifient le paysage traditionnel de l’accès à l’information et aux savoirs.