Mesure de la fréquentation et connaissance des visiteurs des sites Internet
État de l'art
Pierre-Yves Renard
Le 14 novembre 2000, le Groupement français de l’industrie de l’information (GFII) organisait à la Bibliothèque nationale de France (BnF) une journée d’étude consacrée à la mesure de la fréquentation et à la connaissance des visiteurs des sites Internet.
La matinée fut consacrée aux approches dites site centric de la mesure d’audience, c’est-à-dire reposant sur l’exploitation de données techniques de connexion des machines (et non à proprement parler des visiteurs) aux sites web.
Fichiers log et « marquage » de pages
Deux méthodes se partagent actuellement l’essentiel du marché : l’analyse des fichiers log et le « marquage » de pages. Les fichiers log répertorient, sur une période donnée, les caractéristiques des requêtes que les serveurs ont eu à gérer. L'exploitation en est ardue, mais néanmoins puissante. Le marquage est un dispositif plus léger qui consiste à ajouter, aux pages HTML à auditer, quelques lignes de code, qui provoquent, à tout appel des pages en question par un internaute, l’envoi d’informations au serveur du prestataire de services statistiques. Les sociétés exploitant ces techniques (Webtrends pour les logs, @t Internet, Weborama, Witbe pour le marquage) en proposent toutes, malgré les originalités revendiquées au nom de la concurrence, des déclinaisons similaires : organisation du site web ausculté en zones analysables séparément, données de fréquentation selon l’heure des utilisateurs ou l’heure du serveur, nombre de visiteurs, nombre de visites, données sur les navigateurs ou les systèmes d’exploitation des connectés, sur l’origine des connexions (liens depuis un autre site, liste enregistrée de favoris, moteur de recherche…).
En venant en appui à la gestion technique et éditoriale des sites, les logs et les marqueurs restent toutefois des outils de constat, dans une conception d’Internet qui n’est pas fondamentalement différente de celle de la presse. Il n’est à cet égard pas surprenant de voir la société Diffusion-Contrôle – qui homologue, à travers son bureau OJD (Office de justification de la diffusion), la diffusion des périodiques français –, se positionner en certificateur des données d’audience du web. Jean-Marc Pannier, du Bureau Internet Multimédia (BIM) de Diffusion- Contrôle (association pour le contrôle de la diffusion des médias), présenta les principes d’un tel dispositif de certification : reconnaissant de fait la prépondérance de la méthode des marqueurs, le BIM labellise les « tiers-mesureurs », c’est-à-dire les entreprises prestataires de services statistiques auxquelles peuvent s’adresser les sites qui souhaitent intégrer le dispositif. Puis il contrôle les déclarations systématiques de fréquentation (DSF) produites sur l’honneur par les sites affiliés, et enfin, rédige les procès-verbaux. Diffusion-Contrôle certifiera le « nombre de visites », puisqu’un consensus semble se dégager pour faire de cette notion l’indicateur de base, ainsi qu’Hélène Haering, qui représentait le Centre d’étude des supports de publicité (CESP), s’en est fait l’écho. Dans un même souci d’harmonisation, le CESP propose aux acteurs du marché publicitaire d’autres repères en matière de mesure de trafic et d’audience : ainsi les pages vues avec publicité (PAP) et le coût pour mille pages vues avec publicité (CMPAP) constituent à ce jour les indicateurs de référence pour la commercialisation de l’espace publicitaire sur le web.
Enquêtes et panels
Adaptées à un modèle de gratuité pour l’utilisateur et de financement par la publicité (ou pour les sites sans but lucratif), les mesures site centric trouvent leur limite lorsqu’il s’agit de connaître les internautes à des fins de marketing et de stratégie commerciale : il ne suffit pas que le site soit visité, encore faut-il que le taux de transformation des visites en achats soit élevé. Les méthodes user centric, à savoir les enquêtes et l’observation de panels, prennent alors le relais, comme les intervenants de l’après-midi ont tenté de le démontrer. Autant la technologie des marqueurs peut être considérée comme légère à mettre en oeuvre, autant les enquêtes et les panels requièrent une expertise élevée et des moyens conséquents. La plupart des sociétés du secteur sont d’ailleurs adossées à des instituts de sondages classiques. La technique du panel rappelle celle qui est appliquée au secteur télévisuel, mais le boîtier audimat est remplacé par un logiciel installé sur l’ordinateur des panélistes, qui prend en compte l’ensemble de l’activité sur le réseau, et pas seulement la consultation de pages web. Munies de portraits précis d’internautes et du relevé de leurs pratiques, des sociétés comme NetValue ou Jupiter-MMXI (toutes deux représentées et dont on eut là encore bien du mal à distinguer les originalités respectives) produisent l’éventail traditionnel des études marketing : analyse d’impact des campagnes publicitaires, habitudes des internautes, rapports sectoriels… Ce n’est pas une offre différente que l’on retrouve chez les tenants de l’approche par enquête (Ipsos-Médiangle, par exemple), l’avantage, et sans doute la faiblesse méthodologique, d’une telle procédure étant la possibilité d’une auto-administration en ligne du questionnaire.
Dans tous les cas, les outils user centric sont réservés aux poids lourds d’Internet, puisqu’il faut bénéficier d’un taux de pénétration d’environ 1 % pour obtenir des résultats fiables, et que les études sont vendues au minimum quelques dizaines de milliers de francs (certaines solutions site centric sont gratuites).
Des approches « prêtes-à-porter »
Si l’on conclut aisément à la nécessité de combiner l’ensemble de ces approches selon les besoins, il semble qu’elles demeurent toutes globalement « prêtes-à-porter », laissant sur leur faim, par exemple, les gestionnaires de sites très spécialisés ou à contenu informationnel lourd. En adaptant simplement des méthodes de mesure venues d’autres médias ou en érigeant l’exploitation d’astuces techniques en fondement de l’évaluation, le secteur navigue à vue. L’approche la plus originale, mais pas la moins inquiétante, fut sans doute celle de Profile for you qui propose un outil de profiling comportemental, c’est-à-dire de définition, en direct et progressive, du profil de l’internaute en fonction des sites qu’il visite. Le but est d’assurer au client potentiel un affichage rédactionnel ou publicitaire ciblé dès sa première visite sur le site, alors que l’utilisation habituelle des cookies (ces petits fichiers de pistage qui viennent se loger sur le disque dur) ne permet la reconnaissance que des internautes qui sont déjà venus sur le site.
Plutôt qu’à une journée d’étude, on assista donc à une suite de démonstrations commerciales, les questions dérangeantes étant soigneusement éludées par la majorité des intervenants. On sait que l’enjeu que représente l’audience a amplifié les phénomènes de fraude et les approximations. Négligeable, répondirent d’une seule voix les spécialistes des marqueurs (les plus visés par la polémique). On aimerait les croire. Plus épineux, le problème du respect de la vie privée ne donna lieu qu’à des explications vagues. Or nombreux déjà sont les sites dont l’accès est interdit aux internautes qui refusent les cookies et donc l’identification. L’heure n’était sans doute pas au débat, et souligner que la course aux millions de pages vues sert souvent à masquer l’absence de rentabilité aurait sans doute été incongru. Rappelons enfin, à la suite de statisticator, site web particulièrement bien informé, que si 5000 visiteurs par jour constituent une excellente fréquentation pour un site français, le Berry républicain-Centre France est diffusé quotidiennement à 40000 exemplaires.