Comscore admet surestimer les pages vues jusqu’à 300%

MAJ 18/04/07 : Important lire la réponse de Magid Abraham en novembre sur ce blog qui estime avoir été mal compris. Je maintiens toutefois mon analyse ci-dessous même si le titre de ce billet peut se discuter, Comscore démentant (dont acte) surestimer son compte des pages vues. Sur ce dernier point la discussion se poursuit sur l’Expansion.com.

C’est une petite bombe que vient de lâcher Magid Abraham, CEO de Comscore, l’institut de mesure d’audience par panel, principal concurrent de Nielsen Netratings. Dans une lettre ouverte il tente de répondre à la polémique sur la fiabilité des mesures d’audience par panel (dite « User centric »). Certes une bonne part de la polémique est issue de l’incompréhension des acteurs du marché face aux différences de résultats entre les mesures « site et user centric ». Mais à la différence des explications habituelles sur les visiteurs uniques il est question ici de pages vues, et les explications méritent le détour.

En clair Magid Abraham explique ni plus ni moins que la mesure des pages vues est totalement biaisée, presque systématiquement surévaluée dans des proportions qui peuvent atteindre jusqu’à 300%. La mesure user centric basée sur les panels est en effet avant tout conçue pour évaluer les visiteurs, elle fournit dans le même temps une évaluation des pages vues à partir d’une analyse très sommaire des fichiers de logs recueillis par le panel. Comme il le dit lui même « cette mesure se situe entre celle des hits et celle des pages vues des outils sites centrics ». Oui vous avez bien lu…

Ceux qui se souviennent de l’époque du début du  Web ou le moindre site bricolé annoncait fièrement des millions de « hits » auront des frissons dans le dos en réalisant que c’est cette mesure « hybride » sur laquelle certains appliquent un CPM pour valoriser des sites … Je me souviens avoir identifié ce problème il y a 2 ou 3 ans en me plongeant dans le détail des logs des sites mesurés par Nielsen Netratings. La présence évidente dans ces logs de blocs HTML, de pop ups, de javascript et de modules et autres « frames » en tout genre m’avait poussé à interroger publiquement Médiamétrie/Nielsen sur la question: les pages vues sont-elles des pages? On m’avait alors rassuré sur le filtrage me laissant décontenancé devant des sites totalisant sans raison jusqu’à 50 pages par visiteur! Car, qu’on ne s’y trompe pas, c’est bien l’ensemble des mesures « user centric » qui sont concernées. Comscore avoue ainsi que certains de ces hits sont filtrés (comme les pop ups) mais pas les autres. Les pages HTML appelées mais pas forcément vues ou complètement affichées sont ainsi comptabilisées !

La vérité était pourtant évidente… Depuis les langues se sont en partie déliées en privé et la nécessité d’effectuer le grand nettoyage est devenue pressante en particulier depuis que la mesure du visiteur est aussi sujette à caution (qui sait que certains sites français étaient en passe de revendiquer un nombre d’utilisateurs dépassant le nombre d’internautes français …?). Il faut sur ce point rendre hommage au courage du CEO de Comscore d’oser jouer la transparence afin de militer pour un usage plus réfléchi des instruments de mesure.

L’initiative de a aussi un objectif simple : redéfinir le périmètre de crédibilité des instruments. Les visiteurs, les lecteurs sont estimés par les outils user centric (Comscore, Nielsen Netratings, Hitwise), les pages vues et les visites par les outils sites centrics (Omniture, Webtrends, Xiti, Weborama etc…). Chacun avec ses défauts et ses points forts. Des mesures imparfaites mais qui sont infiniment plus précises que les mesures par sondage traditionnellement utilisées pour l’audience des medias offline.

Signalons sur ce sujet que l’OJD publiera bientôt de nouvelles mesures certifiées de pages vues et de visiteurs sur une base hebdomadaire afin de réduire la marge d’erreur induite par les cookies. Les éditeurs membres de l’OJD (dont je suis) ont reçu les premiers tests ce mois-ci. J’en reparlerai ici.

Comscore confirme l’audience de Youtube et sa fragilité

Le dernier communiqué de Comscore nous donne de précieuses indications sur l’audience des videos de Youtube.

En bref Youtube compterait:
63 M de visiteurs uniques par mois dans le monde (dont 16 aux USA)
96 M de streams videos servis chaque jour (dont 21 M aux USA)

Ces données valident donc l’annonce des 100 M de videos par jours lors du rachat de Youtube. Ce n’est pourtant pas ce chiffre qui retient mon attention. Une video « servie » signifie en réalité que le flux video a été « appelé » ce qui ne signifie nullement que la video a été vue dans son intégralité ou le temps d’une seconde. Le principe d’appliquer un CPM à ce chiffre est dont totalement bidon, faut-il le rappeler, j’espère seulement qu’il ne s’agit pas de « hits » provoqués par le seul appel du player. Chose que j’ai pu expérimenter moi même avec les stats de certaines plates-formes d’hébergement, provoquant un gonflement de près de 300% des données.

Mais peu importe, le succès de Youtube est réel et écrasant. Ce qui m’intéresse c’est que ce chiffre est obtenu par l’addition des videos servies sur Youtube.com et celles diffusées  sur l’ensemble des plates-formes de blogs et autres sites webs. En clair, en cas de diffusion de pubs sur les videos, la majeure partie de potentiel de diffusion dépend en réalité des myriades de plates-formes partenaires (ou non). Une situation qui implique que les revenus publicitaires devront être partagés non avec les seuls producteurs de videos mais également avec les plates-formes partenaires acceptant d’héberger ces videos. Il faudrait être stupide pour ne pas exiger un tel partage non?

Une hypothèse qui donnent un relief particulier aux menaces de Myspace de couper la diffusion des videos de Youtube . Myspace qui prétend controler à lui seul 60% de ces videos…  Quelque chose me dit que les relations entre Murdoch et Google vont prendre une tournure très sportive … CQFD

Netvibes met le souk dans la mesure des flux RSS

Depuis quelques temps il me semblait que le trafic de mon blog était sans rapport avec les 4393 abonnés à mon flux RSS affichés par l’outil de mesure interne de WordPress.com. Et depuis quelques jours,  patatrac, le nombre d’abonnés s’est effondré mais pas le trafic. L’explication se trouve sur le forum de WordPress.com.

En clair Netvibes (70% de mes abonnés) envoie des requêtes à partir d’un nombre toujours plus grand de serveurs à mesure que le service développe son infrastructure technique. WordPress identifie par erreur chaque serveur comme provenant de services (et d’utilisateurs) différents multipliant de façon exponentielle le nombre « d’abonnés ». Une fois corrigé, pouf, la baudruche se dégonfle et il ne reste même plus de quoi devenir un influenceur

Bon ce n’est pas très passionnant comme histoire mais cela prouve que la mesure des flux RSS est d’une fiabilité hasardeuse. Je crois me souvenir que Freddy (COO de Netvibes) m’avait expliqué qu’un phénomène similaire avait malmené les statistiques de Feedburner.com. Problème corrigé depuis mais qui oblige les services de mesure à identifier un par un (par IP) les serveurs des agrégateurs de flux RSS. La rançon du succès…

La fiabilité de Nielsen Netratings et Comscore sous la critique de l’IAB

Le ton monte aux USA pour critiquer la fiabilité des mesures d’audience basées sur des panels (user centric) par Nielsen Netratings et Comscore Media Metrix. A lire cet article bien renseigné de Adweek.com « Web execs question metrics« . En cause l’écart grandissant constaté entre les mesures « user et site centric » comprenez entre les extrapolations d’un panel d’utilisateurs et les données des outils basés sur le marquage des pages. J’ai dejà mentionné plusieurs épisodes de cette saga ici et  avec en particulier la demande de certification des mesures d’audiences par des grands annonceurs américains.

Cette fois selon Adweek il s’agit de revoir les méthodes des deux instituts et exiger la transparence. Même si l’article ne mentionne pas tous les détails un des gros problèmes des panels vient de la sous représentation des utilisateurs de l’internet sur le lieu de travail. La réalité c’est que les mesures proviennent très largement d’utilisateurs grand public. Par exemple en France le panel « Work » de Nielsen (Mediamétrie) est en partie composé de personnes figurant déjà dans le panel grand public. Du coup les sites d’information professionnels soupçonnent une large sous estimation des mesures pour des sites essentiellement utilisés la journée sur le lieu de travail.

Au passage je salue l’arrivée de Benoit Cassaigne (ex RTL.net) chez Mediamétrie qui a la dure tâche de reprendre ce dossier et l’amélioration des mesures d’audience. Mediamétrie, qui représente Nielsen Netratings en France, vient par ailleurs d’instituer une commission d’autorégulation composée d’acteurs du marché (Disclosure: les Echos en font partie) chargée d’identifier les « mauvaises pratiques » susceptibles d’influencer les mesures du panel. En ligne de mire: les pages co-brandées ambigues, la pratique discutable (hum hum!) du site under (qui attribue faussement l’audience d’un site à une page d’un autre site appelée en sous impression, certaines pages lancées automatiquement pour doper les stats … etc.

Bref en France comme aux Etats-Unis le marché devient plus exigeant, la seule façon de justifier les investissements publicitaires massifs mais convenablement ciblés. J’ai encore, à l’occasion d’une réunion de travail chez Mediamétrie,  souvenir d’un représentant d’une agence spécialisée dans l’achat d’espaces à qui je démontrais l’existence d’un biais de plusieurs millions (oui, oui) de visiteurs uniques soit prés de 10% de parts de marchés fictifs, attribués abusivement à un site qui me rétorquait que je « pinaillais »! Il semble que cela ne fasse plus rire personne… 

Convention e-Commerce Paris: l’obsession du ROI

Un mot pour dire tout le bien que je pense de la Convention e-Commerce qui se tient du 12 au 14 septembre Porte Maillot à Paris. Après un tour rapide aujourd’hui j’y retourne très probablement demain et apres demain: les conférences font salles combles pour ce que j’en ai vu. C’est un spectacle étonnant car ce genre d’événement n’aurait pas forcément attiré autant de monde il y a encore 2 ou 3 ans. Pas de doute la marché est en train d’évoluer très vite et je prédis un raz de marée sur les outils d’analyse d’audience de seconde génération en 2007. 

Le culte du ROI (le retour sur investissement pour les non initiés) bat son plein et je suis littéralement impressionné par les capacités des outils d’analyse, qu’il s’agisse de l’analyse de sites web ou des emailings. Cela aura une conséquence pratique: l’émergence de nouveaux métiers autour de l’analyse, dans toutes les sociétés ayant des activités en ligne. Je suis abonné depuis peu à une liste de diffusion réservée aux spécialistes du « web-analytics » et sur le marché US il n’y a pas une journée sans que circulent plusieurs offres d’emplois sur ce secteur. Des offres à pourvoir dans l’urgence, et c’est un euphémisme. J’espère sincèrement que le phénomène suivra en France d’ici peu. Jeunes diplomés, vous voilà prévenus la demande va exploser…

> Attention tout de même les outils ne font pas tout, a capacité d’absorber et exploiter l’afflux d’informations est un enjeu à ne pas sous estimer (voir la règle des 10/90)
> Rappel sur le nouveau service de Google pour suivre les campagnes de mots clés sur les réseaux concurrents…
> L’agenda des conférences de la Convention e-Commerce

Analyse d’audience: la règle des 10/90

Le problème avec le blog de Fred Cavazza, c’est que l’on pourrait passer des heures à commenter chacun de ses billets, c’est peut -être ça un blog de référence… Cette fois il aborde un point intéressant de la cuisine interne d’un site web, l’analyse d’audience et la règle des 10/90. Une règle résumée ainsi: « si vous investissez 10$ dans une solution d’analyse d’audience, alors vous devrez investir 90$ dans l’analyse et l’interprétation des données recueillies ». En clair pas besoin d’investir dans de coûteux outils d’analyse d’audience si l’on ne peut en exploiter les données faute de ressources humaines ou faute d’une organisation prête à les intégrer dans sa stratégie.

Concernant la presse en ligne je ne sais plus qui disait (le patron du New York Times je crois) qu’un site d’information devait préserver sa mission éditoriale mais « se gérer comme un portail ». Il ne voulait justement pas identifier la presse en ligne comme un portail mais au contraire signifier que l’optimisation d’un site d’information, sa rentabilité imposait d’utiliser les méthodes de gestion de l’audience des portails. Des méthodes qui passent par une effroyable et impitoyable mathématisation de l’ensemble des flux d’audience, des clics, des requêtes. Mine de rien, une petite révolution.

Comme Fred Cavazza je pense que les outils d’analyse sont actuellement largement sous exploités sauf peut-être par les sites marchands pour qui ils représentent une question vitale. Une situation qui explique le manque de réaction du marché français aux polémiques autour du ROI, de la fraude aux clics. Une situation qui devrait vite changer, le transfert des investissements vers le web et la monétisation du recrutement de l’audience (en grande partie par les mots clés) conduisant à la nécessité d’un contrôle serré du ROI. Un ensemble de méthodes identifiées sous le terme Web-analytics dans le monde anglo-saxon. L’année 2007 en France sera, j’en suis persuadé, décisive pour le marché services d’analyse d’audience. Ils n’auront plus à convaincre les webmasters mais des marketeurs et les directions financières.

Lire aussi:

> The 10/90 Rule for Magnificent Web Analytics Success du blog de référence sur le sujet Occam’s Razor.
> « Vers la règle du clic unique ? » passionnante mais technique discussion sur l’optimisation des sites
> Le blog Pages Vues de Benoit Arson, plein de petits trucs et conseils techniques
> Télécharger le Livre Blanc Web analytique, l’émergence d’une nouvelle activité du site de référence Web-analytique.com

Google: un suivi multisupport pour les évaluer tous et les lier…

Je me suis replongé aujourd’hui dans l’interface de Google AdWords le service de gestion des campagnes de mots clés. J’y ai découvert à quel point l’intégration des outils de Google était poussée, je savais que le titulaire d’un compte Gmail pouvait utiliser son mot de passe pour accéder à Adwords, Google Analytics etc… Je ne savais pas en revanche que la réciproque était vraie. Les clients Adwords sont donc de facto clients potentiels, à un clic de validation prêt, de tous les autres services de google. Impressionnant. Toutefois une nouvelle fonctionnalité m’a fait sourire: le « suivi des conversions ».

 google-multisupport.gif

Tout annonceur est évidemment intéressé par le calcul de ROI et quand il utilise plusieurs plates-formes comme Miva, Overture et Adwords il est souvent fastidieux de jongler entre les rapports de campagnes. C’est là que Google fait très fort en proposant le plus simplement du monde de rassembler ces données. Ce que Google appelle pieusement « un suivi multisupport« . En clair on vous propose ni plus ni moins de placer les codes de tracking de Google sur les campagnes diffusées sur les réseaux concurrents… Et Google récupère ainsi les données de vos campagnes hors de son réseau. Pratique, n’est ce pas?

C’est tellement pratique et gros à la fois que plus rien ne m’étonne. Du grand art. Finalement je crois que je vais directement leur envoyer les bouquins de ma bibliothèque pour qu’il les numérise. Ca m’économisera le cambriolage de mon appartement. Autant ne pas contrarier Google…

Forbes et le New York Times sont dans un bateau …

C’est un peu l’histoire d’une bagarre de cour d’école ou de happy slapping mais il me semble qu’elle n’est pas si anodine et montre que l’analyse de l’audience des sites médias fait l’objet d’une attention soutenue aux Etats-Unis. Au départ, le 28 aout,  un étonnant article du New York Times explique que l’audience du site Forbes.com ne respire pas la rose. En clair, une bonne part provient du site associé Forbesautos.com ce qui laisse supposer que le public select et CSP +++ de Forbes.com pourrait en réalité être composé de millions Jacky fanas de pots d’échappement. Du coup le NYTimes.com met en doute la réalité de l’audience et du leardership de Forbes. Lequel, pas content, accuse le quotidien d’hypocrisie sur fond de polémiques statistiques.

En fait la querelle des statistiques d’audience est un grand classique. Les médias communiquent en général sur les données « user centric » issues des panels de Comscore ou Nielsen Netratings, lesquels font abstraction de l’audience internationale des sites qui peut représenter jusqu’à 50% de l’audience réelle. Un mic mac déjà expliqué sur ce blog qui devient assez sensible à mesure que la guerre du CPM fait rage. Je note que Forbes s’est abstenu de souligner que l’ambiguité pouvait aussi concerner le NyTimes avec son site About.com dont on peut s’interroger sur son positionnement face au site du quotidien. Bref pas simple de construire une stratégie cohérente d’audience.

L’occasion de découvrir aussi le remue-ménage qui semble secouer la rédaction de BusinessWeek si on en croit les commentaires et l’article de la Columbia Journalism Review qui pointent les contenus bas de gamme qui peuplent de plus en plus les colonnes du magazine et de son site web afin de générer un trafic facile et une audience pas vraiment aussi exigeante que le lectorat habituel… Un conflit sur la stratégie éditoriale qui aurait déjà provoqué le départ de nombreux membres de la rédacion.

Ces anecdotes montrent à nouveau le dilemne des sites medias tentés de gagner quelques points d’audience par des contenus sans rapport avec leur positionnement initial. J’ajouterai bien au débat celui des blogs de lecteurs… Ce qui me frappe aussi c’est que visiblement ces pratiques suscitent un vrai débat et sont prises très au sérieux. Je me demande quand ce type de débat aura lieu tout aussi publiquement en France. On en est loin ..  

La certification des mesures d’audience exigée par les annonceurs américains

J’ai déja abordé ce sujet délicat ici et avant de prédire que le feuilleton ne faisait que commencer. C’est au tour des annonceurs US de s’organiser pour exiger des éditeurs en ligne une certification des mesures d’audience comme nous l’apprend cet article de ClickZ News intitulé « Advertisers demand accountability« . Le processus a commencé en 2004 à l’initiative de l’IAB (Interactive Advertising Bureau) avec pour objectif d’assainir les pratiques de mesure d’audience. Pas besoin d’expliquer que si une telle demande est devenue indispensable c’est que ces mêmes pratiques ont parfois un petit goût de frelaté…

En France une démarche identique s’organise autour des principaux acteurs, OJD en tête pour les éditeurs mais également l’IAB France, l‘UDA et Mediamétrie. La démarche de l’OJD consiste à labeliser les outils de mesure et de réunir les éditeurs pour s’accorder sur les « bonnes pratiques ». pour l’instant c’est un peu l’histoire de Blanche Neige et les septs nains mais les efforts portent peu à peu leurs fruits à mesure que le marché se professionnalise et gagne en maturité. Cette exigence nouvelle est une tendance très positive et mène à structurer le marché publicitaire et valoriser la production de contenus de qualité pour un public exigeant dont il faut chaque jour cerner un peu plus les spécificités.

A l’heure où certains confondent l’audience de Myspace.com avec celle du New York Times le marché a bien besoin de cet effort. D’ailleurs je me demande si les déclarations du patron de Google Eric Schmidt sur ce thème (il veut étendre le réseau aux nouveaux contenus multimedia et en évaluer la performance) ne sont pas liées à cette nervosité ambiante face au fourre-tout de la pub au CPC ou au PPC. Certains s’inquiètent déjà ouvertement de l’impact négatif de Myspace.com sur la qualité et les performances du réseau Adsense/Adwords. Même Google doit désormais convaincre le marché.

Fraude aux clics: la réponse de Google

A lire absolument, le document rendu public par Google et intitulé « How Fictitious Clicks Occur in Third-Party Click Fraud Audit Reports » (doc au format .pdf). Le titre le dit clairement: pas question d’adopter un profil bas mais au contraire les sociétés ayant audité le réseau publicitaire en prennent pour leur grade. Google dissèque la méthodologie et tente de démontrer comment les instruments de mesures ont surévalué la fraude. En clair Google met en avant les clics « défectueux » plus que la fraude comme explication.

Au risque de surprendre je suis plutôt sensible à ces arguments, les estimations de fraudes me paraissant le plus souvent trop exagérées (à 20% ou plus). Je laisse volontiers le petit monde des spécialistes règler ses comptes car je pense que le problème est d’une autre nature: il est désormais établi qu’il existe un écart régulier entre le nombre de clics facturés et les visites effectives sur les sites des annonceurs. Cet écart n’est pas un simple problème technique, il signifie que Google surévalue sa prestation. Il signifie aussi que tous les outils de mesure, de calculs de ROI ont systématiquement surévalué ce ROI. Il signifie que les calculs de retours sur investissement, qui se mesurent au centimes près, sont faux. Depuis de longs mois, des années.

On comprend mieux que la bourse continue de sanctionner Google et reste insensible aux mega deal avec Fox Interactive, c’est tout le chateau de cartes qui est ébranlé. Une grande partie de l’économie du web reposant sur ces quelques centimes d’écart. Pour tout dire je suis assez étonné de voir l’absence de réactions ou de commentaires en France alors que la polémique fait rage outre-Atlantique. Faute de maturité du marché probablement, à moins que les professionnels aient fini par intégrer ces écarts dans leurs budgets…

Je l’ai déjà écrit sur ce blog lors de mes expériences de campagnes de mots clés j’ai toujours constaté des écarts pouvant osciller entre 10 et 20%. Je viens d’apprendre d’un annonceur français du réseau qu’il avait reçu le premier rapport de campagne de Google attestant d’un écart estimé à 10%. En clair vous croyez fixer une enchère à 0.20 euros et en réalité tout se passe comme si elle était fixée en cachette à 0,22 euros. Le ROI tient souvent à moins que çà. J’apprend au passage que l’annonceur n’est pas remboursé mais se voit accorder une sorte de crédit supplémentaire, une manière d’allonger sa campagne en compensation. Cela pourrait passer pour sympathique s’il s’agissait d’un épicier de quartier, là on s’inquièterait plutôt.

Sur la forme je suis assez prêt à croire qu’une partie de l’écart s’explique par des clics « non-aboutis », il m’est arrivé de contaster ce genre d’erreur au hasard d’un clic. Mais sur le fond, la question de confiance reste intacte.  Fraude ou dysfonctionnement, comment ne pas douter d’un système avant tout basé sur un calcul micro-économique.

Lire ausi les réactions sur Publishing 2.0, John Battelle
Pour en savoir plus sur la fraude aux clics, la synthèse sur Alchemist Media

MAJ : je découvre avec retard l’excellent billet de Jean-Marie Le Ray sur le sujet 

Journalisme citoyen, bientôt les soldes

J'ai toujours considéré Ohmynews.com comme le seul exemple prometteur de journalisme citoyen même si j'ai déjà pu en signaler les faux semblants. Je crains désormais que ce concept ne soit plus qu'un succès de conférence, en même temps j'admets bien volontiers qu'il nous aura appris quelques leçons très utiles pour rénover nos bons vieux medias. La raison de ma déception se résume par cette courbe de tendance sur les deux dernières années:

graph-ohmynews.png

voir la courbe en gros plan ici :
http://www.alexaholic.com/ohmynews.com

Comme on le voit l'heure de gloire est passée depuis longtemps. La question qui se pose au delà de l'engouement de départ c'est si le contenu n'est plus en adéquation avec les attentes des lecteurs où si le concept même n'est qu'un feu de paille. Je crois pour ma part que la troisième voie réside plus dans la capacités des medias professionnels à accueillir la parole des lecteurs, leur autorité afin d'accepter la remise en cause. En somme quelque chose qui tient de la vigilance citoyenne et de l'intérêt commun bien assumé. En attendant j'y vois une nouvelle raison de se méfier du buzz et des verdicts hâtifs.

Voir aussi “Le journalisme citoyen face aux défis de la professionnalisation"

Note: je n'ai aucune confiance dans l'estimation des volumes d'Alexa (dont les statistiques proviennent des usagers de la toolbar Alexa) mais les tendances semblent en général assez pertinentes.  

Mesure d’audience des blogs: le cas BoingBoing

MAJ Aout 2006: de nouvelles données concernant Boing Boing ont été publiées et peuvent remettre en cause l’analyse ci-dessous (à confirmer) 

Je découvre un peu par hasard une initiative louable du blog Boingboing.net qui donne accès à ses statistiques de trafic. Boingboing.net, comme beaucoup le savent, fait partie des indétronables blogs les plus populaires du top 100 de Technorati où il occupe la deuxième place. Pour un utilisateur non averti Boingboing est un blog qui semble disposer d’une audience mensuelle de 2,5 M de visiteurs uniques pour 26 M de pages vues et 10 M de visites. Impressionnant même si bizarrement je m’attendais à beaucoup plus au regard du classement de Technorati.

web_analytics.jpgDes stats erronées
Seulement en y regardant de plus près j’ai été surpris de découvrir qu’en réalité les statistiques étaient totalement faussées par l’absence d’un rigoureux filtrage des données. Un problème qui n’est pas anodin car après plusieurs années passées à auditer précisément les stats des sites de CNET j’ai rapidement découvert que la plupart des sites ne disposant pas de mesures par des outils certifiés ont une vision totalement surévaluée de leur audience (de bonne foi le plus souvent). Beaucoup sont surpris, par exemple à l’occasion d’un rachat de leur site, de découvrir que leur audience réelle est parfois inférieure de 50% ou plus de celle qu’ils mesuraient auparavant. C’est exactement ce que je constate en me plongeant dans celles de BoingBoing.

Pour faire court on y voit par exemple que les “pages” prennent en compte de nombreux fichiers XML correspondant aux flux RSS ce qui conduit en fait à mesurer des “hits” ou des requêtes des agrégateurs et autres serveurs feedbureurs. Parmi les visiteurs uniques on compte une trés large proportion de spiders, moteurs ou de serveurs de flux justement (voir par exemple la premiere adresse IP 65.169.109.22 qui correspond à un serveur de liens sponsorisés et qui génére à elle seule de supposées centaines de milliers de “pages”, en fait des hits). Les données des moteurs sont assez propres ainsi que celles des referers où l’on découvre que Netvibes est le 3eme site apportant du trafic derrère Digg.com et Bloglines.

Un trafic surévalué de 70%!
D’après mes estimations, je vous passe les détails mais faites l’évaluation vous mêmes en nettoyant les stats, Boingboing dispose en réalité d’un trafic compris entre 6 et 10 millions de pages vues . La correction est moindre sur les visiteurs uniques puisque le nombre d’IP comptées abusivement est limité contrairement aux pages vues qu’elles semblent générer. Mais comme ces visiteurs ne sont pas dédupliqués au mois on peut supposer ici aussi une correction sévère que je ne peux estimer. Bref le trafic généré est surévalué de près de 70% ! Des données indirectement confirmées par le rapport de la régie publicitaire Adbrite qui estime publiquement le trafic de Boingboing à plus de 200 000 pages par jours et 100 000 visiteurs uniques. On note au passage le taux de conversion sur les pubs particulièrement médiocre selon la notation même de la régie! Un cpc entre 0.05 $ et 1,49 $ selon le format publicitaire. L’emplacement publicitaire est par ailleurs facturé 300 $ par semaine soit un cpm max (si vous avez suivi) autour de 0.20 $ ! Une misère, on comprend pourquoi il faut charger la pages d’espaces pubs…

Je dois dire que même si ce type d’audience est tout à fait respectable je suis assez stupéfait de les découvrir aussi basses pour un site supposé de renommée internationale. Je me trompe peut-être mais je doute d’être très loin de la vérité sur ces chiffres. Preuve que ceux qui comparent sans cesse les audiences des blogs avec les medias traditionnels sans se préoccuper de la fiabilité des outils de mesure devraient rester très prudents. Ce qui me conduit à ce petit conseil pour tout ceux qui veulent professionnaliser leur activité éditoriale, qu’il s’agisse d’un blog ou non, choisissez un outil de mesure certifié (en priorité ceux labelisés par l’OJD), la plupart proposent une option gratuite pour disposer au minimum de données agrégées propres même si j’ai déjà eu l’occasion d’en souligner la limite et les défauts.

Précision: les données de Boingboing.net sont bien accessibles publiquement par choix de l’éditeur, enjoy !