Donc on en reparle, le patatage entre concurrents est malheureusement un phénomène cyclique qui dure depuis des années mais, c’est nouveau, la crise échauffant les esprits la presse s’en préoccupe. C’est bien dommage, le marché a plutôt besoin de sang froid en ce moment à mon avis mais, comme chacun sait, quand il faut purger mieux vaut y aller de bon coeur. Au menu les querelles des mesures d’audience du Monde.fr et du Figaro.fr au coeur de plusieurs articles, celui du Monde d’abord inspiré de celui d’Electronlibre (et la suite ici avec des commentaires bien informés) et enfin la  synthèse de Rue89.

Les lecteurs de ce blog ont pu lire de nombreux articles sur ce sujet sensible. Il se trouve que je participe depuis plusieurs années aux travaux autour des mesures  de Mediamétrie/Netratings comme client et comme représentant du Geste c’est à dire des éditeurs de presse en ligne. En parallèle je participais aussi aux travaux de l’OJD. Pour être bien clair, je ne suis pas neutre dans ce débat et proche des différents acteurs cités. Au cours de ces années je crois bien avoir vu de près la plus belle collection de tripatouillages qu’on puisse imaginer en matière de manipulation d’audience (de la part de certains sites sans que Mediamétrie ne soit en cause), pourtant, c’est paradoxal, la situation me semblait plutôt apaisée . Je veux dire que chacun a eu le temps de prendre la mesure de l’aspect très technique de ces questions ce qui contribuait à rendre moins violentes les polémiques. L’autorégulation se met en place. Devenu public ce débat donne lieu à pas mal de fantasmes auxquels il convient de répondre.

Pourquoi les mesures d’audience de Mediamétrie/Netratings diffèrent-elles de l’OJD? L’OJD ne mesure pas des "audiences" mais certifie les mesures de trafic réalisées sur les sites (site centric). On y parle donc de visites, de volumétrie. Mediamétrie mesure des audiences à partir d’un panel d’internautes (user centric), on y parle de visiteurs uniques, de parts de marché. Si vous visitez un site deux fois dans la journée à partir de deux PC différents l’OJD vous comptera deux fois, Mediamétrie essayera de vous compter une fois. L’OJD prendra en compte le trafic du monde entier, Mediamétrie uniquement en France. Conclusion : ces deux types de mesures ne peuvent donc pas être comparées.

Pourquoi utiliser Nielsen ou Mediamétrie/Netratings? Parce que les régies publicitaires, les annonceurs et les acteurs en charge du media planning ont besoin de connaître les "audiences" des sites pour la pertinence du ciblage publicitaire. La proportion d’hommes et de femmes, les revenus des ménages, les CSP ne peuvent pas être fournies par l’OJD ou les mesures dites "site centric". Calculer la meilleure affinité d’un type d’audience avec un site est une donnée fondamentale pour les campagnes.

Ben où est le problème alors? Ben on ne peut jamais connaître avec certitude le nombre de lecteurs d’un site. Rien que ça…

La fraude existe-t-elle? Oui, quand certaines techniques permettent de modifier la proportion de panélistes lecteurs d’un site. En extrapolant la mesure d’audience d’un site à partir à partir d’une fraction de panélistes toute variation du nombre de panélistes fera varier la mesure de l’audience totale de façon disproportionnée (100 panelistes de plus sur votre site vaudront comme 10 000 visiteurs uniques supplémentaires, par exemple) . Tout est là. Attirer 100 panélistes sur votre site aura donc le même effet que 10 000 lecteurs côté OJD. Sauf que ça coute moins cher et que rien ne dit que les 10 000 lecteurs supplémentaires  contiennent des panélistes… Ce qui explique pourquoi vous pouvez voir votre trafic en hausse côté OJD et en baisse côté Nielsen et inversement. Comme les régies publicitaires ont avant tout l’oeil sur Mediamétrie c’est là que la "créativité" prend tout son intérêt.

C’est quoi ces histoires de jeux concours? L’astuce est simple. Mediamétrie doit constamment renouveler son panel en le recrutant sur Internet. Elle a commis l’erreur d’en recruter aussi via des sociétés spécialisées dans le marketing direct et les jeux concours (dont l’objet est essentiellement de constituer des bases de profils). C’est aussi une population qui répond positivement aux sollicitations par email. Certaines sociétés de jeux concours contiennent donc une proportion accrue de panélistes, lesquels sont en plus particulièrement réactifs aux sollicitations marketing. En clair des gus qui se gavent de concours à longueur de journées. Certaines de ces sociétés ont compris le truc et démarchent directement les sites en mal de dopage. Suffit d’héberger les pages du concours et pour améliorer le rendement il suffit d’obliger à cliquer sur des liens ou bannières afin de valider les réponses au concours (quand je dis que les gars du porno ont tout inventé…).

Alors pourquoi certains disent que les jeux concours ca rapporte "peanuts" côté trafic? Parce que côté OJD 1000 gus qui répondent "Michel Sardou" pour gagner un appareil photo numérique et bien ça fait 1000 visites, donc peanuts. Sauf que ça peut faire 100 000 VU côté Nielsen qui comptent finalement en parts de marché.

Que fait la police? Ce n’est pas illégal. Pas mal de jeux concours permettent aussi de recruter réellement des utilisateurs, des abonnés, des lecteurs ou simplement animer un site. C’est un outil de prospection légitime simplement l’usage peut en être détourné. Au passage je remarque que certains critiquent l’achat de mots clés comme technique de fraude. Non c’est une technique légitime pour recruter de nouveaux lecteurs il n’y a pas de raison de s’en priver, le budget est la seule limite ainsi que le retour sur investissement parfois hasardeux (non je ne vise personne).

Pourquoi Mediamétrie ne fait rien? Mediamétrie protège avant tout l’intégrité de ses méthodes de calcul, les règles definissant le périmètre d’une marque, d’un site, la définition des infractions éventuelles doit faire l’objet d’un consensus de ses souscripteurs. Voilà pourquoi on retrouve autour d’une table: les régies, les associations des annonceurs et des éditeurs, bref les clients. Les règles évoluent mais chaque modification peut avoir des conséquences insoupçonnées. En vérité un gros travail a été fait par Mediamétrie pour maintenir le principe d’une autorégulation malgré les querelles incessantes. La pratique des sites under a ainsi pu être régulée correctement (intéressant tout de même de savoir qui en abusait à l’époque, mais je ne vise personne, ah si en fait).

La confusion du périmètre des marques? C’est un point clé pour comprendre une partie des querelles de chiffres. Beaucoup jugent évident de penser que quand on parle de "l’audience" online du Figaro ou du Monde il s’agit du trafic du Figaro.fr et Lemonde.fr. La plupart des journalistes des rubriques medias, de bonne foi, ont ainsi été roulés dans la farine par des communiqués de presse ambigus. En réalité il s’agit de l’audience des "marques" (ou Brand dans la terminologie Nielsen). Toute la question est de définir le périmètre de cette marque, c’est à dire en y incluant sous-domaines, pages co-brandée avec des partenaires etc… C’est ce qui explique par exemple l’évolution de l’audience de l’Express en décembre qui intègre désormais celles de l’Expansion et L’Entreprise, par le choix commercial assumé de ses éditeurs (les critiques oublient d’ailleurs de noter que pendant des années le Nouvelobs.com a aussi regroupé plusieurs marques)

C’est nouveau comme astuce? Et bien non, ce n’est rien d’autre que la variante internet de la stratégie consistant par exemple à vous livrer un supplément magazine papier dans votre journal du week end.  Les plus grands tirages de la presse TV doivent leur "audience" à ce mode de distribution. Pas méchant si c’est transparent pour les annonceurs.

Alors on fait quoi? Je ne vais quand même pas vous le dire ici alors qu’on doit en causer dans quelques jours…
Le paradoxe de cette polémique récente c’est qu’elle survient alors qu’un grand nettoyage a justement été entrepris par Mediamétrie en accord avec ses clients à l’occasion de la mise en place du nouveau panel, en particulier autour de la définition des marques. Ainsi la notion de "réseau de marque" (Brand Network) a disparu des classements Nielsen, ils permettaient d’agréger des audiences de différentes marques afin de constituer un package commercial plus visible. Toutefois la notion de cobranding (sites ou pages comportant deux marques) est désormais au coeur de la question en permettant de fusionner des audiences de sites différents. Le cobranding est par ailleurs tout à fait légitime quand il s’agit d’intéger un service d’un partenaire ou isoler un environnement thématique (tiens, Eco89 et Rue89 par exemple ou E24 et 20minutes.fr). Pas simple d’interdire ou de fixer des règles strictes. C’est tout le point des prochaines discussions.

J’essayerai dans un prochain billet d’expliquer pourquoi ce débat est malheurusement très contre productif et pourquoi il est important de revenir à une stratégie de construction d’audience cohérente, propre à tout media soucieux de sa marque (bien résumé ici par P. Jannet). Aussi parce que tout ceci n’aurait pas eu lieu si la course au trafic à tout prix n’avait été la réponse insensée à la chute des CPM et des revenus publicitaires. On récolte aussi ce qu’on mérite…

Alors que le débat sur les critères de mesure d’audience est loin de s’apaiser Nielsen crée l’événement en annoncant que la durée totale des visites devenait un des nouveaux critères principaux retenus pour la mesure d’audience (voir le communiqué de Nielsen//Netratings ici). Le problème est toujours le même: comment s’écarter du débat autour des mesures volumétriques comme les pages vues ou les visiteurs uniques, pour privilégier les critères qualitatifs, représentatifs de l’implication des utilisateurs (le "user engagement"). Pourquoi pas la durée des visites…

Contrairement à ce qu’on a pu dire ici ou il ne s’agit pas de remplacer la mesure des pages vues qui de toute façon n’a jamais été le point fort des mesures par panel mais simplement d’ajouter un indicateur. Il y a une certaine logique dans ce choix, la guerre entre les différents supports medias consiste au fond  à s’approprier l’attention des lecteurs et leur temps de loisir. La mesure du temps est donc le point de convergence de tous les medias: radios, télés, web, papier…

Evidemment tout ceci serait trop simple si la mesure de la durée des visites n’avait pas ses propres limites. Au premier regard le classement des medias s’en trouve bouleversé: Google abandonne quelques places et les réseaux sociaux ou les sites de videos gagnent du terrain. Problème c’est aussi la prime aux applications: les Yahoo, AOL et MSN se retrouvent dopés par l’usage des messengers, par définition souvent ouverts en permanence la journée. Résultat on peut passer d’une durée moyenne des visites de plusieurs heures à quelques dizaines de minutes selon que l’on prend en compte ou non les "applications" (une option activable de l’interface Nielsen). Vous comprenez pourquoi Google et Yahoo ont récemment entrepris d’intégrer les messengers aux pages web personnalisables…

Bref il faudra encore beaucoup de vigilance pour analyser les données issues de cette mesure et en particulier pour comprendre ce qui peut générer des écarts atypiques. Pas très différents des pages vues finalement. Exemple: les 56 pages vues par personne sur Myspace ne sont pas fruit du User Engagement mais d’un design volontairement conçu pour exagérer le volume de pages. Mais d’un autre côté c’est bien parce qu’il y a du "user engagement" que les utilisateurs acceptent de supporter ce cauchemar. Pas simple …

L’IAB US l’annonce dans un communiqué, la querelle sur la mesure d’audience qui l’opposait à Comscore et Nielsen Netratings a pris fin. Les parties ont accepté le principe d’un audit de leurs mesures par un cabinet indépendant. Les différences observées entre les données statistiques reccueillies auprès des deux concurrents ainsi que les méthodes de constitution des panels avaient provoqué une crise de confiance et quelques menaces hautes en couleurs.  

Conclusion provisoire mais logique, personne n’ayant vraiment intérêt à discréditer les principaux instruments de mesure d’audience. L’important étant d’arriver à un consensus des différents acteurs du marché sur un certain niveau de fiabilité des mesures et d’en accepter les limites.  De son côté l’IAB s’engage à clarifier les définition des principaux indicateurs (temps de session, pages vues, etc…).

Ceci explique peut être cela mais Randall Rothenberg le tout nouveau président de l’IAB USA (interactive Advertising Bureau) démarre son mandat en fanfare en demandant publiquement aux deux principaux services de mesure d’audience users centric (panel) Comscore et Nielsen Netratings de se soumettre à un audit technique. A cette heure les deux mesureurs n’ont pas encore répondu. Les relations entre l’IAB et les deux piliers de la mesure d’audience est assez fraîche comme je l’ai déjà signalé en septembre dernier. Pas toujours pour de bonnes raisons d’ailleurs mais surtout parce que les tensions du marché ne peuvent plus se satisfaire des différences de chiffres. Il s’agit donc de pouvoir juger en profondeur des méthodologies utilisées par les deux acteurs.

Je ne prendrai pas trop de risque en disant que la valorisation des acteurs du Web 2.0 s’effectuant sur le compte des visiteurs uniques (faute de chiffre d’affaires conséquent) la polémique dépasse la simple querelle entre experts. On comprend la nervosité du marché. Pour info je précise qu’en France si les tensions ont pu exister, Médiamétrie//Nielsen réunit régulièrement ses souscripteurs pour exposer sa méthodologie et recevoir les critiques (et on ne s’en prive pas). Depuis quelques mois la mise en place d’un comité d’autorégulation permet d’ailleurs d’y régler les litiges en famille. Visiblement les pratiques semblent différentes aux USA.

> Lire l’article de Mediapost sur le sujet
> Mes autres billets sur la mesure d’audience (un jour je ferai relier tout ça)

Le ton monte aux USA pour critiquer la fiabilité des mesures d’audience basées sur des panels (user centric) par Nielsen Netratings et Comscore Media Metrix. A lire cet article bien renseigné de Adweek.com "Web execs question metrics". En cause l’écart grandissant constaté entre les mesures "user et site centric" comprenez entre les extrapolations d’un panel d’utilisateurs et les données des outils basés sur le marquage des pages. J’ai dejà mentionné plusieurs épisodes de cette saga ici et  avec en particulier la demande de certification des mesures d’audiences par des grands annonceurs américains.

Cette fois selon Adweek il s’agit de revoir les méthodes des deux instituts et exiger la transparence. Même si l’article ne mentionne pas tous les détails un des gros problèmes des panels vient de la sous représentation des utilisateurs de l’internet sur le lieu de travail. La réalité c’est que les mesures proviennent très largement d’utilisateurs grand public. Par exemple en France le panel "Work" de Nielsen (Mediamétrie) est en partie composé de personnes figurant déjà dans le panel grand public. Du coup les sites d’information professionnels soupçonnent une large sous estimation des mesures pour des sites essentiellement utilisés la journée sur le lieu de travail.

Au passage je salue l’arrivée de Benoit Cassaigne (ex RTL.net) chez Mediamétrie qui a la dure tâche de reprendre ce dossier et l’amélioration des mesures d’audience. Mediamétrie, qui représente Nielsen Netratings en France, vient par ailleurs d’instituer une commission d’autorégulation composée d’acteurs du marché (Disclosure: les Echos en font partie) chargée d’identifier les "mauvaises pratiques" susceptibles d’influencer les mesures du panel. En ligne de mire: les pages co-brandées ambigues, la pratique discutable (hum hum!) du site under (qui attribue faussement l’audience d’un site à une page d’un autre site appelée en sous impression, certaines pages lancées automatiquement pour doper les stats … etc.

Bref en France comme aux Etats-Unis le marché devient plus exigeant, la seule façon de justifier les investissements publicitaires massifs mais convenablement ciblés. J’ai encore, à l’occasion d’une réunion de travail chez Mediamétrie,  souvenir d’un représentant d’une agence spécialisée dans l’achat d’espaces à qui je démontrais l’existence d’un biais de plusieurs millions (oui, oui) de visiteurs uniques soit prés de 10% de parts de marchés fictifs, attribués abusivement à un site qui me rétorquait que je "pinaillais"! Il semble que cela ne fasse plus rire personne… 

Après plusieurs mois d’hibernation je me réveille dans la France d’après Hadopi. Pour être franc j’ai eu un peu de mal avec l’hystérie pro et anti Hadopi qui a littéralement laminé tout débat constructif  (je me reconnais un peu dans le constat désabusé de JM Planche par exemple). On en reparlera.

A l’occasion d’un contrôle de routine des stats Nielsen je découvre que l’audience du plus populaire service p2p en France est en net déclin depuis janvier 2009.  Du coup la question se pose: ne serait-ce pas un début d’effet Hadopi? Sur la courbe ci-dessous extraite des données de l’ancien panel de Nielsen, j’ai ajouté l’audience de PirateBay, beaucoup plus modeste et en hausse légère pour montrer que le report de trafic ne s’est pas fait de ce côté. Ceci malgré une notoriété dopée par la couverture médiatique de son procès.

La courbe montre qu’Emule a perdu près d’un million d’utilisateurs en quatre mois, de 5 millions à 4 millions de visiteurs uniques.  (Les données sont exprimées en visiteurs uniques)

Audience Nielsen 2009 de Emule et Pirate Bay en France

Audience Nielsen 2009 de Emule et Pirate Bay en France

(Emule est depuis longtemps dans le collimateur des FAI, certains filtrant les ports utilisés par ce logiciel pour communiquer mais ces filtrages existaient en 2008 rien ne prouve qu’ils soient à l’origine du déclin)

C’est John Battelle, incontournable googologue qui a recueilli la déposition de Giuan Fulgoni, Président de Comscore. Comme on peut s’y attendre il défend la valeur ajoutée de son service et explique à juste titre que Comscore propose une anlayse de l’audience plus poussée que Ad Planner. C’est l’avantage de l’expérience du panel, la remarque vaut pour Nielsen, ces services sont capables de détailler les données socio démographiques et certaines caractéristiques comportementales des internautes alors que l’outil de Google semble (si on en juge aux quelques infos disponibles) reste sommaire.

Conclusion: comme Google Analytics Google propose avant tout un service d’entrée de gamme pour des entreprises ne pouvant se payer les deux Rolls du secteur. Perfide il rend compte de certaines observations sur les écarts statistiques entre les différents outils de mesure. Un terrain plutôt glissant quand on connaît l’interminable débat sur la fiabilité des outils users centric (par panel). Je suis toutefois assez d’accord avec ses arguments malgré ce que j’ai pu dire hier il n’y a pas de mort programmée de Comscore ou Nielsen. Comme d’habitude Google se positionne juste en dessous, raflant le marché de masse. Reste à savoir si Ad Planner parviendra à convaincre les agences et les media-planneurs…  

Google est notre ami. Il se balade chez nous, dans toutes les pièces. Il ne touche à rien mais regarde un peu partout.  Parfois, parce que c’est notre ami, on lui prête un caleçon et des chaussettes. Pas de gêne entre nous, après tout il nous apporte chaque jour des cookies. Seulement ce matin le potos s’est fait la malle avec tous nos caleçons. Le voilà qui se balade sur la place du village et commence à exposer nos sous-vêtements devant l’épicerie.

En quelques jours Google vient de prendre deux initiatives qui déshabillent littéralement l’ensemble des acteurs du Web. Avec la nouvelle option "websites" de Google Trends il propose une estimation précise du trafic d’un site (il faut s’enregistrer pour faire apparaitre les données volumétriques). Avec Ad Planner il fournit aux annonceurs des informations sur l’audience du site,  volume et données socio-démographiques. Données exportables dans les outils de media planning. Des données accessibles gratuitement aux annonceurs. Une mise à mort programmée des Comscore, Nielsen.

Comment Google peut-il réaliser ça?

Simple, quand vous indexez la quasi totalité du web, que vous monopolisez 90% des requêtes d’utilisateurs, que vous mesurez directement les flux de trafic de certains sites (via Google Analytics), que vous représentez 40 à 70% de l’apport de trafic moyen d’un site et que vos cookies conservent les habitudes de consommation des utilisateurs il ne reste plus grand chose à savoir sur vous. Votre nom? Ouvrez-donc un compte Gmail…

Pourquoi gratuit?

C’est une question qui peut paraître incongrue alors que plus personne de s’étonne de la légereté avec laquelle le Web 2.0 traite la question de la monétisation. Pourquoi fournir ces données gratuitement? Parce que Google peut se le permettre? Non. Enfin plus exactement oui il peut se le permettre, mais non je ne pense pas que ce soit la raison fondamentale. On sous estime, je pense, le caractère profondément idéologique de la démarche de Google, depuis les premiers jours de sa fondation. On peut brocader le "Do no evil" mais même Eric Schmidt confesse qu’il ne s’agit pas d’une lubie d’étudiant. L’assertion fondamentale "Google veut aider les gens à trouver ce qu’ils cherchent" (lire l’histoire de Google) contient bien plus de significations qu’il n’y paraît.

Google veut rendre l’information accessible à tous non comme une gigantesque entreprise de distribution mais en anihilant ses coûts. La valeur marchande de l’information tend vers zéro non parce qu’elle prolifère mais parce qu’un moteur de recherche omniscient supprime les barrière d’accès et le facteur de rareté. La gratuité absolue des outils de recherche est le facteur indispensable pour conduire à la gratuité de l’information. C’est une stratégie destructrice pour ceux qui vivent de l’information, elle est voulue, calculée, tout au moins assumée.

Pourquoi?

Des souvenirs d’étudiants en économie me hantent chaque jour un peu plus à mesure que j’observe le développement de l’internet. En particulier les souvenirs, terriblement ennuyeux, des multiples exercices de modélisation mathématique des théories néolibérales. Je constate chaque jour un peu plus combien internet incarne les fantasmes des théoriciens de l’économie. Gloser sur la main invisible d’Adam Smith n’est pas nouveau, mais construire le modèle absolu du marché avec une fluidité parfaite du mécanisme de l’offre et la demande  n’est pas une chose banale.

Rien n’est encore parfait ni absolu dans l’ecosystème numérique mais une barrière fondamentale est en train de tomber, et je pense c’est le sens de la démarche de Google. Un des prérequis fondamentaux de l’économie néolibérale consiste à permettre aux acteurs de l’économie d’accéder aux informations du marché dans des conditions de transparences absolues. La fixation du juste prix en découle. Nul n’osait en rêver, il s’agissait avant tout d’une construction mathématique. Avec une conséquence politique notable: on accordait à l’Etat la mission de faciliter l’accès à l’information, ce qu’il s’est de tout temps empressé de faire de façon très partielle puisque du contrôle de l’information naît le pouvoir…

Le problème?

Il est devant nous, il est titanesque. Personne n’aurait osé imaginer que l’accès à l’information et sa fluidité reposerait un jour entre les mains … d’une entreprise privée. En d’autres termes Google est en train de mettre en place les fondamentaux d’une économie néolibérale en détruisant barrières traditionnelles de l’industrie et des Etats. Séduisant? Certainement.

Certainement Si on passe que Google est lui même un acteur économique et non un acteur politique. Si on passe sur le fait que les revenus de Google proviennent désormais moins de la vente de service que de la ponction financière des échanges économiques qu’il induit lui-même, ni plus ni moins qu’un baron du Moyen Age au croisement d’une route commerciale. Une taxe. Un impôt.

Lors du rachat de Google Analytics puis de Doubleclick certaines voix se sont élevées pour critiquer la position dominante d’un acteur qui contrôle désormais la distribution, l’accès à l’information, la mesure d’audience, la régie publicitaire pour son seul profit. De quoi s’agit-il? De l’ensemble des mécanismes de marché régulant la fixation des prix. Paradoxe effrayant, Google, ce monstre issu du fantasme d’une économie néo-libérale épurée, contrôle les prix parce qu’il contrôle désormais les voies commerciales et l’accès à l’information.

Les autorités de régulation n’y ont vu que du feu, faut-il s’en étonner?

Un peu de rigolade. Vu aujourd’hui via Nielsen, les cinq plus importants sites référants (qui apportent du trafic) d’un site orienté commerce recemment dézingué par Google (qui sanctionne durement depuis plusieurs mois les sites trop chargés de liens):

fr.abcvisiteurs.com
http://www.easyprog.info
http://www.01autosurf.com
http://www.simply-surf.info
autohits.videoserie.net

Amusant non?

Ca couine sérieusement sur les blogs d’experts à propos de l’évaluation du nombre d’abonnés aux flux RSS. Des chiffres popularisés par l’outil de mesure Feedburner et son petit compteur affiché par de nombreux blogs et Google Reader qui affiche désormais ce type de données. J’avais déjà signalé il y a un an des problèmes liés à l’émergence de nouvelles plateformes d’agrégation RSS comme Netvibes qui avaient bousculé les stats de feedburner. Cette fois le problème relève moins du problème technique que de la gonflette involontaire.

En clair on découvre des variations brutales ou des évolutions stratosphériques qui touchent souvent des blogs déjà très populaires. Parmi plusieurs causes possibles la promotion artificielle des flux RSS de ces blogs dans des "packages" préchargés ou mis en avant lors de l’inscription aux services de type Google Reader.  Une pratique qui n’a rien de scandaleuse (au contraire elle donne une prime aux blogs les plus populaires) mais qui génère une audience artificielle qui ne consulte pas, en réalité, le contenu des flux. Peter Cashmore, auteur du site Mashable.com, démontre   la corrélation entre l’inflation des stats et la présence des flux RSS concernés dans les packages promotionnels mais surtout il explique que les sites ayant redirigés leurs flux via d’autres instruments de mesure ont vu fondre leur "nombre d’abonnés".

Une démonstration qui montre que les stats ne correspondent pas à une mesure d’usage réelle mais qui surtout tend à prouver que les instruments de mesure ne détectent pas l’absence d’utilisation de ces flux. Une situation qui m’étonne un peu car jusqu’à présent j’ai pu observer des périodes de croissance et de décroissance du nombre d’abonnés ce qui tendait à prouver que la mesure était élastique. Certes personne n’a jamais affirmé que l'"abonnement" à un flux valait pour usage. Apres tout personne ne demande à l’abonné d’un magazine s’il le lit. Sauf qu’il le paye…

Comme tout le monde je m’interroge sur l’absence de corrélation entre une nombre vertigineux d’abonnés aux flux RSS et l’absence d’un niveau d’audience du site proportionnel. Par exemple Techcrunch France affiche plus de 120 000 abonnés aux flux RSS mais Nielsen Netratings est presque incapable de détecter l’audience du site web ce qui suppose un nombre de visiteurs uniques inférieur au minimum requis par la méthode du panel (soit moins de 30 000 alors que l’audience du blog de Loïc Lemeur est détectée régulièrement, même au delà du seuil de validité fixé à 100 000 visiteurs uniques, ceci avec 25000 abonnés). Pour être complet il faut signaler que Techcrunch propose l’intégralité de ses contenus dans le flux RSS ce qui peut expliquer au moins partiellement le manque de report sur le site.

Il ne s’agit pas de remettre en cause ici la qualité de tel ou tel blog puisque précisément les variations semblent toucher les blogs plus visibles et les plus connus  (Henri et Ouriel s’interrogent sur 2803.com et Techcrunch) mais il faut bien s’inquiéter de la fiabilité de la mesure et son utilisation en matière de communication commerciale.

Pour mémoire la question de la certification de la mesure d’audience du RSS a été posée à l’OJD début 2007, une commission spécialisée à laquelle j’ai participé a conclu à l’impossibilité de certifier une telle mesure. En cause le manque de fiabilité des instruments de mesure et les biais trop facilement exploitables de ce qui n’est qu’un instrument de type push media. En clair seule la mesure du trafic "entrant" vers le site web est sérieusement exploitable (et encore, elle est gonflée par l’effet des moteurs de recherche qui indexent les flux).

Pour info : le flux RSS d’Ecosphere compte plus de 1300 abonnés selon Feedburner mais la plateforme WordPress.com génère un second flux RSS d'"origine" qui comptait entre 500 et 800 abonnés supplémentaires. A cause du manque de fiabilité des mesures WordPress a récemment renoncé à diffuser l’audience des flux RSS, pour ces raisons je n’affiche pas la mesure, forcément partielle de Feedburner.

A l’occasion du Web 2.0 Expo à San francisco Netvibes a lancé ses Univers, en fait des pages perso qui deviennent… publiques!  Elles permettent aux utilisateurs de créer leur propre espace à partir d’un univers dejà en place. Un projet que j’ai suivi de près comme partenaire (voir l’univers pour lesechos.fr) et dont je n’exagererais pas en disant qu’il a mobilisé les équipes de Netvibes jusqu’à la dernière seconde avant le lancement…

Pour résumer sous Netvibes on pouvait partager ses flux RSS, ses modules interactifs puis ses onglets ou pages et désormais c’est l’ensemble de l’espace ou univers que l’on peut partager. Cela confirme que la vraie valeur ajoutée de Netvibes réside moins dans le principe de la page en Ajax (on ne compte plus les concurrents d’ailleurs je signale au passage le lancement de Itsmynews.com du camarade Jeff Mignon) que dans l’ecosystème, veritable annuaire de tous les éléments partageables, au coeur du dispositif viral.

netvibes-lesechos.jpg 

On en reparlera, j’ai volontairement placé la mention "béta" sur la page des Echos.fr car elle devrait évoluer. Vos avis sont d’ailleurs les bienvenus. L’expérience est intéressante car l’enjeu pour moi, et Netvibes aussi me semble-t-il, est de savoir si l’usage du RSS peut s’étendre au grand public de façon intuitive. L’autre motivation s’explique par ce que j’ai pu mesurer tout à fait par hasard sur Nielsen: les pages d’accueil personnalisées sont un facteur de fidelisation plus puissant que beaucoup d’espaces communautaires. Ca semble évident mais c’est toujours mieux quand on voit les chiffres…

A noter que j’en ai profité pour y glisser les premiers Podcasts des Echos.fr, ceux de notre correspondante à San Francisco Laetitia Mailhes (Bientôt sur iTunes …) pour la rubrique Innovation.  Fin de la pub, en fait j’expliquerai bientôt aussi le détail de notre nouvelle offre e-paper qui intrigue pas mal de monde, mais c’est aussi pour dire qu’en dehors du blog on bosse…

D’autres Univers ont été créés pour la presse française: Le Figaro, Elle, L’Equipe, 20 Minutes

C’est ce qu’on appelle une étude sur mesure. Quelques mois après avoir souffert de sérieuses critiques (surtout révélatrices de l’incompréhension des acteurs du marché) sur le marché américain pour ses chiffres d’audience éloignés des mesures sites centrics, Comscore contre-attaque en publiant une étude sur le phénomène des cookies effacés. Cette fois il s’agit de comparer l’effacement des "first party cookies" et des "third party cookies" comprenez ceux générés par le site visité, donc en général plus facilement acceptés, et ceux générés par un service tiers, par exemple ceux des services de mesures sites centric (Xiti, Weborama, Omniture, Webtrends et compagnie…).

D’apres Comscore, l’étude basé sur l’analyse de 400 000 PC, montre que les First party cookies sont effacés presque aussi souvent que les cookies tiers soit par près d’un utilisateur sur trois. Résultat Comscore estime que les mesures site centrics, basées sur les cookies, peuvent être faussées jusqu’à 150% soit 2,5 fois au delà de la réalité. Impossible de ne pas rapprocher ces chiffres de celui des pages vues que Comscore admettait pouvoir surestimer de 300%  (lire la réponse du PDG qui m’a répondu sur ce point). Bref la réponse du berger à la bergère.
[MAJ 18/04/07 : pour être précis suite à une nouvelle réaction du PDG de Comscore, il affirme que mon interprétation est erronée, on ne peut donc pas dire que Comscore "admet". Je maintiens toutefois mon analyse sur le fond. C'est compliqué mais je signale ce point de discussion].

Les chiffres de Comscore:

comScore Cookie Deletion Analysis – 1st Party Cookies* December 2006 Source: comScore, Inc.
Number of Cookie Deletions/Resets Percent of Computers Avg. No. of Cookies per Computer Percent of Cookies
Total Sample 100,00% 02/05/07 100,00%
1 or more 31,00% 04/07/07 58,00%
4 or more 7,00% 12/05/07 35,00%

Difficile de juger objectivement des résultats de cette étude. D’autres études ont minoré largement le phénomène des cookies effacés, jugé réel mais stable. D’un autre côté la dégradation de tous les ratios basés sur les cookies (visites par visiteurs, pages par visiteurs etc…) montre que quelque chose ne tourne pas rond, sans parler des sites dont la somme des visiteurs dépasse le nombre d’internautes…

Rappelons que pour cette raison l’OJD, qui certifie les chiffres de diffusion de la presse française a décidé depuis quelques mois de publier les données hebdomadaires de ses souscripteurs, pages vues comprises, afin de réduire l’impact de l’effacemetn des cookies. Voir par exemple les données OJD de mars 2007 (cliquez sur chaque site figurant dans le tableau puis sur le PV du mois). Côté Mediamétrie/Nielsen, le concurrent de Comscore, on mise sur le vieux rêve du rappochement des données sites centrics avec celles du panel ce qui permet essentiellement d’affiner les données volumétrique des données du panel pour les servir aux outils de media planning et aux annonceurs. Une projet mené actuellement et dont les premiers résultats sont en cours d’analyse.

Lira aussi l’article de Marketwatch sur la situation financière de Comscore et ses projets d’investissements.

Suivre

Recevez les nouvelles publications par mail.