Donc on en reparle, le patatage entre concurrents est malheureusement un phénomène cyclique qui dure depuis des années mais, c’est nouveau, la crise échauffant les esprits la presse s’en préoccupe. C’est bien dommage, le marché a plutôt besoin de sang froid en ce moment à mon avis mais, comme chacun sait, quand il faut purger mieux vaut y aller de bon coeur. Au menu les querelles des mesures d’audience du Monde.fr et du Figaro.fr au coeur de plusieurs articles, celui du Monde d’abord inspiré de celui d’Electronlibre (et la suite ici avec des commentaires bien informés) et enfin la  synthèse de Rue89.

Les lecteurs de ce blog ont pu lire de nombreux articles sur ce sujet sensible. Il se trouve que je participe depuis plusieurs années aux travaux autour des mesures  de Mediamétrie/Netratings comme client et comme représentant du Geste c’est à dire des éditeurs de presse en ligne. En parallèle je participais aussi aux travaux de l’OJD. Pour être bien clair, je ne suis pas neutre dans ce débat et proche des différents acteurs cités. Au cours de ces années je crois bien avoir vu de près la plus belle collection de tripatouillages qu’on puisse imaginer en matière de manipulation d’audience (de la part de certains sites sans que Mediamétrie ne soit en cause), pourtant, c’est paradoxal, la situation me semblait plutôt apaisée . Je veux dire que chacun a eu le temps de prendre la mesure de l’aspect très technique de ces questions ce qui contribuait à rendre moins violentes les polémiques. L’autorégulation se met en place. Devenu public ce débat donne lieu à pas mal de fantasmes auxquels il convient de répondre.

Pourquoi les mesures d’audience de Mediamétrie/Netratings diffèrent-elles de l’OJD? L’OJD ne mesure pas des « audiences » mais certifie les mesures de trafic réalisées sur les sites (site centric). On y parle donc de visites, de volumétrie. Mediamétrie mesure des audiences à partir d’un panel d’internautes (user centric), on y parle de visiteurs uniques, de parts de marché. Si vous visitez un site deux fois dans la journée à partir de deux PC différents l’OJD vous comptera deux fois, Mediamétrie essayera de vous compter une fois. L’OJD prendra en compte le trafic du monde entier, Mediamétrie uniquement en France. Conclusion : ces deux types de mesures ne peuvent donc pas être comparées.

Pourquoi utiliser Nielsen ou Mediamétrie/Netratings? Parce que les régies publicitaires, les annonceurs et les acteurs en charge du media planning ont besoin de connaître les « audiences » des sites pour la pertinence du ciblage publicitaire. La proportion d’hommes et de femmes, les revenus des ménages, les CSP ne peuvent pas être fournies par l’OJD ou les mesures dites « site centric ». Calculer la meilleure affinité d’un type d’audience avec un site est une donnée fondamentale pour les campagnes.

Ben où est le problème alors? Ben on ne peut jamais connaître avec certitude le nombre de lecteurs d’un site. Rien que ça…

La fraude existe-t-elle? Oui, quand certaines techniques permettent de modifier la proportion de panélistes lecteurs d’un site. En extrapolant la mesure d’audience d’un site à partir à partir d’une fraction de panélistes toute variation du nombre de panélistes fera varier la mesure de l’audience totale de façon disproportionnée (100 panelistes de plus sur votre site vaudront comme 10 000 visiteurs uniques supplémentaires, par exemple) . Tout est là. Attirer 100 panélistes sur votre site aura donc le même effet que 10 000 lecteurs côté OJD. Sauf que ça coute moins cher et que rien ne dit que les 10 000 lecteurs supplémentaires  contiennent des panélistes… Ce qui explique pourquoi vous pouvez voir votre trafic en hausse côté OJD et en baisse côté Nielsen et inversement. Comme les régies publicitaires ont avant tout l’oeil sur Mediamétrie c’est là que la « créativité » prend tout son intérêt.

C’est quoi ces histoires de jeux concours? L’astuce est simple. Mediamétrie doit constamment renouveler son panel en le recrutant sur Internet. Elle a commis l’erreur d’en recruter aussi via des sociétés spécialisées dans le marketing direct et les jeux concours (dont l’objet est essentiellement de constituer des bases de profils). C’est aussi une population qui répond positivement aux sollicitations par email. Certaines sociétés de jeux concours contiennent donc une proportion accrue de panélistes, lesquels sont en plus particulièrement réactifs aux sollicitations marketing. En clair des gus qui se gavent de concours à longueur de journées. Certaines de ces sociétés ont compris le truc et démarchent directement les sites en mal de dopage. Suffit d’héberger les pages du concours et pour améliorer le rendement il suffit d’obliger à cliquer sur des liens ou bannières afin de valider les réponses au concours (quand je dis que les gars du porno ont tout inventé…).

Alors pourquoi certains disent que les jeux concours ca rapporte « peanuts » côté trafic? Parce que côté OJD 1000 gus qui répondent « Michel Sardou » pour gagner un appareil photo numérique et bien ça fait 1000 visites, donc peanuts. Sauf que ça peut faire 100 000 VU côté Nielsen qui comptent finalement en parts de marché.

Que fait la police? Ce n’est pas illégal. Pas mal de jeux concours permettent aussi de recruter réellement des utilisateurs, des abonnés, des lecteurs ou simplement animer un site. C’est un outil de prospection légitime simplement l’usage peut en être détourné. Au passage je remarque que certains critiquent l’achat de mots clés comme technique de fraude. Non c’est une technique légitime pour recruter de nouveaux lecteurs il n’y a pas de raison de s’en priver, le budget est la seule limite ainsi que le retour sur investissement parfois hasardeux (non je ne vise personne).

Pourquoi Mediamétrie ne fait rien? Mediamétrie protège avant tout l’intégrité de ses méthodes de calcul, les règles definissant le périmètre d’une marque, d’un site, la définition des infractions éventuelles doit faire l’objet d’un consensus de ses souscripteurs. Voilà pourquoi on retrouve autour d’une table: les régies, les associations des annonceurs et des éditeurs, bref les clients. Les règles évoluent mais chaque modification peut avoir des conséquences insoupçonnées. En vérité un gros travail a été fait par Mediamétrie pour maintenir le principe d’une autorégulation malgré les querelles incessantes. La pratique des sites under a ainsi pu être régulée correctement (intéressant tout de même de savoir qui en abusait à l’époque, mais je ne vise personne, ah si en fait).

La confusion du périmètre des marques? C’est un point clé pour comprendre une partie des querelles de chiffres. Beaucoup jugent évident de penser que quand on parle de « l’audience » online du Figaro ou du Monde il s’agit du trafic du Figaro.fr et Lemonde.fr. La plupart des journalistes des rubriques medias, de bonne foi, ont ainsi été roulés dans la farine par des communiqués de presse ambigus. En réalité il s’agit de l’audience des « marques » (ou Brand dans la terminologie Nielsen). Toute la question est de définir le périmètre de cette marque, c’est à dire en y incluant sous-domaines, pages co-brandée avec des partenaires etc… C’est ce qui explique par exemple l’évolution de l’audience de l’Express en décembre qui intègre désormais celles de l’Expansion et L’Entreprise, par le choix commercial assumé de ses éditeurs (les critiques oublient d’ailleurs de noter que pendant des années le Nouvelobs.com a aussi regroupé plusieurs marques)

C’est nouveau comme astuce? Et bien non, ce n’est rien d’autre que la variante internet de la stratégie consistant par exemple à vous livrer un supplément magazine papier dans votre journal du week end.  Les plus grands tirages de la presse TV doivent leur « audience » à ce mode de distribution. Pas méchant si c’est transparent pour les annonceurs.

Alors on fait quoi? Je ne vais quand même pas vous le dire ici alors qu’on doit en causer dans quelques jours…
Le paradoxe de cette polémique récente c’est qu’elle survient alors qu’un grand nettoyage a justement été entrepris par Mediamétrie en accord avec ses clients à l’occasion de la mise en place du nouveau panel, en particulier autour de la définition des marques. Ainsi la notion de « réseau de marque » (Brand Network) a disparu des classements Nielsen, ils permettaient d’agréger des audiences de différentes marques afin de constituer un package commercial plus visible. Toutefois la notion de cobranding (sites ou pages comportant deux marques) est désormais au coeur de la question en permettant de fusionner des audiences de sites différents. Le cobranding est par ailleurs tout à fait légitime quand il s’agit d’intéger un service d’un partenaire ou isoler un environnement thématique (tiens, Eco89 et Rue89 par exemple ou E24 et 20minutes.fr). Pas simple d’interdire ou de fixer des règles strictes. C’est tout le point des prochaines discussions.

J’essayerai dans un prochain billet d’expliquer pourquoi ce débat est malheurusement très contre productif et pourquoi il est important de revenir à une stratégie de construction d’audience cohérente, propre à tout media soucieux de sa marque (bien résumé ici par P. Jannet). Aussi parce que tout ceci n’aurait pas eu lieu si la course au trafic à tout prix n’avait été la réponse insensée à la chute des CPM et des revenus publicitaires. On récolte aussi ce qu’on mérite…

C’est John Battelle, incontournable googologue qui a recueilli la déposition de Giuan Fulgoni, Président de Comscore. Comme on peut s’y attendre il défend la valeur ajoutée de son service et explique à juste titre que Comscore propose une anlayse de l’audience plus poussée que Ad Planner. C’est l’avantage de l’expérience du panel, la remarque vaut pour Nielsen, ces services sont capables de détailler les données socio démographiques et certaines caractéristiques comportementales des internautes alors que l’outil de Google semble (si on en juge aux quelques infos disponibles) reste sommaire.

Conclusion: comme Google Analytics Google propose avant tout un service d’entrée de gamme pour des entreprises ne pouvant se payer les deux Rolls du secteur. Perfide il rend compte de certaines observations sur les écarts statistiques entre les différents outils de mesure. Un terrain plutôt glissant quand on connaît l’interminable débat sur la fiabilité des outils users centric (par panel). Je suis toutefois assez d’accord avec ses arguments malgré ce que j’ai pu dire hier il n’y a pas de mort programmée de Comscore ou Nielsen. Comme d’habitude Google se positionne juste en dessous, raflant le marché de masse. Reste à savoir si Ad Planner parviendra à convaincre les agences et les media-planneurs…  

Google est notre ami. Il se balade chez nous, dans toutes les pièces. Il ne touche à rien mais regarde un peu partout.  Parfois, parce que c’est notre ami, on lui prête un caleçon et des chaussettes. Pas de gêne entre nous, après tout il nous apporte chaque jour des cookies. Seulement ce matin le potos s’est fait la malle avec tous nos caleçons. Le voilà qui se balade sur la place du village et commence à exposer nos sous-vêtements devant l’épicerie.

En quelques jours Google vient de prendre deux initiatives qui déshabillent littéralement l’ensemble des acteurs du Web. Avec la nouvelle option « websites » de Google Trends il propose une estimation précise du trafic d’un site (il faut s’enregistrer pour faire apparaitre les données volumétriques). Avec Ad Planner il fournit aux annonceurs des informations sur l’audience du site,  volume et données socio-démographiques. Données exportables dans les outils de media planning. Des données accessibles gratuitement aux annonceurs. Une mise à mort programmée des Comscore, Nielsen.

Comment Google peut-il réaliser ça?

Simple, quand vous indexez la quasi totalité du web, que vous monopolisez 90% des requêtes d’utilisateurs, que vous mesurez directement les flux de trafic de certains sites (via Google Analytics), que vous représentez 40 à 70% de l’apport de trafic moyen d’un site et que vos cookies conservent les habitudes de consommation des utilisateurs il ne reste plus grand chose à savoir sur vous. Votre nom? Ouvrez-donc un compte Gmail…

Pourquoi gratuit?

C’est une question qui peut paraître incongrue alors que plus personne de s’étonne de la légereté avec laquelle le Web 2.0 traite la question de la monétisation. Pourquoi fournir ces données gratuitement? Parce que Google peut se le permettre? Non. Enfin plus exactement oui il peut se le permettre, mais non je ne pense pas que ce soit la raison fondamentale. On sous estime, je pense, le caractère profondément idéologique de la démarche de Google, depuis les premiers jours de sa fondation. On peut brocader le « Do no evil » mais même Eric Schmidt confesse qu’il ne s’agit pas d’une lubie d’étudiant. L’assertion fondamentale « Google veut aider les gens à trouver ce qu’ils cherchent » (lire l’histoire de Google) contient bien plus de significations qu’il n’y paraît.

Google veut rendre l’information accessible à tous non comme une gigantesque entreprise de distribution mais en anihilant ses coûts. La valeur marchande de l’information tend vers zéro non parce qu’elle prolifère mais parce qu’un moteur de recherche omniscient supprime les barrière d’accès et le facteur de rareté. La gratuité absolue des outils de recherche est le facteur indispensable pour conduire à la gratuité de l’information. C’est une stratégie destructrice pour ceux qui vivent de l’information, elle est voulue, calculée, tout au moins assumée.

Pourquoi?

Des souvenirs d’étudiants en économie me hantent chaque jour un peu plus à mesure que j’observe le développement de l’internet. En particulier les souvenirs, terriblement ennuyeux, des multiples exercices de modélisation mathématique des théories néolibérales. Je constate chaque jour un peu plus combien internet incarne les fantasmes des théoriciens de l’économie. Gloser sur la main invisible d’Adam Smith n’est pas nouveau, mais construire le modèle absolu du marché avec une fluidité parfaite du mécanisme de l’offre et la demande  n’est pas une chose banale.

Rien n’est encore parfait ni absolu dans l’ecosystème numérique mais une barrière fondamentale est en train de tomber, et je pense c’est le sens de la démarche de Google. Un des prérequis fondamentaux de l’économie néolibérale consiste à permettre aux acteurs de l’économie d’accéder aux informations du marché dans des conditions de transparences absolues. La fixation du juste prix en découle. Nul n’osait en rêver, il s’agissait avant tout d’une construction mathématique. Avec une conséquence politique notable: on accordait à l’Etat la mission de faciliter l’accès à l’information, ce qu’il s’est de tout temps empressé de faire de façon très partielle puisque du contrôle de l’information naît le pouvoir…

Le problème?

Il est devant nous, il est titanesque. Personne n’aurait osé imaginer que l’accès à l’information et sa fluidité reposerait un jour entre les mains … d’une entreprise privée. En d’autres termes Google est en train de mettre en place les fondamentaux d’une économie néolibérale en détruisant barrières traditionnelles de l’industrie et des Etats. Séduisant? Certainement.

Certainement Si on passe que Google est lui même un acteur économique et non un acteur politique. Si on passe sur le fait que les revenus de Google proviennent désormais moins de la vente de service que de la ponction financière des échanges économiques qu’il induit lui-même, ni plus ni moins qu’un baron du Moyen Age au croisement d’une route commerciale. Une taxe. Un impôt.

Lors du rachat de Google Analytics puis de Doubleclick certaines voix se sont élevées pour critiquer la position dominante d’un acteur qui contrôle désormais la distribution, l’accès à l’information, la mesure d’audience, la régie publicitaire pour son seul profit. De quoi s’agit-il? De l’ensemble des mécanismes de marché régulant la fixation des prix. Paradoxe effrayant, Google, ce monstre issu du fantasme d’une économie néo-libérale épurée, contrôle les prix parce qu’il contrôle désormais les voies commerciales et l’accès à l’information.

Les autorités de régulation n’y ont vu que du feu, faut-il s’en étonner?

Un peu de rigolade. Vu aujourd’hui via Nielsen, les cinq plus importants sites référants (qui apportent du trafic) d’un site orienté commerce recemment dézingué par Google (qui sanctionne durement depuis plusieurs mois les sites trop chargés de liens):

fr.abcvisiteurs.com
http://www.easyprog.info
http://www.01autosurf.com
http://www.simply-surf.info
autohits.videoserie.net

Amusant non?

NYTimes.com: décollage réussi

décembre 10, 2007

On dirait bien que je me suis planté sur les conséquences du passage à la gratuité du NYTimes. J’estimais l’impact modéré mais selon les données de Comscore publiées par Techcrunch la hausse semble très nette avec un gain de plus de 4M de visiteurs uniques entre octobre 2006 et octobre 2007 soit + 27% (je préfere comparer à l’année passée que par rapport au mois d’aout peu significatif puisque ce mois est traditionnellement faible).

Malheureusement à ce stade impossible d’en dire plus sans pouvoir accéder au détail de la répartition du trafic ou aux données site centric (la mesure interne au site que seul le NYTimes peut communiquer). Toutefois par recoupement (je n’en dis pas plus mais si j’en juge à des stats auxquelles j’ai accès) je constate qu’une part importante du trafic est généré par des requêtes de recherche internes au site, des requêtes dont la structure de l’URL se retrouve massivement au sein du service d’archives du NYTimes (dans les « topics » sur topics.nytimes.com , par exemple ici). Ce qui confirmerait l’impact multiplicateur des archives. Notez en bas de page les « related ads » présentées également comme des requêtes de moteur interne et qui appellent en fait des pubs Google, ce qui laisse supposer la création d’une infinité de pages référençables même sans contenu du NYTimes. Visiblement rien n’a été laissé au hasard côté SEO…

> Sur le même  sujet lire aussi le billet sur Media Café

Le dernier classement des sources de Google News France pour le mois de novembre 2007.  Le serveur gérant les données de ce rapport a connu quelques pannes en novembre, difficile de savoir si le classement s’en trouve modifié. Signalons l’arrivée de Silicon.fr, la baisse de Challenges, la montée de France2 et la bonne tenue de Journal Chretien (si Dieu se mêle de SEO il faudra revoir le mode de calcul du pagerank) et d’Agoravox. Le top des amis de Reuters n’est pas modifié et l’AFP confirme sa position dans le top 10.

Signalons aussi la montée en puissance régulière de l’Equipe.fr de la 40eme position à la 30eme preuve que l’équipe du web est parvenue à surmonter ses problèmes de référencement causés par des choix techniques contraignants (on en avait discuté par téléphone en septembre – bravo les gars!).

 

Top 50 des sources Google News France
rank 01/11/07 01/10/07
1 Le Monde Le Monde
2 Le Figaro Le Figaro
3 Libération Libération
4 nouvelobs.com nouvelobs.com
5 TF1 Challenges
6 L’Express L’Express
7 Journal Chrétien TF1
8 20minutes.fr AFP
9 AgoraVox Le journal du dimanche en ligne
10 AFP Actualités News Environnement
11 Actualités News Environnement 20minutes.fr
12 Challenges Journal Chrétien
13 Le journal du dimanche en ligne La Tribune.fr
14 France 2 Le Point
15 L’Orient-Le Jour AgoraVox
16 La Tribune.fr Courrier International
17 Silicon.fr Radin Rue
18 RFI Romandie.com
19 Romandie.com Les Échos
20 PC Inpact Europe 1
21 Le Point PC Inpact
22 Les Échos RFI
23 l’Humanité Clubic
24 Courrier International France 2
25 Europe 1 EuroNews
26 Clubic L’Orient-Le Jour
27 Sports.fr l’Humanité
28 Radin Rue NaturaVox
29 France Soir Goal.com
30 L’Equipe.fr RTL Info.be
31 Goal.com Les Infos
32 ZDNet Paris Match
33 EuroNews La Presse Canadienne
34 La Presse Canadienne Sports.fr
35 Sport365.fr Boursorama
36 Sport 24 XINHUA
37 Boursorama ZDNet
38 Metro France Sport365.fr
39 Reuters.fr France Soir
40 Eurosport L’Equipe.fr
41 XINHUA Cyberpresse
42 EasyBourse.com Silicon.fr
43 Le Petit Journal Metro France
44 Sport.fr Vnunet.fr
45 France24 Reuters.fr
46 Come4News Afrik.com
47 Football.fr Boursier.com
48 Foot Mercato.net 01net
49 01net Couleur France
50 Boursier.com Radio-Canada

Je rappelle que ce classement correspond à une mesure de la visibilité des titres d’actu des différentes sources en Une de Google News France. Le calcul tient compte des différents emplacement en Une et de la durée d’affichage des titres pour en tirer une note. Cela ne signifie nullement qu’il s’agit d’un classement correspondant au trafic réellement généré sur chaque site mais c’est une bonne mesure du potentiel des uns et des autres.

 Le dernier classement des sources de Google News France pour le mois d’octobre 2007. Pas grand chose à signaler, la prime à la dépêche d’agence et au volume fonctionne toujours avec un rendement maximum. 

Top 50 des sources Google News France
rank 01/10/07 01/09/07
1 Le Monde Le Monde
2 Le Figaro Le Figaro
3 Libération Libération
4 nouvelobs.com AFP
5 Challenges nouvelobs.com
6 L’Express Challenges
7 TF1 L’Express
8 AFP Journal Chrétien
9 Le journal du dimanche en ligne Le journal du dimanche en ligne
10 Actualités News Environnement TF1
11 20minutes.fr 20minutes.fr
12 Journal Chrétien AgoraVox
13 La Tribune.fr Romandie.com
14 Le Point La Tribune.fr
15 AgoraVox La Presse Canadienne
16 Courrier International Radin Rue
17 Radin Rue France 2
18 Romandie.com Le Point
19 Les Échos Les Échos
20 Europe 1 Europe 1
21 PC Inpact Radio-Canada
22 RFI XINHUA
23 Clubic Cyberpresse
24 France 2 RFI
25 EuroNews PC Inpact
26 L’Orient-Le Jour l’Humanité
27 l’Humanité L’Orient-Le Jour
28 NaturaVox Clubic
29 Goal.com Boursorama
30 RTL Info.be RTBF
31 Les Infos Sport365.fr
32 Paris Match RTL Info.be
33 La Presse Canadienne Vnunet.fr
34 Sports.fr Tele News
35 Boursorama ZDNet
36 XINHUA RTL.fr
37 ZDNet Courrier International
38 Sport365.fr Sports.fr
39 France Soir Afrik.com
40 L’Equipe.fr Canoë
41 Cyberpresse Goal.com
42 Silicon.fr Boursier.com
43 Metro France Actualités News Environnement
44 Vnunet.fr La Croix
45 Reuters.fr Rue89
46 Afrik.com Le Temps (Abonnement)
47 Boursier.com Francebourse.com
48 01net Le Revenu
49 Couleur France Sport 24
50 Radio-Canada Aujourd’hui Le Maroc

 Voir aussi le top du mois de septembre

Suivre

Recevez les nouvelles publications par mail.