Intéressante initiative du site design 2.0 qui étale côte à côte les pages d’accueil de plusieurs sites medias internationaux. Moches ou brillants? L’auteur s’interroge mais c’est surtout l’occasion de découvrir les 3 ou 4 grandes tendances: le style classique des quotidiens à la NYTimes en lignes serrées et multicolonnage très travaillé (jusqu’à présent mon style préféré), le graphisme brillant et coloré à la Sports Illustrated , le style web 2.0 à la Digg/Google finalement très pauvre et le style … scandinave proche du tabloïd trash se déroulant de façon interminable.

J’avoue que cela fait longtemps que le doute me prend face au succès du style scandinave. Ma culture personnelle m’éloigne totalement de ces choix graphiques exubérants mais ce succès mérite qu’on si arrête. En voyant la capture ci-dessous de ce magazine suédois je me demande si cela ne correspond pas à un nouveau mode de lecture que l’on aurait sous-estimé.

 expressen_se.jpg

J’ai toujours pensé, chiffres à l’appui, que la nécessité de dérouler la page d’accueil d’un site provoquait une dégradation de la consultation, de l’ordre de 25% par « écran ». Phénomène que connaissent très bien les régies publicitaires qui voient s’effondrer les taux de clic à mesure qu’on descend dans la page. Dans le cas du magazine suédois je me demande si une telle profondeur, démesurée et interminable (je compte 18 « écrans »!) ne correspond pas finalement à une lecture verticale comparable à celle d’un parchemin qu’on déroule. Je veux dire qu’un certain lectorat préfère peut être parcourir les contenus d’un magazine de cette manière plutôt qu’en naviguant par rubrique ou en s’enfoncant dans le site. C’est une vraie question qui me perturbe d’autant que la particularité de ces sites est aussi qu’ils sont totalement dépourvus de gadgets web 2.0 tout en proposant un haut niveau d’interactivité.

Et si on faisait fausse route?

C’est le constat du dernier rapport de l’IAB UK qui donne 11,4% de parts de marché pour la pub en ligne contre 10,9% pour les quotidiens nationaux pour toute l’année 2006. Sur la même période les parts du marché publicitaire de la télévision ont baissé de 4,7%. A noter que les mots clés sponsorisés représentent 57,8% du total de la pub en ligne (en valeur). Enfin l’ensemble du marché publicitaire s’est accru de 1,1% ce qui montre que tout ceci n’est pas un simple jeu de vases communicants mais que l’internet a probablement favorisé l’émergence de nouveaux annonceurs.

Lire l’article du Guardian sur le même sujet

Suite à l’annonce de Google qui se lance dans l’expérimentation du modèle de CPA (Cost per Action) sur son moteur, Fred Cavazza a relancé le débat sur la rivalité des différents modèles. J’ai déjà écrit ici pourquoi le CPA constitue un piège pour les éditeurs en ligne et je constate à la lecture des commentaires que depuis un an les arguments encourageants à la méfiance se sont développés. Plutôt que de relancer le débat avec les mêmes interlocuteurs j’en ai profité pour poser la question franchement sur Linkedin (où figure mon CV) auprès de mon réseau de contacts. une bonne occasion de tester le nouveau service de questions/réponses du réseau Linkedin.

Je dois dire que le résultat dépasse mes espérances et j’ai reçu en quelques jours plusieurs réponses très argumentées de la part de professionnels du marketing en ligne de tous les coins du monde (USA, Allemagne, Argentine …). Un point pour les réseaux communautaires professionnels, cela confirme au passage la bonne qualité du réseau Linkedin. Je reproduis ci-dessous les principales réponses:

La question :  Should online publishers and medias be afraid of CPA (Cost per action) model ?

- Rick Monihan ( ex directeur Commercial chez Fox News-USA):
The CPA model is not one with publishers will ever be happy with, unless they have a direct interest in the acquisition portion of the deal. If their sole source of revenue is the money generated by CPA, then it’s always going to be a losing proposition.
Here is why:
1. Most advertising is lead generation – oriented. That is, an ad is generally designed to spread information and get consumers interested. It isn’t always a matter of getting an immediate sale or purchase. So, alot of ads sold as CPA will run without generating revenue.
2. Publishers are at the mercy of the advertisers. If the advertisers have lousy products, lousy ads, or a lousy website, then getting the Action or Acquisition portion of the advertising may never occur. More ads with empty revenue potential.
3. Brand equity…even with a good CPA campaign, there is a value to building the brand. So, with the CPA model the advertiser only pays for the A (action or acquisition) but doesn’t pay for all the additional benefits of advertising – spreading the information about the product, improving brand image, etc. That is all given for free by the publisher.
The solution is for the publisher to be directly linked in with the revenue generation portion of the relationship….but then this will erode the independence of many outlets that rely on advertising for revenue.
CPA can be PART of an overall revenue generation strategy by publishers, but it can’t be the sole revenue source, nor should it be the primary one.

- Eli Feldblum (Expert SEO, online marketing, Israël)
I say: Yes, very afraid.
CPA uses too many variable that you, as a publisher, can’t control. You can do everything right to your site: optimize it, bring in qualified traffic, keep it updated. But if your advertiser’s site has problems or doesn’t offer a compelling product, you don’t get paid for your valuable advertising space no matter how many impressions or clicks the ad gets.
If you do want to accept CPA ads, go into it the same way you’d go into a business partnership. Accept ads on a one-by-one basis; if you would partner or revenue share with this site–if it’s compelling enough to make you commit whatever action they are paying your site for–then it’s good enough to accept on a CPA basis. If not, then no way.

Quelques positions plus originales et moins hostiles au CPA:  

- Fernando Garcia Penella (Manager chez Avaya, Argentine) 
Let’s take it from the customer point of view. A sophisticated online advertising customer will be measuring publishers and online media from a CPA point of view if it’s looking for a lead-generation campaign. And choosing the best value for its advertising budget.
Online advertising gives him the ability to measure this marketing expense and finding out which sites, portals, networks, etc. give him the best bang for his buck. And that is how he will evaluate in the long run, no matter whether he is purchasing by CPM, CPA, or whatever other metric.
So the online publishers are already being measured through this optic by this customer — they are already part of the customer’s business; the media that will offer him a CPA model is only speaking in the same language that this customer.
Obviously this requires a change of worldwiew for online publishers. It’s no longer advertising buisiness as usual…..

- Pierre Alexandre (Patron de New York French Press – USA -mais français expat…)
The advertiser want to pay for result. The one who sell expensive space withtout trust real audience need to be afraid. But those who have a good and REAL audience don’t haver to be afraid. Now the content is king. And the time of liars poker with advertiser is over.

- Ryan Turner (Consultant en communication – USA)
Publishers and media have nothing to fear if they’re being honest about the reach and loyalty of their audience, and not trying to cheat the system, regardless of any approach in place. By going the CPA approach, online marketing– especially in areas where risk and open-minds should be greatest– can turn into a « bounty for hire » that removes the sense of personal cost and investment in the effort’s success.Other legitimate concerns:
— brand separation (more emphasis on the ad, product, or overall brand at the expense of marketers pushing online transactions);
— brand dilution (mishandling of the brand through disconnect in marketers);
— prospect cannibalization (online channels and sites marketing at cross purposes with one another)
At this point, remember Google is only testing CPA against CPC models, though I suspect in the short- to mid-term they will implement both as a hedge against competing providers, and offer different tiers or packages of services. It’s their best move to reach solve a combination of problems and hedge their bets in the short- to mid-range. Then they will eventually phase in one hybrid model that takes the « best » of both for them.

Think of it this way: of the following, which probably *make* more money for Google and which ones probably *cost* Google more money under a CPC scheme?:
— small-size/high-traffic sites
— small-size/low-traffic sites
— large-size/high-traffic sites
— large-size,/low-traffic sites

I’m guessing the small-size/high-traffic and large-size/low-traffic sites would the type of groups Google wants to court for a CPA program, because they’d wind up paying less than under a CPC plan while gaining enough of a base to make it worth their time, no?

Retrouvez toutes les réponses ici. Pour ma part je partage la plupart des critiques faites au CPA, je reste très surpris que certains y voient une opportunité de monétiser l’inventaire de pub invendu. Ceci alors que comme l’ont relévé plusieurs commentateurs, on voit de développer des pratiques douteuses consistant, côté annonceur, à acheter des campagnes de branding (notoriété) sur les réseaux d’affiliation afin de bénéficier de coûts de diffusion écrasés tout ça sur le dos de l’éditeur.

En fait je crois que le malentendu est là: il y a de la place pour le CPA chez les éditeurs simplement ce n’est pas une affaire de bannière et d’affichage. Le CPA est adapté sur les zones marchandes ou dans un contexte de shopping et de consommation et sur des formats différents (text, liens contextuels etc…) . C’est fait pour et comme le disent finement les derniers commentaires, si un éditeur fait la démonstration que ses lecteurs sont aussi des consommateurs il gagne en crédibilité et tire son épingle du jeu.

Comme l’a relevé Didier Durand, Comscore vient d’annoncer que la mesure des visites (les « sessions »), leur durée et leur fréquence seraient désormais les principaux indicateurs pris en compte avec les visiteurs uniques pour la mesure d’audience des sites web. Je ne reviens pas sur l’annonce elle-même, Didier détaille très bien l’enjeu qui consiste à mettre en avant la qualité de la relation avec les lecteurs et leur fidelisation. Rappelons tout de même que c’est aussi une manière discrète d’enterrer en douceur la mesure des pages vues totalement folkorique sur les outils basés sur des panels comme Comscore ou Nielsen Netratings comme je l’avais écrit ici (suscitant au passage une réponse en français du patron de Comscore).

Du coup le petit jeu consiste a redécouvrir les modifications du classement des sites en fonction de ces nouveaux critères, en particulier la fréquence des visites. Pour résumer disons que les portails du type yahoo/MSN en ressortent regaillardis. Du coup je me suis demandé ce que cela pouvait cacher sachant que les grands portails mélangent contenus, services, espaces communautaires soit un environnement beaucoup plus hétérogène que celui des sites medias. Un coup d’oeil sur Nielsen m’a vite confirmé que l’impact des messageries électroniques fausse largement les données et cache un match beaucoup plus serré qu’on ne l’imagine.

Sans révéler les données des uns et des autres j’ai effectué le calcul suivant: j’ai isolé deux groupes de sites, celui des portails et celui des medias comprenant un mélange de sites de news et de magazines. J’ai comparé la fréquence des visites moyennes de chaque groupe puis j’ai recommencé le calcul en supprimant du premier groupe la mesure de l’audience des messageries électroniques, des messengers et des moteurs de recherche en pondérant par rapport aux parts de marché de chaque zone du portail (vous n’avez rien compris c’est normal mais disons que ce n’est pas une moyenne toute bête). Voici ce que cela donne :

Données mensuelles (février 07)

Données completes Hors emails + messagerie + search
Sessions par visiteur Sessions par visiteur
Portails 12,34 5,7
Medias 4,38 4,38

Je ne rentre pas dans le détail du calcul, il mériterait plus de précision et une fourchette d’écart. Tout de même il faut préciser que le résultat légerement supérieur des portails vient de la surpondération des pages d’accueil. Pour le reste malgré la puissance d’attraction des messageries les portails ne parviennent pas à distancer les medias en matière de fidelisation sur les contenus et services.

Signalons une trés grosse surprise : les services communautaires types blogs, forums, pages persos n’influent pratiquement pas sur la fréquence des visites, en fait ils se consomment comme des pages de contenus (par contre ils génèrent de longues durées de session et des pages vues). Voilà qui va à l’encontre des idées reçues. En revanche les pages d’accueil personnalisées (incluses dans mon calcul) sont un facteur important d’accroissement de la fréquence des visites.

Note: le calcul est effectué sous ma seule responsabilité, il est probablement approximatif et très largement perfectible et n’engage pas l’instrument de mesure d’où j’ai puisé les chiffres. Ceci étant dit je suis assez confiant sur les grandes lignes de l’analyse.

Signe des temps, alors que certains s’extasient toujours sur les volumes de trafic mirifiques des sites communautaires d’autres s’interrogent sur les limites de cette course à la carotte. En particulier ils se demandent si l’intérêt des medias est de participer à la kermesse. Que l’interrogation vienne d’un investisseur VC montre que ce n’est plus un débat de théoriciens. L’investisseur, c’est Jeremy Liew de Lightspeed Venture Partners, et sa préoccupation c’est comment un média peut-il atteindre un CA de 50 M de dollars. Tout un poème.

Le paradoxe qu’il soulève tient en trois scénarios, lequel est le meilleur pour un média?
1- D’un côté la vaste plateforme communautaire draine des milliards de pages vues mais avec un CPM de 1$ grand maximum. Il lui faudrait des dizaines de milliards de pages vues. Est-ce bien raisonnable de devoir cibler 50% d’une population pour espérer des marges de profits?
2- Au centre le portail communautaire, avec une diversité de contenus et services, qui supporte des centaines de millions de pages de pages vues et pousse dans le meilleur des cas son CPM à 5$. Difficile même pour un Microsoft, il faudrait 10 milliards de pages vues.
3- Enfin le site thématique (bagnoles, voyages, films) qui en ciblant des niches publicitaires peut prétendre à quelques dizaines de millions de pages mais un CPM de 20$. Là l’objectif serait des centaines de millions de pages vues. Pas facile.

Evidemment l’ordre croissant est aussi celui du coût de production du contenu. Autrement dit l’objectif est difficilement atteignable dans les trois cas.  Scott Karp, Publishing 2.0, fait aussi remarquer que les milliards de pages vues ne signifient pas forcement un nombre proportionnel de visiteurs uniques. Le visiteur d’un Myspace génerera 50 pages vues là où celui d’un site media en génerera 5 ou 8. C’est aussi pour cette raison que l’équilibre des prix s’organise. C’est aussi pour celà que les medias ne sauraient rester crédibles avec des CPM inférieurs à 10$ ou 20$ mais c’est une autre histoire.

J’ajouterai à la réflexion l’importance du contexte: l’impact de la publicité n’a aucune raison d’être le même dans des forums d’ados que sur des pages de contenus éditoriaux. Oui c’est un jugement de valeur, au sens propre. J’ai déjà mentionné les remarques d’un annonceur à propos des résultats médiocres de la pub sur Myspace. On aurait tort de sous-estimer l’importance de ce facteur alors même que jusqu’à présent tout ce beau monde ne voit que la publicité comme source de revenus. D’ailleurs c’est peut être celà la solution de l’énigme: la marge ne viendra peut être pas de la publicité mais des produits dérivés, des services, des revenus des mobiles et … du payant. 

Lire aussi le papier du NYTimes inspiré du même article : « La popularité pourrait ne pas suffire« … 

Le terrain était bien préparé, Médiamétrie a annoncé la semaine dernière que 2007 serait l’année de l’internet mobile, 5,3 millions des 49,8 millions d’utilisateurs de téléphones mobiles bénéficiant déjà de la 3G. Qu’ils utilisent ou non cette 3G c’est bien la question qu’il faut désormais aborder. Pour mesurer l’utilisation de l’internet par le  téléphone mobile Médiamétrie va donc lancer un panel de 2500 à 3000 personnes. Deux vagues d’études sont prévues en juin et octobre. Le choix de la méthode du panel se justifie car les multiples systèmes d’exploitation des téléphones et la trop grande diversité des modèles rend encore difficile la mise en place de marqueurs ou de mouchards sur les appareils.

Je gardais l’info depuis quelques jours mais elle a été publiée par la lettre spécialisée Comelec des Echos (la lettre des Télécoms et des Communications Electroniques dispo par abonnement) donc je partage. L’annonce et les détails devraient être précisés cette semaine.

Impossible de passer à côté, Christophe Druaux sur son blog OuiNon, vient de lancer un vent de fraîcheur sur l’exercice de plus en plus pesant consistant à dresser des listes de blogs populaires. Son idée est sympathique et astucieuse à la fois: dresser la cartographie imaginaire de la blogosphère française. Tout ça ressemble furieusement à la Carte de Tendre, poésie en moins (NDLA: Carte de Tendre et non carte DU Tendre comme on me le fait remarquer justement). Pas si simple de répartir les tribus de monomaniaques en familles cohérentes. A découvrir juste pour le plaisir. Le vilain m’a casé en Biélorussie, entre Pisani et le blog Auto qui lorgnent sur mes frontières et Tchernobyl pour chauffer la moquette. Je vais de ce pas revendiquer l’Antartique pour moi tout seul … 

Cliquez sur la carte pour élargir (pdf, 2,1 Mo):

 cartographie-de-la-blogosphere.jpg

Suivre

Recevez les nouvelles publications par mail.