La crise favorise les solutions extrèmes, c’est compréhensible, mais on ne peut que s’étonner de la différence des niveaux de réflexion stratégique d’un pays à l’autre. Côté France je découvre avec stupéfaction (pour ne pas dire plus) l’existence d’un projet de taxation des FAI, soutenu par la direction de Liberation, pour financer la presse généraliste, grosso modo la licence globale appliquée à la presse.

Cela prête à sourire mais je crois volontiers que l’absense de perspectives puisse conduire à ce genre de réflexe désespéré, en particulier quand on a la charge de sauver des emplois. Je n’aime pas du tout en revanche que l’on brandisse l’argument de la démocratie en péril pour justifier des avantages économiques . Je soutiens une grande partie des mesures issues des Etats Généraux concernant les droits d’auteur des journalistes et le statut d’éditeur en ligne, je suis extrèmement réservé vis à vis des mesures destinées à créer un sous-statut pour la presse "d’information générale et politique ". En pratique elle vise à délimiter très arbitrairement le petit cercle de la presse "utile à la démocratie" qui se partagera les aides de l’Etat. La ficelle est grosse, faut-il pour autant y ajouter le produit d’une taxation des FAI. Le raisonnement me laisse pantois. Je passe sur la répartition calculée "sur la fréquentation et  la taille des rédactions".  Quelle sorte d’aveuglement ou d’arrogance (ou de désespoir) peut soutenir un tel raisonnement ?

Côté US, le vent de résistance de la presse accouche d’un document probablement discutable mais à l’argumentation calculée. Issu d’une réflexion menée par les directions de plusieurs journaux américains ce document intitulé "Newspaper Economic Action Plan" résume les grandes lignes d’une stratégie consistant à généraliser la formule payante pour la presse d’information généraliste. A noter que ce livre blanc reprend les données des modèles économiques soumis par l’ami Jeff Mignon sur son blog  (voir ici directement les hypothèses de calcul). Je ne partage pas la volonté récurrente d’en découdre avec Google News mais il faut reconnaitre que le scénario est moins caricatural que l’approche binaire tout payant contre tout gratuit. En particulier il intègre l’usage des API, c’est à dire la necessité d’associer au payant une stratégie de distribution des contenus tenant compte des avancées technologiques des dernières années. En particulier une volonté de faire payer les usages plutot que les contenus (je reste farouchement hostile au paiement à l’acte article par article mais après tout chacun peut établir ses propres recettes).

Pour être complet voici une première critique de ce document sur le blog de Scott Rosenberg (co-fondateur de Salon.com). Ses arguments basés sur ses propres échecs me paraissent valables mais il me semble que si une grande majorité des journaux adoptent de concert une stratégie payante il peut se créer un écosystème plus favorable qu’au cours des dernières années (où envisager le payant semblait une erreur face à un marché publicitaire en croissance rapide). Tout cela bien sûr au prix d’une décroissance de l’audience des sites de news généralistes, c’est tout le point. Autrement dit renoncer aux revenus incrémentaux de la longue traîne pour privilégier une hausse du revenu par utilisateur et une audience qualifié.

L’approche des journaux US appliquée au raisonnement de Joffrin reviendrait non pas à taxer les FAI mais au contraire travailler avec eux c’est à dire les utiliser pour ce qu’ils sont: des canaux de distribution. Une piste: faire financer par Orange l’accés aux contenus payants du quotidien des abonnés Orange. Techniquement l’accès et l’authentification des abonnés peut s’effectuer en toute transparence via les API Orange Connect (injustement méconnues, semblable au dispositif Facebook Connect – voir le dispositif Orange Connect que nous avons installé sur CNETFrance.fr - cliquer sur "Identification" en haut à droite puis le logo Orange). Un accord de régie avec Orange peut permettre de compenser tout ou partie des coûts grâce au ciblage publicitaire spécifique de ces abonnés. La qualification des profils peut également générer de nouvelles sources de revenus, on me pardonnera de ne pas les détailler ici.

Avantage: c’est la valeur de l’abonnement ou de l’accès payant, contrôlé par l’éditeur, qui fixe le niveau de valorisation de l’opération et non les conditions volatiles du marché publicitaire sur des audiences non qualifiées. Certes  celà pose la question de l’indépendance vis à vis des opérateurs mais c’est une autre histoire. Un scénario négociable n’est-il pas préférable à des conditions commerciales imposées ou un impôt?

MAJ 04/06/09 via Eric Scherrer: la stratégie mixte du Wall Street Journal où Google News n’est pas bloqué mais est utilisé comme vecteur de recrutement.

Donc on en reparle, le patatage entre concurrents est malheureusement un phénomène cyclique qui dure depuis des années mais, c’est nouveau, la crise échauffant les esprits la presse s’en préoccupe. C’est bien dommage, le marché a plutôt besoin de sang froid en ce moment à mon avis mais, comme chacun sait, quand il faut purger mieux vaut y aller de bon coeur. Au menu les querelles des mesures d’audience du Monde.fr et du Figaro.fr au coeur de plusieurs articles, celui du Monde d’abord inspiré de celui d’Electronlibre (et la suite ici avec des commentaires bien informés) et enfin la  synthèse de Rue89.

Les lecteurs de ce blog ont pu lire de nombreux articles sur ce sujet sensible. Il se trouve que je participe depuis plusieurs années aux travaux autour des mesures  de Mediamétrie/Netratings comme client et comme représentant du Geste c’est à dire des éditeurs de presse en ligne. En parallèle je participais aussi aux travaux de l’OJD. Pour être bien clair, je ne suis pas neutre dans ce débat et proche des différents acteurs cités. Au cours de ces années je crois bien avoir vu de près la plus belle collection de tripatouillages qu’on puisse imaginer en matière de manipulation d’audience (de la part de certains sites sans que Mediamétrie ne soit en cause), pourtant, c’est paradoxal, la situation me semblait plutôt apaisée . Je veux dire que chacun a eu le temps de prendre la mesure de l’aspect très technique de ces questions ce qui contribuait à rendre moins violentes les polémiques. L’autorégulation se met en place. Devenu public ce débat donne lieu à pas mal de fantasmes auxquels il convient de répondre.

Pourquoi les mesures d’audience de Mediamétrie/Netratings diffèrent-elles de l’OJD? L’OJD ne mesure pas des "audiences" mais certifie les mesures de trafic réalisées sur les sites (site centric). On y parle donc de visites, de volumétrie. Mediamétrie mesure des audiences à partir d’un panel d’internautes (user centric), on y parle de visiteurs uniques, de parts de marché. Si vous visitez un site deux fois dans la journée à partir de deux PC différents l’OJD vous comptera deux fois, Mediamétrie essayera de vous compter une fois. L’OJD prendra en compte le trafic du monde entier, Mediamétrie uniquement en France. Conclusion : ces deux types de mesures ne peuvent donc pas être comparées.

Pourquoi utiliser Nielsen ou Mediamétrie/Netratings? Parce que les régies publicitaires, les annonceurs et les acteurs en charge du media planning ont besoin de connaître les "audiences" des sites pour la pertinence du ciblage publicitaire. La proportion d’hommes et de femmes, les revenus des ménages, les CSP ne peuvent pas être fournies par l’OJD ou les mesures dites "site centric". Calculer la meilleure affinité d’un type d’audience avec un site est une donnée fondamentale pour les campagnes.

Ben où est le problème alors? Ben on ne peut jamais connaître avec certitude le nombre de lecteurs d’un site. Rien que ça…

La fraude existe-t-elle? Oui, quand certaines techniques permettent de modifier la proportion de panélistes lecteurs d’un site. En extrapolant la mesure d’audience d’un site à partir à partir d’une fraction de panélistes toute variation du nombre de panélistes fera varier la mesure de l’audience totale de façon disproportionnée (100 panelistes de plus sur votre site vaudront comme 10 000 visiteurs uniques supplémentaires, par exemple) . Tout est là. Attirer 100 panélistes sur votre site aura donc le même effet que 10 000 lecteurs côté OJD. Sauf que ça coute moins cher et que rien ne dit que les 10 000 lecteurs supplémentaires  contiennent des panélistes… Ce qui explique pourquoi vous pouvez voir votre trafic en hausse côté OJD et en baisse côté Nielsen et inversement. Comme les régies publicitaires ont avant tout l’oeil sur Mediamétrie c’est là que la "créativité" prend tout son intérêt.

C’est quoi ces histoires de jeux concours? L’astuce est simple. Mediamétrie doit constamment renouveler son panel en le recrutant sur Internet. Elle a commis l’erreur d’en recruter aussi via des sociétés spécialisées dans le marketing direct et les jeux concours (dont l’objet est essentiellement de constituer des bases de profils). C’est aussi une population qui répond positivement aux sollicitations par email. Certaines sociétés de jeux concours contiennent donc une proportion accrue de panélistes, lesquels sont en plus particulièrement réactifs aux sollicitations marketing. En clair des gus qui se gavent de concours à longueur de journées. Certaines de ces sociétés ont compris le truc et démarchent directement les sites en mal de dopage. Suffit d’héberger les pages du concours et pour améliorer le rendement il suffit d’obliger à cliquer sur des liens ou bannières afin de valider les réponses au concours (quand je dis que les gars du porno ont tout inventé…).

Alors pourquoi certains disent que les jeux concours ca rapporte "peanuts" côté trafic? Parce que côté OJD 1000 gus qui répondent "Michel Sardou" pour gagner un appareil photo numérique et bien ça fait 1000 visites, donc peanuts. Sauf que ça peut faire 100 000 VU côté Nielsen qui comptent finalement en parts de marché.

Que fait la police? Ce n’est pas illégal. Pas mal de jeux concours permettent aussi de recruter réellement des utilisateurs, des abonnés, des lecteurs ou simplement animer un site. C’est un outil de prospection légitime simplement l’usage peut en être détourné. Au passage je remarque que certains critiquent l’achat de mots clés comme technique de fraude. Non c’est une technique légitime pour recruter de nouveaux lecteurs il n’y a pas de raison de s’en priver, le budget est la seule limite ainsi que le retour sur investissement parfois hasardeux (non je ne vise personne).

Pourquoi Mediamétrie ne fait rien? Mediamétrie protège avant tout l’intégrité de ses méthodes de calcul, les règles definissant le périmètre d’une marque, d’un site, la définition des infractions éventuelles doit faire l’objet d’un consensus de ses souscripteurs. Voilà pourquoi on retrouve autour d’une table: les régies, les associations des annonceurs et des éditeurs, bref les clients. Les règles évoluent mais chaque modification peut avoir des conséquences insoupçonnées. En vérité un gros travail a été fait par Mediamétrie pour maintenir le principe d’une autorégulation malgré les querelles incessantes. La pratique des sites under a ainsi pu être régulée correctement (intéressant tout de même de savoir qui en abusait à l’époque, mais je ne vise personne, ah si en fait).

La confusion du périmètre des marques? C’est un point clé pour comprendre une partie des querelles de chiffres. Beaucoup jugent évident de penser que quand on parle de "l’audience" online du Figaro ou du Monde il s’agit du trafic du Figaro.fr et Lemonde.fr. La plupart des journalistes des rubriques medias, de bonne foi, ont ainsi été roulés dans la farine par des communiqués de presse ambigus. En réalité il s’agit de l’audience des "marques" (ou Brand dans la terminologie Nielsen). Toute la question est de définir le périmètre de cette marque, c’est à dire en y incluant sous-domaines, pages co-brandée avec des partenaires etc… C’est ce qui explique par exemple l’évolution de l’audience de l’Express en décembre qui intègre désormais celles de l’Expansion et L’Entreprise, par le choix commercial assumé de ses éditeurs (les critiques oublient d’ailleurs de noter que pendant des années le Nouvelobs.com a aussi regroupé plusieurs marques)

C’est nouveau comme astuce? Et bien non, ce n’est rien d’autre que la variante internet de la stratégie consistant par exemple à vous livrer un supplément magazine papier dans votre journal du week end.  Les plus grands tirages de la presse TV doivent leur "audience" à ce mode de distribution. Pas méchant si c’est transparent pour les annonceurs.

Alors on fait quoi? Je ne vais quand même pas vous le dire ici alors qu’on doit en causer dans quelques jours…
Le paradoxe de cette polémique récente c’est qu’elle survient alors qu’un grand nettoyage a justement été entrepris par Mediamétrie en accord avec ses clients à l’occasion de la mise en place du nouveau panel, en particulier autour de la définition des marques. Ainsi la notion de "réseau de marque" (Brand Network) a disparu des classements Nielsen, ils permettaient d’agréger des audiences de différentes marques afin de constituer un package commercial plus visible. Toutefois la notion de cobranding (sites ou pages comportant deux marques) est désormais au coeur de la question en permettant de fusionner des audiences de sites différents. Le cobranding est par ailleurs tout à fait légitime quand il s’agit d’intéger un service d’un partenaire ou isoler un environnement thématique (tiens, Eco89 et Rue89 par exemple ou E24 et 20minutes.fr). Pas simple d’interdire ou de fixer des règles strictes. C’est tout le point des prochaines discussions.

J’essayerai dans un prochain billet d’expliquer pourquoi ce débat est malheurusement très contre productif et pourquoi il est important de revenir à une stratégie de construction d’audience cohérente, propre à tout media soucieux de sa marque (bien résumé ici par P. Jannet). Aussi parce que tout ceci n’aurait pas eu lieu si la course au trafic à tout prix n’avait été la réponse insensée à la chute des CPM et des revenus publicitaires. On récolte aussi ce qu’on mérite…

Beaucoup citent Digg.com comme une des meilleures réussites du web dit 2.0 et je constate en discutant ça et là  que de nombreux commentateurs entretiennent l’illusion que Digg est une activité rentable. C’est faux. J’en suis le premier surpris. C’est ce que révèle BusinessWeek qui s’est plongé dans les comptes de la société. Digg.com accuse 4 M$ de pertes sur les trois premiers trimestres 2008 pour 6.4M$ de chiffre d’affaires. Un résultat en nette dégradation puisque le service accusait déjà 2,8M$ de pertes en 2007 (pour 4,8 M$ de CA).

A lire aussi un article intéressant de Techcrunch US qui anticipe en estimant les pertes totales de Digg pour 2008 à 5,3M$ pour 8,5 M$ de CA.

Lisez  très attentivement cet article d’Australian IT qui révèle un petit scandale sur certaines pratiques d’agences de pub en Australie.

En résumé: certaines agences ont compris comment exploiter le différentiel de CPM entre des sites éditoriaux à forte valeur ajoutée et des sites ou services à faibles CPM. Pour cela elles diffusent des campagnes sur les premiers, destinées à recueillir les données de navigation et de comportement des internautes. Ces informations sont stockées dans des cookies exploités par les adservers (les serveurs chargés de diffuser les campagnes publicitaires). Si l’internaute est identifié plus tard, par la présence sur son PC de ce cookie,  sur un site ou des réseaux à faibles CPM on lui sert alors une publicité ciblée et evidemment moins couteuse à diffuser que sur le premier site.

En clair on utilise les informations recueillies sur le site à forte valeur ajoutée pour qualifier l’audience sur un autre site à faible valeur ajoutée. C’est le but  du ciblage comportemental destiné clairement à valoriser les immenses inventaires des grands portails par exemple sur les pages des boites aux lettres électroniques. Sauf qu’ici on n’achète qu’un minimum d’espace sur le site de l’éditeur, voire même des espaces insignifiants, peu performants et à faible coût, le but n’étant pas en réalité de diffuser la campagne mais de générer un maximum de cookies qualifiés. Le gros de la campagne est dépensé ailleurs à moindre coûts mais en la justifiant par une audience qualifiée sur des sites!

Tout ceci à l’insu de l’éditeur du premier site et surtout à l’insu de l’utilisateur lui même. Pour faire court imaginez qu’un lecteur de LesEchos.fr se voit proposer de la publicité pour des services financiers quand il navigue sur un site de voyage. Pas scandaleux en soi, sauf que tout  le bénéfice de la stratégie consistant à proposer des contenus exigeants à une audience très ciblée est détourné à l’insu de l’éditeur pour enrichir un autre service. Autrement dit sur l’éditeur pèse l’ensemble des côuts permettant de qualifier une audience tandis que le bénéfice est collecté ailleurs. Les réseaux à faible CPM parasitent les sites à forts CPM… CQFD.

Ce que vient de rendre public cet article, et qu’on appelle le "retargeting" (reciblage) n’est ni plus ni moins qu’un vol. Au centre de la polémique: le rôle des ad-servers (les serveurs qui diffusent techniquement les campagnes) qui sont au coeur du système sur chaque page des éditeurs,  captent l’information et peuvent être manipulés en acceptant l’ajout de système de tracking de sociétés tierces.

Une question simple: qui contrôle les ad servers ?

La question compliquée: ce détournement de la valeur de l’audience est un vol car il s’effectue à l’insu des éditeurs et des utilisateurs. Mais comment le qualifier si on obtenait l’autorisation de l’une ou l’autre des parties?

Comment?

En rendant le processus cool
En rendant le processus utile

En le baptisant Open social ou Open Id, par exemple…

(Qu’on se rassure pour ça aussi il y a une réponse, une réponse négociée basée sur la reconnaissance du déséquilibre de l’échange de valeur. Encore faut-il la mesurer)

Cette fois il semble que les passions se lâchent: « Il y a encore six mois nous pensions y arriver, mais aujourd’hui, avec la crise actuelle, nous vous considérons comme notre pire ennemi », Pierre Conte, patron de Publiprint (Figaro). Selon la retranscription des échanges de la dernière session du pôle 3 des Etats Généraux il est clair que Google est désormais dans la ligne de mire des éditeurs français. Les propos sont violents et adressés à Josh Cohen en charge de Google News qui était l’invité du jour. J’assisterai demain matin à la prochaine rencontre entre Google et les éditeurs, cette fois dans le cadre du Geste, j’espère que le sang froid sera au rendez-vous.

Cette fois il ne s’agit plus de reprocher à Google la reprise des contenus sur Google news (assumée par tout le monde ou presque depuis le dernier étripage en 2003 que j’ai raconté ici) mais son rôle dans l’effondrement des tarifs publicitaires. Un débat complexe mais qui prouve que tout le monde a désormais bien identifié la nature du problème qui mine la presse en ligne: l’impossibilité de monétiser correctement l’information. Je ne suis pas sûr que Google soit le seul responsable sur un marché français où les CPM sont depuis longtemps très inférieurs aux voisins (lire aussi ici). Mais avec un cpm largement  inférieur à 10 euros sur Youtube et et un Google qui se met à proposer de la publicité vendue à la performance (cpc) dans les formats de type carré ou bannière (le display qui assure l’essentiel des revenus des medias) force est de constater qu’il participe activement à vider la baignoire.

Je verrai demain comment s’orientent les débats et la réponse de Google mais je doute que Josh Cohen soit le meilleur interlocuteur pour discuter de ces questions. A mon sens la question du démantèlement de Google se posera nécessairement tôt ou tard non pour remettre en cause le coeur de son activité mais parce que sa position dominante à la fois dans la distribution (search) et comme régie publicitaire constitue désormais une aberration économique qu’on n’aurait toléré d’aucun acteur économique dans une économie traditionnelle.

J’apprécie comme beaucoup la puissance du moteur de recherche et sa contribution à l’ouverture de l’économie des savoirs mais je pense que son modèle économique, du fait de sa position outrageusement dominante, relève désormais plus de la taxation des échanges économiques plus que des mécanismes du commerce. Google ponctionne la valeur ajoutée du commerce en ligne plus qu’il ne le facilite. Je l’écrivais en 2005 en comparant cette domination à celle des banquiers Lombards au Moyen-Age:  "l’enjeu c’est le pouvoir, celui qui contrôle les routes du commerce, filtre les échanges, les ponctionne, fixe les règles". En clair parce que Google contrôle les routes du commerce il est en situation de contrôler les mécanismes de fixation des prix. C’est la question.

MAJ 15/12/08
Quelques nouvelles  réactions des témoins à lire absolument:

Google en panne d’algorithme politique par Frederic Filloux sur E24.fr

"Google Chahuté" par Sophie Gohier, éditrice de L’Express.fr

Mediawatch avec (encore) Eric Scherer en version anglaise mais qui enrichit son compte rendu de la session qui s’est déroulé avec le GESTE le lendemain.

(Note: j’ai décidé de m’abstenir de faire le récit de la session du vendredi, nettement moins polémique de toute façon mais ayant un caractère privé. J’attends surtout pour commenter de savoir quel sera le texte final qui sera publié à l’issu des Etats Généraux).

Compte rendu express par Eric Scherer (AFP) de la troisème session du pôle Internet et numérique des Etats Généraux de la presse écrite. On planche encore sur la question de la pub. Cette fois on parle de baisse des recettes publicitaires pour les medias en ligne à partir du deuxième trimestre aux US, sur le quatrième trimestre en France. Marie-Laure Sauty de Chalon, CEO d’Aegis Media Europe du Sud, s’inquiète du prix de la pub, tiré vers le bas. C’est en effet le risque annoncé par pas mal d’analystes. Risque auquel il faudra résister. L’expérience de 2001 a montré qu’on se relève difficilement des braderies improvisées.

A noter que l’on désigne à nouveau Google et sa position dominante: "On est tous en train de se mettre dans la gueule du loup" a-t-elle expliqué. On parle d’un taux de reversement de 70% (ce qui me paraît la moyenne basse, très basse tout de même) et un chiffre d’affaire de près d’un milliard d’euros (chiffres estimés mais non-confirmés). De l’autre côté on fustige la faiblesse des titres français en matière de référencement. Sur ce point je ne suis pas tout à fait d’accord. Certes la presse quotidienne régionale qui devrait être en pointe en matière de presse en ligne s’est repliée sur elle-même (à mon avis) mais les principaux titres ont au contraire phagocyté assez rapidement Google News en mettant en place une politique de production de dépêches assez agressive. Simplement une partie des contenus n’est toujours pas mis en ligne, gratuitement ou non. Je ne suis pas sûr qu’il y ait des marges de progression si importante que cela alors que Google se tourne de plus en plus vers les contenus "rich media".

Bref je pense qu’il y a  surtout une trop grande disparité des pratiques pour en tirer une conclusion globale. A vrai dire mon sentiment c’est que la presse est passée d’une méfiance trop grande vis à vis de Google à une soumission dangereuse. La course au volume se fait parfois au détriment de la cohérence du positionnement éditorial. Normal avec un prix de la pub 3 ou 4 fois inférieur à nos voisins anglo-saxons la course au volume est ouverte. Le piège est là. Intéressant de voir que les acheteurs d’espace et les régies prennent conscience que la course au prix le plus bas va à l’encontre des intérêts de tous et n’a pour conséquence qu’un alignement à terme sur Google. Une perspective mortelle.

Plus d’infos anxiogènes: TELECHARGEZ le rapport Perfect-Storm 2008-2009 d’AFP MediaWatch  qui propose un état des lieux annuel des medias.


A lire sur ZDNet.fr (un des sites dont j’ai la charge) un entretien avec Olivier Abecassis DG de WAT, la plate-forme video de TF1. Il annonce un intéressant revirement de stratégie: désormais la priorité consiste à monétiser le contenu propriétaire de la chaîne ainsi que celui de ses partenaires. WAT continuera à héberger le contenu des utilisateurs (UGC) mais ne croit plus à la capacité de tirer des revenus suffisants de ces videos à la qualité aléatoire et controversée.

Une décision qu’on peut rapprocher de la stratégie autour de Hulu.com aux USA, soutenue en particulier par Fox (Murdoch) et qui consiste à privilégier exclusivement la monétisation des contenus des éditeurs. Le calcul est simple: mieux vaut moins d’audience mais une monétisation à l’unité accrue et exploiter ses fonds de catalogue. En face rappellons que Youtube ne monétise que moins de 5% de son stock de video.

La strategie des Youtube, Dailymotion et même Myspace consiste aussi à accroitre la part du contenu propriétaire par des accords avec des éditeurs mais également, ce qui est passé un peu plus inaperçu, à recycler le contenu "piraté". Comment? Grâce aux différents système d’identification des videos qui permettent de réattribuer la paternité de ces contenus aux éditeurs d’origine et de leur proposer un partage des revenus sur leur exploitation. Une stratégie ingénieuse qui transforme le piratage en système de distribution. Malin. Très malin même si, en pratique, l’identification des videos est loin d’être un processus fiable et repose sur la capacité de référencer au préalable les oeuvres originales afin de comparer les signatures numériques.

Bref deux modèles et deux choix stratégiques s’opposent sur le marché de la video. Une course contre la montre.

Lu via Techcrunch, l’incontournable rapport de Morgan Stanley par Marie Meeker. Notez Slide n°15 la baisse tendancielle des CPM qui accompagne la course aux pages vues (impressions).

Petit passage ce matin au micro de France Culture avec mon collègue de l’AFP Eric Scherer sur le thème de la crise de la presse. Discussion bien sage qui a tourné en aimable pugilat (en partie aussi hors micro). Ecouter ici (ou dans les archives à partir de demain – émission du 6 novembre).

Après coup je pense que certains de mes propos peuvent être mal compris ou interprétés. En particulier quand je rétorque un peu trop vivement à Clémentine Autain que la question des Etats Généraux ne "concerne" pas les lecteurs (et j’imagine déjà les réactions horrifiées face à ma comparaison avec les boulangers). Evidemment les lecteurs sont au coeur des préoccupations simplement je pense que les Etats Généraux devraient se concentrer sur les aspects économiques et industriels, il n’est pas normal de venir dans un ministère discuter des contenus et de "quoi et comment écrire". Il y a d’autres lieux pour ça et en théorie chacun devrait aborder les Etats Généraux avec une vision claire de sa stratégie éditoriale.

Bref c’est une question qui se traite en amont, ailleurs, ou même en aval des Etats Généraux. Dire que les journalistes ne sont pas présents aux Etats généraux est faux, dire qu’il faut inviter les lecteurs relève de la démagogie facile (en particulier parce ce que se poserait aussi la question de leur représentativité). Qu’on se rassure, les lecteurs, on ne pensent qu’à eux mais il faut parfois assumer de se poser des questions industrielles et commerciales et laisser de côté la philosophie. En particulier en situation d’urgence, parce qu’on a pas voulu se poser ces questions il y a dix ans.

Très étonné d’entendre Alexandre Adler (que j’admire par ailleurs) souhaiter protéger le petit cocon des aides de l’Etat pour "préserver" L’Humanité, Le Figaro et d’autres journaux. Faut-il rappeler que certains journaux ne doivent leur survie sous perfusion que par la position stratégique qu’ils occupent dans la chaîne de distribution afin de préserver le marché français de l’arrivée de groupes de presse étrangers et concurrents. L’emploi attendra, ne touchons à rien. Faut-il rappeler que les aides de l’Etat ont permis aussi de financer indirectement tout une partie de la diffusion "grise" gratuite de certains journaux, lesquels tirent fierté d’un modèle payant qu’ils ont pourtant gangrené. Bref je maintiens que la question économique et industrielle prime sur la dissertation.

Hélas

"L’important n’est pas de protéger le papier mais de protéger l’écrit"

Excellent discours d’ouverture. Brillant.

C’est dit.

(Même s’il semble surestimer la capacité à monétiser l’information et deux ou trois détails – bonne réflexion sur la question publicitaire sur Internet même si ça fait mal)

Certains medias ont toujours beaucoup de mal à mettre un lien vers les sources sur Internet. Donc pour ceux qui veulent lire le rapport les médias et le numérique remis à Sarkozy par Danièle Giazzi, secrétaire générale de l’UMP, cliquez ici (Voir aussi l’entretien avec Danièle Giazzi sur 20Minutes.fr).

Comme prévu le rapport vise à détricoter les dernières barrières limitant la concentration dans l’industrie des medias. L’argument, logique, de la nécessité de de bâtir des groupes multimedia l’emporte sur la question de légiférer sur le seul écosystème de l’internet. Pas le temps de commenter plus avant ce matin  mais je note qu’on tente de renouer sans surprise avec la bonne vieille recette colbertiste qui favorise la constitution de pôles industriels puissants dont on favorisera la position dominante et qui deviendront l’interlocuteur naturel de l’Etat. Reflexe naturel bien français, parfois efficace, toujours spectaculaire, et qui permet de s’économiser une vraie réflexion sur le développement des initiatives individuelles et d’un ecosystème favorable au développement d’un tissu industriel. D’ailleurs je ne vois pas grand monde représentant les medias internet dans la liste des personnes consultées. Mais les principaux consommateurs d’aides de l’Etat y sont bien représentés.

Je constate qu’il y a des petits gestes pour tout le monde et que l’essentiel vise à préserver les intérêts des différents acteurs de la profession. Il faut faire le tri entre les cadeaux, les gestes symboliques et les prises de risques. Je note en vrac pour commenter plus tard, :

- Il faut sortir de la beatitude numérique"

- Sauvegarde des medias traditionnels. La plupart de ces recommandations appellent aujourd’hui des décisions urgentes. Elles touchent en effet :
soit

  • à la sauvegarde des médias traditionnels dont certains sont aujourd’hui menacés dans leur pérennité même, et d’autres dans leur qualité ;
  • soit à l’aide au développement vers le numérique de ces médias, qui risquent sans cela de se replier sur des marchés en régression ;
  • soit au nouveau monde des médias sur le web, à travers des régulations, des instruments de qualité professionnelle ou des cadres juridiques (droit d’auteur) ou éthiques.

- Il n’y aura pas d’indépendance ni de qualité sans rentabilité

- Il y a donc urgence à faire sauter les verrous qui empêchent de grands groupes de médias français à devenir de grands groupes plurimédia mondiaux, entraînant avec eux tout le secteur des industries culturelles.

- Stimuler la compétitivité globale de l’écosystème notamment en favorisant l’émergence de champions internationaux.

Les recos  :

- Recommandation n°1 : Constitutionnaliser la défense du pluralisme et de l’indépendance de la presse
- Recommandation n°2 : Améliorer le financement de la presse en développant le mécénat
- Recommandation n°3 : Créer auprès du Premier ministre un observatoire du pluralisme dans la presse
- Recommandation n°4 : Étendre les compétences du CSA et le charger du respect du pluralisme
- Recommandation n°5 : Élargir les aides de la commission paritaire aux nouveaux supports d’information

[Les journaux gratuits et journaux intenret]  doivent pouvoir bénéficier des dispositifs d’aides existant (aides à la fabrication, aides à la modernisation,…) et, pour les supports pur web d’une TVA à taux réduit que nous recommandons également d’appliquer, comme nous le verrons plus bas, aux supports numériques destitres de presse.

- Recommandation n°6 : Inscrire les chartes de déontologie des journalistes dans leur Convention collective
- Recommandation n°7 : Professionnaliser les sites d’information en favorisant le recrutement de journalistes
- Recommandation n°8 : Recentrer les aides à la presse sur la presse d’information générale et politique
- Recommandation n°9 : Doter l’Agence France Presse d’un statut et d’une direction pérennes
- Recommandation n°10 : Recentrer la Loi Bichet sur sa vocation d’origine

Pour cela, nous recommandons de revenir à l’esprit d’origine de la loi Bichet en limitant son domaine d’application à la seule presse d’information générale et politique (PIGP).
- Recommandation n°11 : Appuyer le plan des NMPP, favoriser l’ouverture de nouveaux points de presse
- Recommandation n°12 : Libéraliser la réglementation des points de vente
- Recommandation n°13 : Développer la pratique du portage à domicile

- Recommandation n°14 : Soutenir une réforme drastique des imprimeries
- Recommandation n°15 : Stimuler la recherche et l’innovation sur la diffusion numérique
- Recommandation n°16 : Soutenir une recherche et une formation ambitieuses sur les stratégies numériques
- Recommandation n°17 : Susciter des formations marketing dans les écoles de journalisme et de communication
- Recommandation n°18 : Inciter les groupes de presse à former leurs journalistes aux technologies numériques
- Recommandation n°19 : Mettre en place des mesures d’incitation à l’investissement numérique

- Recommandation n°20 : Élargir le périmètre des aides à la numérisation
- Recommandation n°21 : Soutenir financièrement la double diffusion analogique et numérique de l’audiovisuel
- Recommandation n°22 : Élargir le périmètre d’intervention de la Caisse des Dépôts à l’investissement dans les groupes de médias
- Recommandation n°23 : Autoriser un groupe de médias à posséder une chaîne de télévision, une radio et un quotidien de dimension nationale
- Recommandation n°24 : Relever le seuil d’audience maximale pour un média radio
- Recommandation n°25 : Asseoir les limites à la concentration de la télévision sur une audience réelle à défi nir plutôt que sur le nombre de chaînes
- Recommandation n°26 : Supprimer les seuils de détention capitalistique (49 %, 15 %, 5 %)
- Recommandation n°27 : Résoudre la question des droits d’auteur des journalistes de la presse écrite
Selon nous, une adaptation du régime actuel des droits d’auteurs s’impose. Elle devrait intégrer trois principes fondamentaux :

  • la neutralité du support (papier vs numérique) ;
  • la sécurité juridique de l’éditeur ;
  • la garantie de droits attachés aux journalistes et
    à leur statut.

    Pour notre part, nous privilégions une approche
    par cercles concentriques ;

  • en contrepartie du paiement d’un salaire, le journaliste
    céderait son contenu à l’ensemble des
    supports d’un même titre ou marque (Ex : pour
    le support papier, le support internet, le support
    mobile…)
  • Ensuite, et dans le cadre d’une négociation
    collective et en contrepartie d’une rémunération
    supplémentaire, la possibilité d’exploiter
    le contenu sur d’autres titres ou marques du
    groupe auquel appartient le journaliste peut être
    accordée ;
  • Enfin, le journaliste, en l’absence d’accord explicite,
    dispose du droit de refuser la cession du
    contenu à l’extérieur du groupe si le support ou
    le groupe acquéreur ne lui convient pas.

- Recommandation n°28 : Adapter le cahier des charges des chaînes de télévision aux contraintes de la nouvelle donne numérique
- Recommandation n°29 : Repenser les obligations de coproduction et les droits patrimoniaux des chaînes de télévision
Augmenter de 15 à 34 % le seuil qui fait considérer les sociétés de production « dépendantes » des chaînes de télévision.

- Recommandation n°30 : Préserver les équilibres économiques face aux évolutions des marchés de la publicité
- Recommandation n°31 : Aménager les règles de la publicité à la télévision
- Recommandation n°32 : Optimiser et garantir les règles de mesure d’audience des contenus
- Recommandation n°33 : Permettre à la radio de relever le défi numérique dans de bonnes conditions
- Recommandation n°34 : Appliquer un régime de TVA unique pour les médias, quel que soit leur support de diffusion

A suivre

C’est John Battelle, incontournable googologue qui a recueilli la déposition de Giuan Fulgoni, Président de Comscore. Comme on peut s’y attendre il défend la valeur ajoutée de son service et explique à juste titre que Comscore propose une anlayse de l’audience plus poussée que Ad Planner. C’est l’avantage de l’expérience du panel, la remarque vaut pour Nielsen, ces services sont capables de détailler les données socio démographiques et certaines caractéristiques comportementales des internautes alors que l’outil de Google semble (si on en juge aux quelques infos disponibles) reste sommaire.

Conclusion: comme Google Analytics Google propose avant tout un service d’entrée de gamme pour des entreprises ne pouvant se payer les deux Rolls du secteur. Perfide il rend compte de certaines observations sur les écarts statistiques entre les différents outils de mesure. Un terrain plutôt glissant quand on connaît l’interminable débat sur la fiabilité des outils users centric (par panel). Je suis toutefois assez d’accord avec ses arguments malgré ce que j’ai pu dire hier il n’y a pas de mort programmée de Comscore ou Nielsen. Comme d’habitude Google se positionne juste en dessous, raflant le marché de masse. Reste à savoir si Ad Planner parviendra à convaincre les agences et les media-planneurs…  

Suivre

Recevez les nouvelles publications par mail.