La crise favorise les solutions extrèmes, c’est compréhensible, mais on ne peut que s’étonner de la différence des niveaux de réflexion stratégique d’un pays à l’autre. Côté France je découvre avec stupéfaction (pour ne pas dire plus) l’existence d’un projet de taxation des FAI, soutenu par la direction de Liberation, pour financer la presse généraliste, grosso modo la licence globale appliquée à la presse.

Cela prête à sourire mais je crois volontiers que l’absense de perspectives puisse conduire à ce genre de réflexe désespéré, en particulier quand on a la charge de sauver des emplois. Je n’aime pas du tout en revanche que l’on brandisse l’argument de la démocratie en péril pour justifier des avantages économiques . Je soutiens une grande partie des mesures issues des Etats Généraux concernant les droits d’auteur des journalistes et le statut d’éditeur en ligne, je suis extrèmement réservé vis à vis des mesures destinées à créer un sous-statut pour la presse "d’information générale et politique ". En pratique elle vise à délimiter très arbitrairement le petit cercle de la presse "utile à la démocratie" qui se partagera les aides de l’Etat. La ficelle est grosse, faut-il pour autant y ajouter le produit d’une taxation des FAI. Le raisonnement me laisse pantois. Je passe sur la répartition calculée "sur la fréquentation et  la taille des rédactions".  Quelle sorte d’aveuglement ou d’arrogance (ou de désespoir) peut soutenir un tel raisonnement ?

Côté US, le vent de résistance de la presse accouche d’un document probablement discutable mais à l’argumentation calculée. Issu d’une réflexion menée par les directions de plusieurs journaux américains ce document intitulé "Newspaper Economic Action Plan" résume les grandes lignes d’une stratégie consistant à généraliser la formule payante pour la presse d’information généraliste. A noter que ce livre blanc reprend les données des modèles économiques soumis par l’ami Jeff Mignon sur son blog  (voir ici directement les hypothèses de calcul). Je ne partage pas la volonté récurrente d’en découdre avec Google News mais il faut reconnaitre que le scénario est moins caricatural que l’approche binaire tout payant contre tout gratuit. En particulier il intègre l’usage des API, c’est à dire la necessité d’associer au payant une stratégie de distribution des contenus tenant compte des avancées technologiques des dernières années. En particulier une volonté de faire payer les usages plutot que les contenus (je reste farouchement hostile au paiement à l’acte article par article mais après tout chacun peut établir ses propres recettes).

Pour être complet voici une première critique de ce document sur le blog de Scott Rosenberg (co-fondateur de Salon.com). Ses arguments basés sur ses propres échecs me paraissent valables mais il me semble que si une grande majorité des journaux adoptent de concert une stratégie payante il peut se créer un écosystème plus favorable qu’au cours des dernières années (où envisager le payant semblait une erreur face à un marché publicitaire en croissance rapide). Tout cela bien sûr au prix d’une décroissance de l’audience des sites de news généralistes, c’est tout le point. Autrement dit renoncer aux revenus incrémentaux de la longue traîne pour privilégier une hausse du revenu par utilisateur et une audience qualifié.

L’approche des journaux US appliquée au raisonnement de Joffrin reviendrait non pas à taxer les FAI mais au contraire travailler avec eux c’est à dire les utiliser pour ce qu’ils sont: des canaux de distribution. Une piste: faire financer par Orange l’accés aux contenus payants du quotidien des abonnés Orange. Techniquement l’accès et l’authentification des abonnés peut s’effectuer en toute transparence via les API Orange Connect (injustement méconnues, semblable au dispositif Facebook Connect – voir le dispositif Orange Connect que nous avons installé sur CNETFrance.fr - cliquer sur "Identification" en haut à droite puis le logo Orange). Un accord de régie avec Orange peut permettre de compenser tout ou partie des coûts grâce au ciblage publicitaire spécifique de ces abonnés. La qualification des profils peut également générer de nouvelles sources de revenus, on me pardonnera de ne pas les détailler ici.

Avantage: c’est la valeur de l’abonnement ou de l’accès payant, contrôlé par l’éditeur, qui fixe le niveau de valorisation de l’opération et non les conditions volatiles du marché publicitaire sur des audiences non qualifiées. Certes  celà pose la question de l’indépendance vis à vis des opérateurs mais c’est une autre histoire. Un scénario négociable n’est-il pas préférable à des conditions commerciales imposées ou un impôt?

MAJ 04/06/09 via Eric Scherrer: la stratégie mixte du Wall Street Journal où Google News n’est pas bloqué mais est utilisé comme vecteur de recrutement.

Stupéfiant! Même si j’ai expliqué pourquoi le statut d’hébergeur allait nécessairement prendre du plomb dans l’aile je pariais en mon for intérieur pour un jugement plus prudent dans le cas opposant Olivier Martinez et Fuzz. En particulier parce que la procédure prévue par la LCEN et consistant à désigner à l’herbergeur le contenu potentiellement litigieux n’a pas été respectée. Helas cette procédure n’est pas obligatoire, on l’avait oublié, et comme d’habitude le jugement le plus symbolique sanctionne le cas le moins évident, le plus injuste. Fuzz.fr, petit agrégateur sans véritable poids économique.

(Maj 28/03/08 : le détail de l’ordonnance de référé)

Je le dis clairement, j’aurais aimé qu’on discute aujourd’hui d’une Laure Manaudou qui avait toutes les raisons d’attaquer sans regret tous les sites qui d’une manière ou une autre ont sciemment exploité la diffusion des photographies intimes. On aurait pu tranquillement démontrer comment la querelle autour du statut d’hébergeur est parfaitement fondée et comment il peut permettre de détourner, pour des intérêts commerciaux, l’esprit de la Loi conçue, je n’en doute pas, pour préserver les conditions de la liberté d’expression.

Las, Manaudou a choisi la modération malgré son honneur bafoué et Martinez dont on apprend, culot suprême, l’annonce de son mariage, a choisi l’affrontement (MAJ: le mariage est finalement démenti, c’est le bouquet, merci l’AFP et Europe 1 de m’avoir induit en erreur). La justice tranche ainsi sur fond de confusion extrème et génère incompréhension et inutile frustration. Ainsi soit-il. Désormais messieurs vous savez ce qui empoisonne la presse française depuis plusieurs années: on peut publier la vérité et être condamné. Je le dis et le redis, le combat des blogs se mène avec les éditeurs et non avec les hébergeurs.

Puisque, faute de mieux, il faut bien commenter l’affaire Fuzz rappelons que techniquement ce jugement n’a pas valeur de jurisprudence et que rien n’est joué sur le fond (l’affaire Lespipoles.com est bien plus pernicieuse sur ce point). En revanche, dans l’attente de pouvoir lire le détail du jugement, il me faut exprimer mon effroi devant l’extrême bétise qui s’est épanchée au cours des derniers jours pour défendre Eric Dupin sur le thème "je n’aime pas Olivier Martinez".

Je m’explique…

Je ne mets pas en doute la bonne foi des initiateurs et de la très large majorité des individus ayant soutenu cette initiative, y compris l’astucieuse technique du Google bombing. Le résultat, une campagne de lynchage pure et simple, relève pourtant de la plus profonde immaturité, pire il est extrèmement dangereux:

- La blogosphère a offert sur un plateau des milliers d’articles dont le caractère diffamatoire ne fait aucun doute. Alors qu’à l’origine l’affaire pouvait se plaider, il y a désormais un boulevard pavé d’euros pour exiger des dommages et intérêts. On ne peut pas faire mieux en matière de crétinisme. Prions simplement pour que le défenseur d’Olivier Martinez comprenne la nécessité de calmer le jeu.

- Qu’on le veuille ou non Olivier Martinez A LE DROIT de demander à la justice de trancher s’il estime être lésé. C’est à la justice de décider si sa démarche est fondée ou si elle est abusive. En clair on peut hurler à l’abus, à l’erreur, à l’injustice mais on ne peut nier à un plaignant son droit fondamental à faire appel à la justice. AUCUN JURISTE ne peut contester ce droit car ce serait précisément nier l’existence d’un état de droit. Ce que je crains est simple: l’organisation spontanée ou non de l’opération "je n’aime pas Olivier Martinez" a-t-elle pu influer négativement sur le jugement de l’affaire en se transformant en un déni pur et simple des droits du citoyen.

Alors, et ensuite?

Ensuite, il faudra attendre les autres jugements à venir et rapidement s’attaquer au fond de la question. Puisqu’on a pris le temps de définir ce qu’était un hébergeur en sachant pertinemment que ce type de litige allait survenir tôt ou tard et puisque des juristes m’expliquent (voir les commentaires) à juste titre que c’est le statut d’éditeur qui n’a jamais été précisé et bien repartons du point de départ, redéfinissons le statut d’éditeur à l’heure d’internet. Redéfinissons le cadre juridique permettant à ceux qui assument ce rôle de librement diffuser partie de leur contenu (par exemple via RSS) sans contraindre nécessairement à la contractualisation. Travaillons à définir le media d’un nouveau genre, le media ouvert. N’instrumentalisons pas la Loi pour couvrir les éditeurs masqués sous le statut d’hébergeur.

A titre personnel et professionnel je compte m’engager sur cette question et l’appliquer aux medias que je dirige. C’est dit.

Quelques bonnes lectures:
> Chez Narvic, la question du lynchage
> Chez l’incontournable Versac, le lynchage encore
> Chez Eolas toujours brillant, Que faire quand on reçoit un courrier d’avocat (pour expliquer simplement qu’une assignation n’est pas une condamnation)
> Chez Juriscom.net toujours pertinent (et du côté de la LCEN) un bilan intéressant de la LCEN par le parlement - document toutefois encore non définitif. Document qui tente de soutenir la légitimité du statut d’hébergeur tout en le distinguant ouvertement du statut d’éditeur pourtant réputé "non défini"…
> Chez JB Soufron sur ZDNet.fr, le statut d’hébergeur remis en question
> Chez Adscriptor, la défense de Fuzz, côté bonne foi

Je réagis avec un peu de retard à ce fait d’actualité qui semble donner des migraines à pas mal de monde. Et pour de bonnes raisons. Résumons: le site Lespipoles.com qui, comme beaucoup fait commerce d’une bonne potée de flux RSS en provenance de sites éditoriaux couvrant l’actualité des stars, se retrouve grosjean devant la barre du tribunal . Son tort? Avoir diffusé le titre et le lien d’un article de Gala évoquant une relation entre le réalisateur du film La Môme et Sharon Stone. On se fiche au passage de savoir si l’info est véridique, pour la petite histoire, on peut très bien se retrouver condamné même si l’info est confirmée (bienvenue dans le monde du droit de la presse français).  Donc il y a atteinte à la vie privée et le grossiste en flux RSS se retrouve punaisé au mur et délesté d’un paquet d’euros.

Emois sur le web. Le RSS ne serait pas "bulletproof"!  Je relève quelques articles qui se font l’echo du malaise: Chauffeurdebuzz, PresseCitron, Tom, et Tubbydev qui pose brutalement les questions qui fâchent.

Deux questions majeures:
- "Comment peut-on se retrouver responsable du contenu des autres": en les publiant banane!
- "Le coup du statut d’hébergeur ne marche plus!" : pas encore mais les avocats ont beaucoup appris et ont commencé à affuter les arguments permettant de limiter la portée de cette astuce juridique héritée de la LCEN en particulier en démontrant l’intentionnalité de l’éditeur/hébergeur et la manipulation des contenus. C’est la grande nouveauté de ce jugement, qui contrairement à ce que certains pensent, n’est pas issu de l’appréciation hasardeuse du juge.

La remise en question progressive du statut d’hébergeur faisait partie de mes prévisions pour 2008, pas par hasard, parce qu’elle fait l’objet de l’attention de pas mal de juristes. Parce qu’elle ouvre aussi la porte du Paradis des dommages et intérêts. Elle inaugure le compte à rebours de la normalisation d’une partie l’industrie du Web 2.0.

Une question mineure:
- "Comment puis-je surveiller les contenus de centaines de flux RSS?" : facile, personne n’oblige à le faire, la seule réponse c’est l’obligation de recueillir l’accord de l’éditeur du flux RSS pour l’exploiter commercialement et de contractualiser l’accord. Peu le savent mais c’est ce que les juristes de la plupart des groupes de presse imposent, ce que pratiquent depuis longtemps les portails à la Yahoo!, MSN. Peu importe la nature de ces accords ils visent tous à affirmer la responsabilité juridique de l’émetteur des flux c’est à dire l’éditeur d’origine de l’information. En clair il protège celui qui réexploite les contenus, l’éditeur assumant ses responsabilités. La routine.

Maintenant la question marrante et qui fâche:
- "Les agrégateurs de flux sont-ils menacés?".

Ben oui.

Laurent Binard de Wikio m’expliquait qu’il recevait un grand nombre de mises en demeure. Simplement dans la plupart des cas elles sont le fait de juristes qui balayent le web au nom de leurs clients sans trop se soucier du statut de celui qui diffuse l’information (ce qui est d’ailleurs probablement le cas de l’affaire présente). Rarement ces démarches débouchent sur un jugement, la plupart du temps le retrait du contenu est suffisant ou un accord amiable.

C’est tout le malentendu de la situation: il n’y a jamais eu le moindre doute, du moins en France, sur la responsabilité de ceux qui diffusent ou rediffusent des informations simplement l’absence de vraie bataille juridique. C’était déjà la question posée à Google News il y a quelques années par les éditeurs. En vérité l’échange et la libre diffusion des flux RSS repose avant toute chose sur une tolérance relative, sur le "fair use", sur le pari que la relation profite in fine à l’éditeur plus qu’elle ne le lèse.

Toute la vraie question est de savoir si les agrégateurs seront capables de construire une relation équilibrée avec les éditeurs, c’est à dire au besoin en cas de déséquilibre de la relation, de proposer des dispositifs assurant une juste contrepartie aux éditeurs. C’est à dire de se comporter en véritable distributeur plutôt qu’en media parasite. Ces discussions ont été engagées tardivement avec Google, je les ai eu avec Wikio, Netvibes, d’autres. Elles sont souvent constructives. Elles témoignent simplement que le nouvel écosystème se met en place, celui où chacun prend ses marques et apprivoise les nouveaux mécanismes de distribution. La normalisation de l’économie numérique, tout simplement. Elle sera impitoyable pour ceux qui ne la respecteront pas.

A titre personnel, malgré une sévère tendance à l’ironie, je suis partisan de la tolérance en matière d’usage des flux RSS car je pense qu’ils sont un des mécanismes indispensables à la distribution des contenus à moindre coût et surtout à l’accélération du partage des savoirs et de l’information. Peu à peu les grandes plates-formes d’hébergement (blogs, videos) devront simplement sécuriser leurs activités en contractualisant avec les vrais producteurs de contenus. L’exemple de Dailymotion montre par exemple comment s’organise peu à peu la distribution des contenus labelisés des éditeurs.

On oublie simplement que les flux RSS avaient vocation à servir un usage privé. Leur utilisation à des fins de publication et d’exploitation commerciale sont nécessairement soumis à contractualisation. L’apparente liberté perçue par les blogueurs est apparente. En réalité chaque plate-forme de blog comporte dans ces CGU des clauses déterminant la responsabilité de ses utilisateurs, certains éditeurs prennent aussi la peine de faire figurer des CGU relatifs à l’usage de leurs flux. La majorité précise les restrictions d’usage.

Bref ce jugement peut paraître regrettable, il était prévisible.

Ca couine sérieusement sur les blogs d’experts à propos de l’évaluation du nombre d’abonnés aux flux RSS. Des chiffres popularisés par l’outil de mesure Feedburner et son petit compteur affiché par de nombreux blogs et Google Reader qui affiche désormais ce type de données. J’avais déjà signalé il y a un an des problèmes liés à l’émergence de nouvelles plateformes d’agrégation RSS comme Netvibes qui avaient bousculé les stats de feedburner. Cette fois le problème relève moins du problème technique que de la gonflette involontaire.

En clair on découvre des variations brutales ou des évolutions stratosphériques qui touchent souvent des blogs déjà très populaires. Parmi plusieurs causes possibles la promotion artificielle des flux RSS de ces blogs dans des "packages" préchargés ou mis en avant lors de l’inscription aux services de type Google Reader.  Une pratique qui n’a rien de scandaleuse (au contraire elle donne une prime aux blogs les plus populaires) mais qui génère une audience artificielle qui ne consulte pas, en réalité, le contenu des flux. Peter Cashmore, auteur du site Mashable.com, démontre   la corrélation entre l’inflation des stats et la présence des flux RSS concernés dans les packages promotionnels mais surtout il explique que les sites ayant redirigés leurs flux via d’autres instruments de mesure ont vu fondre leur "nombre d’abonnés".

Une démonstration qui montre que les stats ne correspondent pas à une mesure d’usage réelle mais qui surtout tend à prouver que les instruments de mesure ne détectent pas l’absence d’utilisation de ces flux. Une situation qui m’étonne un peu car jusqu’à présent j’ai pu observer des périodes de croissance et de décroissance du nombre d’abonnés ce qui tendait à prouver que la mesure était élastique. Certes personne n’a jamais affirmé que l’"abonnement" à un flux valait pour usage. Apres tout personne ne demande à l’abonné d’un magazine s’il le lit. Sauf qu’il le paye…

Comme tout le monde je m’interroge sur l’absence de corrélation entre une nombre vertigineux d’abonnés aux flux RSS et l’absence d’un niveau d’audience du site proportionnel. Par exemple Techcrunch France affiche plus de 120 000 abonnés aux flux RSS mais Nielsen Netratings est presque incapable de détecter l’audience du site web ce qui suppose un nombre de visiteurs uniques inférieur au minimum requis par la méthode du panel (soit moins de 30 000 alors que l’audience du blog de Loïc Lemeur est détectée régulièrement, même au delà du seuil de validité fixé à 100 000 visiteurs uniques, ceci avec 25000 abonnés). Pour être complet il faut signaler que Techcrunch propose l’intégralité de ses contenus dans le flux RSS ce qui peut expliquer au moins partiellement le manque de report sur le site.

Il ne s’agit pas de remettre en cause ici la qualité de tel ou tel blog puisque précisément les variations semblent toucher les blogs plus visibles et les plus connus  (Henri et Ouriel s’interrogent sur 2803.com et Techcrunch) mais il faut bien s’inquiéter de la fiabilité de la mesure et son utilisation en matière de communication commerciale.

Pour mémoire la question de la certification de la mesure d’audience du RSS a été posée à l’OJD début 2007, une commission spécialisée à laquelle j’ai participé a conclu à l’impossibilité de certifier une telle mesure. En cause le manque de fiabilité des instruments de mesure et les biais trop facilement exploitables de ce qui n’est qu’un instrument de type push media. En clair seule la mesure du trafic "entrant" vers le site web est sérieusement exploitable (et encore, elle est gonflée par l’effet des moteurs de recherche qui indexent les flux).

Pour info : le flux RSS d’Ecosphere compte plus de 1300 abonnés selon Feedburner mais la plateforme WordPress.com génère un second flux RSS d’"origine" qui comptait entre 500 et 800 abonnés supplémentaires. A cause du manque de fiabilité des mesures WordPress a récemment renoncé à diffuser l’audience des flux RSS, pour ces raisons je n’affiche pas la mesure, forcément partielle de Feedburner.

On sait désormais les raisons de l’accord avec l’AFP et AP (ainsi qu’avec la Canadian Press et UK’s Press Association). Google News annonce aujourd’hui qu’il hébergera lui même les dépêches d’agences mettant ainsi fin aux polémiques. Mais derrière l’annonce se cache une petite bombe: en retour Google va filtrer les mêmes dépêches d’agences qu’il référencait jusqu’à présent sur les sites medias. En clair tous les sites qui doivent leur référencement aux flux continus de dépêches vont recevoir une vilaine claque.

MAJ 19h30 : visiblement c’est parti, premier exemple en Une de Google…
afp-google3.gif
J’ai peut être l’esprit tordu mais je sens dans le communiqué de Google une ironie mordante:

"Starting today, Google News users will be able to quickly and easily find original stories from news publishers and go directly to the original source, including stories from some of the top news agencies in the world. This new approach not only enhances the experience for users, it also gives proper recognition to journalists and publishers who work hard to break the news."

Je traduis pour les anglophobes: "Chers journalistes vous nous bassinez avec la qualité et bien on vous les coupe et on va voir ce que vous avez dans le ventre" (traduction approximative). Bien vu. En clair en nettoyant l’index des centaines de duplications de dépêches aspirées ça et là Google News affirme pouvoir mettre en valeur la production originale des différents medias. Mathématiquement ça se tient le contenu original se retrouvant moins "dilué" dans la profusion de dépêche mais cela pourrait provoquer une onde de choc inattendue.

Je publie ici tous les mois le Google News Report (sauf depuis juin pour cause de probleme technique sur l’outil de mesure) qui classe les sources d’information de Google News. J’ai plusieurs fois signalé le problème: beaucoup de sites medias doivent leurs positions dominantes sur Google News aux dépêches d’agence diffusées par centaines chaque jour. Le moteur interprète la récurrence de la même info comme une marque d’importance ce qui donne un bonus aux sources. Ce qu’ont aussi parfaitement compris de nombreux sites de référenceurs. Ce qu’on sait moins c’est qu’une très grosse partie des articles de sites medias ne sont pas accessibles à Google, une fois les dépêches filtrées le stock réellement pris en compte pourrait se réduire à la portion congrue. Bref les statistique du prochain mois pourraient être saignantes.

La grande inconnue : Google News va-t-il identifier les articles basés sur la réécriture partielle des dépêches (un vieux truc largement employé pour s’approprier l’information à peu de frais)? A priori Google explique que les dépêches filtrées resteront tout de même référencées mais apparaîtront dans un classement secondaire pour permettre aux lecteurs de "découvrir les enrichissements et infos supplémentaires apportés par les sites medias". Si Google ne parvient pas à identifier les simili-articles je parie sur une vague de réécriture de titres de dépêches…

"Users will also have the option to click to see all other copies of that article, wherever it has been published, giving them additional opportunities to click through to those publishers’ websites and see extra content, background, and analysis from publishers."

Google continuera bien entendu à référencer et afficher normalement les articles originaux des sites d’information. L’initiative est je dois dire salutaire mais à mon avis il reste encore à faire le nettoyage des sources d’information dans l’index de Google News et clarifier les critères d’intégration.

> Lire l’article tout frais sur Leschos.fr: "Google News élimine les articles de presse copiant les dépêches d’agences"
> L’article de Paidcontent sur le même sujet

L’explication ici à 19h because info sous embargo. Préparez le pop-corn…
Bing c’est l’heure …

Suite et fin d’une saga commencée il y a un an, l’accord entre Les Echos et Netvibes (Disclosure: j’ai pris part à la mise en place du projet) vient d’aboutir à la mise en place d’un service de page d’accueil personnalisée: mesechos.fr. Le service ne dépaysera pas les habitués des pages persos, il s’agit pourtant d’une première mondiale basée sur la toute dernière évolution de la technologie Netvibes. Visuellement c’est (presque) invisible mais le dispositif permet de créer des passerelles entre des pages personnelles existantes et les "univers" aux couleurs des partenaires.

Deux situations: soit vous disposez déja d’une page personnelle et la visite sur un univers comme mesechos.fr vous permet de "piocher" les modules et flux pour les ajouter à votre page, soit vous n’avez pas de page personnelle et mesechos.fr devient l’univers de départ de votre page personnelle. Un dispositif qui n’a pas d’équivalent sur le web actuellement et qui inaugure une nouvelle façon de partager l’information. Pour cette raison aussi il ne s’agit pas d’un dispositif de type marque blanche.

C’est un peu la suite de mon précédent billet sur l’économie du RSS et qui inaugure une nouvelle façon d’exploiter le RSS associé à la technologie des widgets. Comme je l’ai déjà dit, ce type de service vise aussi à démocratiser l’usage du RSS auprès d’un public plus large qui peut ainsi découvrir un mode de consultation alternatif de l’information tout en préservant l’exigence d’un contexte et d’une affinité propre à la marque.   

mesechos.gif

(Note : pour ceux que ça intéresse nous avons aussi créé sur Facebook un groupe des "amis des Echos" qui a eu la primeur de l’annonce du lancement , c’est ici).

C’est un débat ancien qui revient alors que la popularité des flux RSS laisse entrevoir l’opportunité d’une monétisation acceptable. La question est la suivante: pourquoi les éditeurs ne distribuent pas leurs articles au format intégral dans les flux RSS? Débat relancé par Freaknomics, un blog américain qui a l’occasion d’un partenariat avec le NYTimes a du abandonner la distribution de ses billets au format intégral, les publicités n’étant plus affichées que sur les pages web du site du quotidien (et non au sein des flux RSS).

Une contrainte qui ne ravit pas les lecteurs du blog qui doivent désormais cliquer sur les liens du flux RSS pour lire l’intégralité des articles sur le site web. Ce qui, il faut le rappeler, est tout de même une pratique largement majoritaire en ce qui concerne les flux RSS. Une situation qui provoque la colère de Scott Karp sur Publishing 2.0 qui reproche au NYTimes et aux annonceurs un raisonnement dépassé.

 Je comprends la frustration de certains lecteurs et des geeks férus de RSS (j’en suis) mais c’est aussi l’occasion de rappeler que le débat n’est pas aussi simple qu’il en a l’air. Le coeur du débat concerne moins le contenu que la délicate question de la monétisation. Je résume les arguments des deux bords et ajoute les miens:  

Côté pour: 
- Lecture efficace : débarrassé du support web on peut enfin lire les textes sur le support de son choix sans contrainte de navigation. 
- Gain de temps : on ne lit que le contenu voulu, sans distraction
- La monétisation est possible, pub a l’affichage ou à la performance par insertion de liens (popularisé par la régie Feedburner.com)
- Distribution en temps réel des contenus, visibilité normalisée pour chaque article (contre le web où la promotion des articles est inégalement répartie avec le risque d’échapper au lecteur)
- Lien fort avec le lecteur qui témoigne de son attachement à la marque éditrice par une acte d’"abonnement" aux flux.

Côté contre:
- Perte de maîtrise de la distribution de ses contenus (le RSS ne se résume pas à une consommation via des lecteurs de flux par des individus mais aussi la reprise sur d’autres sites web)
- Informations limitées sur les utilisateurs de flux: certes les outils de mesure à la Feedburner ou autres donnent quelques indications mais finalement assez imparfaites et très partielles.
- Pas de cookies ou scripts pour envisager le ciblage et l’analyse: volumes et taux de clics sont les seules données récupérables.
- Pas de "contexte" de lecture pour convaincre les annonceurs et justifier des tarifs spécifiques.
- Taux de clics médiocres: pour être honnête une étude de l’agence marketing Pheedo tend à nuancer ce constat et en particulier la proximité des taux de clics sur les pubs dans les deux types de format, RSS intégral contre RSS partiel. Des taux toutefois en retrait par rapport au web.
- Un point laissé de côté par les commentateurs: quid des revenus de publicités insérées par les éditeurs mais affichées sur les services comme My.Yahoo, My.Google, Netvibes et consorts. Situation identique à ce que l’on connait déja sur les video à la Youtube diffusées sur les plateformes de blogs. Combien de temps avant que celles-ci (qui peuvent bloquer l’intégration des videos ne revendiquent leur part du gateau publicitaire à Youtube?). En clair la situation serait très exactement la suivante: les éditeurs se retrouverait à générer des revenus sur les pages de Google et Yahoo. Celles-ci pouvant à tout moment être refusées par ces "hébergeurs". Ceux qui pensent que les plateformes de consultation des flux RSS ne renvendiqueront pas un jour ces revenus font preuve d’une étonnante naïveté.
- Enfin rappelons-le: l’usage du RSS contrairement à ce qui peut se dire est encore très peu répandu au delà d’une population d’internautes technophiles
- Monétisation encore très faible et CPM difficilement extensibles avec comme corollaire un impossible retour sur investissement sur le coût des articles à quelques exceptions près sur des niches (blogs à faible coûts de production par ex).
- En France l’éternel problème des droits d’auteur peut compromettre ce type de distribution ou sa rentabilité.
- A terme perte d’affinité avec la marque et dilution du media dont l’activité fini par se résumer à une activité d’agence de presse.

 En vérité je comprends tout a fait que du point de vue du lecteur, les éditeurs se privent de répondre à une véritable demande. Une situation paradoxale et dangereuse. Mais la passion des cercles technophiles cache une méconnaissance du contexte juridique de la publication. Pour un lecteur qui consulte un article sur My.Yahoo, il lit son journal autrement. En réalité pour l’éditeur on diffuse son article chez un tiers (je ne parle pas de publication car la consultation reste privée dasn ce cas). 

Il y a certainement une réponse juridique à ce problème mais elle conduit forcément à une négociation pouvant mener à un partage des revenus, difficilement imaginable compte tenu de la rentabilité  encore très aléatoire des activités d’édition en ligne. Elle conduirait de plus à renforcer encore plus le poids des portails lesquels, faut-ils le rappeler, sont totalement incapables de monétiser l’affichage publicitaire au niveau de celui des éditeurs. Pire ils sont responsables du nivellement par le bas des tarifs publicitaires. Ceux qui pensent que Feedbuner remboursera le coût de production de leurs articles n’ont visiblement testé l’engin (où ignorent qu’ils passent à côté d’un niveau de rémunération bien supérieure).

En clair les éditeurs sont parfaitement prêts, techniquement, à distribuer gratuitement des contenus intégraux dans leur flux RSS (apres tout ils le font déjà, ça s’appelle le XML et la syndication) mais les conditions économiques ne sont pas encore favorables à ce type de déploiement et les implications juridiques et commerciales relèvent du terrain miné.

J’ai certainement oublié un certain nombre d’arguments, à vous de compléter…

Depuis deux ans le RSS est l’objet de toutes les attentions, alors que Feedburner un des principaux services de mesure d’audience du RSS devient gratuit (aussi bien l’analyse technique "pro" que l’hébergement des domaines du client) c’est l’occasion de faire le point sur le sujet. Xiti Monitor a publié quelques chiffres intéressants sur le sujet à partir des données de ses clients.

A retenir:

- Les flux RSS comptent pour 1,8% du total des visites. C’est faible, assez pour faire douter de l’intérêt d’investir. Sachant que ce chiffre doit très probablementêtre surévalué en incluant le trafic généré par les moteurs de recherche qui indexent les liens des articles des flux RSS utilisés sur les sites, blogs et autres espaces éditoriaux (liens qui contiennent le tag Xiti).
- 57% des visites en provenance du RSS ne génèrent qu’une page par visite. C’est LE gros problème du RSS, il encourage un comportement de zapping et l’aller retour vers l’article. En clair le lecteur ne visite pas le site.
- Sur les 43% des visites à partir du RSS générant plus d’une page, la moyenne des pages est de 7,1 contre 8,5 pour les autres sources. 
-  Même problème pour la durée des visites : 5’53 pour le RSS contre 7’19 pour les autres souces.  

Problème: la qualité des visites et l’implication des lecteurs (le "User Engagement") se mesurent justement par la durée et le nombre de pages ainsi que la fréquence des visites (elle plutôt en faveur du RSS). Paradoxe: le RSS est considéré comme le vecteur de trafic emblématique du Web 2.0 mais il génère des comportements et des visites de mauvaise "qualité".

Dans ces conditions faut-il promouvoir le RSS?

Hélas oui… Je dis hélas parce que ces données ne facilitent pas la vie de ceux qui ont, comme moi, la charge de la stratégie d’audience mais l’intérêt est aussi réel:

- La souscription à un flux RSS équivaut à un acte d’abonnnement, preuve de l’attachement au média et à sa marque. Paradoxalement se sont les utilisateurs les plus proches de la marque media qui adoptent le RSS pour suivre l’actualité sur une multiplicité de support (personnellement je les utilise aussi sur mon téléphone portable). Pour moi c’est un argument majeur.
- La fréquence des visites est, en théorie, accrue par le RSS en particulier parce qu’il s’agit d’un dispositif d’alerte puissant (effet hélas atténué par la faiblesse des pages vues).
- Les flux RSS sont un dispositif puissant de distribution du contenu en particulier parce qu’ils s’adaptent à différents support et favorisent l’échange (l’effet blog).
- Pour le référencement les flux RSS offrent aux moteurs de recherche une alternative très efficace pour indexer en profondeur les contenus. Très utiles en particulier pour les sites payants (comme Les Echos…).
- Les flux RSS permettent de cibler des usages différents du média et des pôles d’intérêts spécifiques de certains lecteurs que ne peut restituer le rubriquage des sites (suivi thématique, alertes personnalisées, veille etc…). Un atout déterminant pour fidéliser des lecteurs exigeants.

Pour résumer le RSS est un instrument indispensable de fidelisation du noyau dur de son lectorat. Reste à savoir s’il peut dépasser le cadre de cette fraction de lectorat, rien n’est gagné sur ce point. Une piste: les pages personnalisées à la Netvibes, les téléphones.

C’est l’occasion d’indiquer la mise à jour du vénérable Alertinfo le lecteur de flux RSS du Geste qui regroupe les flux de la majorité des titres de presse française. La nouvelle version (téléchargeable gratuitement ici), Alertinfo 2.0, est basée sur le logiciel Feedreader 3.0 (excellente version que j’ai par ailleurs adoptée) et elle permet de sélectionner les sources d’infos avant de télécharger l’application. Pratique pour les débutants.

Note: non je ne commenterai pas les remous actuels autour de Netvibes et du départ de Pierre Chappaz  et Marc Thouvenin, étant moi-même impliqué sur le sujet. Dommage la plupart des commentaires sur le sujet sont pour la majorité à côté de la plaque ou insipides. Un seul a retenu mon attention pour sa tentative d’analyse, toutefois imprécise, c’est ici.

Annoncé par Sam Sethi, confirmé par Techcrunch, le rachat de Feedburner par Google serait conclu pour 100 M$. Franchement il y a comme une lassitude à commenter ces rachats successifs. On ne parlera bientôt plus de Web mais de Googlesphère tant le contrôle de l’ensemble de la chaîne de valeur de l’internet est désormais total. Feedburner n’est pourtant pas un maillon important de cette chaîne (je ne trouve pas d’infos sur sur chiffre d’affaire) mais la société est devenue un des acteurs incontournables pour la distribution des flux RSS.

Feedburner, que j’utilise d’ailleurs depuis près d’un an sur ce blog permet de consulter des statistiques précises sur la consultation des flux RSS, d’en faire la promotion par un tas de petites fonctions évoluées (par exemple intégrer les titres de mes billets dans ma signature d’email). Enfin il permet de les valoriser en y intégrant des liens publicitaires. L’interface est bien faite, l’éditeur choisit les campagnes de pub qu’il souhaite insérer et visualise le CPC proposé. Vraiment très cool et très pratique. Par contre côté perfomance il faut bien admettre que ce n’est pas convaincant. Qu’on en juge: j’ai près de 1000 abonnés (le double sur mes anciens flux WordPress) et je n’ai touché que 1,39 dollars (versés sur Paypal). Les pubs ne sont pas ciblées (en anglais et pour le marché US), les messages sont en fait plus près des liens sponsorisés que de la pub de branding, bref de la performance par toujours haut de gamme, avec des taux de clics souvent médiocres.

Bref rien de révolutionnaire, et la monétisation des flux RSS ne semble pas un pari gagné. En revanche comme intermédiaire de diffusion des flux RSS l’acquisition de feedburner est probablement stratégique pour accompagner la distribution des contenus sur les nouveaux supports comme le téléphone mobile. L’information sur les nouveaux usages, comme toujours, a probablement plus de valeur que la monétisation de court terme.   

MAJ: j’ajoute tout de même un point. Le mariage avec Google permettra de combler un gros manque de Feedburner: l’impossibilité de suivre les performances du flux en aval sur le site de destination. Ce qui de mon point de vue est plus important que de connaître le nombre d’abonnés, chiffre bien peu fiable. Couplé avec Google Analytics l’ensemble de la mesure sera disponible en amont et en aval du flux RSS. Chose déjà possible avec un outil de mesure traditionnel (eStats, Xiti etc…) à condition de combiner le marquage de l’outil avec le flux encapsulé par Feedburner. Tout ça pour dire qu’au fond les capacités de mesure de Feedburner n’ont finalement qu’un intérêt limité, la plupart des outils de mesure pouvant intégrer le même fonctionnalités sans trop de problème.

A signaler en toute discretion un accord entre Wikio et le GESTE . Accord de principe après quelques rencontres ayant permis de comprendre le modèle des uns et des autres ainsi que leur complémentarité. Une façon aussi de dépassionner le débat entre éditeurs et agrégateurs, mal engagé avec le conflit entre Google News et les éditeurs belges. L’annonce, très sobre, se lit sur Wikio.fr. Ayant participé aux discussions je ne développerai pas mais je salue la distance parcourue en quelques années sur le sujet sensible de l’agrégation des news.

Je les ai toujours considéré comme nos nouveaux distributeurs même s’il ne faut pas nier qu’ils construisent leur activité sur l’exploitation de nos contenus sans toujours se soucier des implications légales. Comme dans Astérix tout s’arrange autour d’une bonne table. La question est moins de remettre en cause cette opportunité que d’en calculer l’impact positif pour les éditeurs. Question d’équilibre entre la valeur de se qu’on cède et celle que l’on reçoit, au final. Reste une inconnue sensible pour moi, l’agrégateur aura un rôle positif s’il fait la démonstration qu’il répond à un besoin réel des internautes et s’il crée une nouvelle audience en révélant les nouveaux usages. En revanche s’il doit son seul succès à sa position entre le site de l’éditeur et les moteurs de recherche, Google en tête, il ne fait que parasiter un ecosystème. Parmi les discussions que j’ai eu avec Laurent Binard (patron de Wikio) figure en bonne place la question du référencement des articles de presse.

La perspective de voir un article mieux positionné sur Google via l’agrégateur que via son site d’origine est un problème car l’agrégateur tient son propre référencement de sa capacité à regrouper l’ensemble des flux des uns et des autres et de l’addition des fréquences de publication. Une situation dangereuse qu’il faut contrôler techniquement. Heureusement Google News se refuse à indexer les autres agrégateurs (on imagine sinon le tourbillon infernal…), d’ailleurs la tendance du moment est de privilégier les producteurs de contenus originaux, professionnels ou non, c’est une bonne chose. 

Pas de lien direct avec la signature de cet accord, quoique, mais j’en profite pour signaler l’expérimentation initiée entre lesechos.fr et Wikio.fr à l’occasion du lancement demain du site compagnon www.auditdelafrance.fr. Ce site reprend l’intégralité du supplément des Echos du 13 mars consacré au bilan économique de la France (voir la video de présentation). Wikio.fr y joue un rôle en fournissant un module destiné à afficher les articles de la blogosphère qui réagissent et commentent ces articles, à la manière de Technorati. Une interaction qu’on espère enrichissante en plein débat électoral. A vos plumes (le site sera ouvert en fin de journée demain)…

Jimmy Wales, patron de Wikipedia, vient très discrètement d’annoncer que les liens externes figurant dans l’encyclopédie collaborative seront désormais bridés par un attribut"No Follow" interdisant aux moteurs de recherche de "suivre" ces liens et d’améliorer ainsi le référencement des sites de destination. C’est la fin d’un petit business discret pour les professionnels du référencement et quelques spammeurs malins.

Lire aussi les inquiétudes un peu exagérées de Nicolas Carr sur le sujet…

Beaucoup avait en effet remarqué l’importance de ce type de lien à mesure que Wikipedia gagnait en légitimité et pertinence. Placer un lien sur Wikipedia était devenu un sport très prisé. Difficile de contrôler cette pratique, la pertinence des choix des sites de destination étant souvent affaire de jugement personnel. Fin de la récré plutôt que d’encourager le "link building" Jimmy Wales a décidé de neutraliser cette pratique sans l’interdire. Limitant l’intérêt mercantile de la pratique il espère ainsi limiter le spam et privilégier le sens et la qualité. Bien vu mais c’est aussi un coup de canif dans un système de valeur.

Il y a des petits signes qui montrent ça et là que l’on entre progressivement dans une phase de déconstruction de ce qui a lancé la deuxième vague de neteconomie triomphante. J’avais consacré un des premiers billets de mon blog sur ZDNet.fr, il y a tout juste deux ans, aux trackbacks (à l’époque nous étions un des premiers site de presse français à les intégrer dans nos articles quotidiens). Une technologie mise en place par la plate-forme Typepad, permettant aux blogs d’interagir entre eux et ouvrant la voie à une nouvelle économie de la diffusion des contenus. Une technologie vite neutralisée pour cause de spam. Neutralisée exactement de la même manière que pour Wikipedia.

Personnellement je salue la démarche qui consiste à limiter la porté de ces fonctionnalités sans pour autant les interdire mais il faut bien constater que dans le même temps on égratigne ce qui est à la base de l’écosystème des medias sur internet. En limitant ce qui a permis l’éclosion de nouveaux réseaux de distribution et le rééquilibrage du référencement entre petits et grands médias ont rabat impitoyablement le marché vers le règles de distribution traditionnelles, celles où l’on achète sa promotion par la publicité ou l’on pratique l’échange de notoriété entre sites à forte audience. Celles qui se mesurent en moyens financiers.

Je crains que l’on n’ait pas fini d’assiter à cette déconstruction du jardin d’Eden. Entre la chasse, légitime, contre le spam et l’optimisation des revenus des outils de recherche s’instaure peu à peu des barrières d’entrée de plus en plus puissantes pour accéder à la notoriété. La longue traîne a bon dos si l’on assiste a une concentration accrue de l’audience sur les sites les plus puissants ou si le prétexte de la pertinence conduit à réduire le choix des services. Voir sur ce point cette découverte très intrigante du Journal du Net sur des tests réalisés par Google en matière de positionnement des liens.

Suivre

Recevez les nouvelles publications par mail.