Pour ou contre les contenus intégraux dans les flux RSS

C’est un débat ancien qui revient alors que la popularité des flux RSS laisse entrevoir l’opportunité d’une monétisation acceptable. La question est la suivante: pourquoi les éditeurs ne distribuent pas leurs articles au format intégral dans les flux RSS? Débat relancé par Freaknomics, un blog américain qui a l’occasion d’un partenariat avec le NYTimes a du abandonner la distribution de ses billets au format intégral, les publicités n’étant plus affichées que sur les pages web du site du quotidien (et non au sein des flux RSS).

Une contrainte qui ne ravit pas les lecteurs du blog qui doivent désormais cliquer sur les liens du flux RSS pour lire l’intégralité des articles sur le site web. Ce qui, il faut le rappeler, est tout de même une pratique largement majoritaire en ce qui concerne les flux RSS. Une situation qui provoque la colère de Scott Karp sur Publishing 2.0 qui reproche au NYTimes et aux annonceurs un raisonnement dépassé.

 Je comprends la frustration de certains lecteurs et des geeks férus de RSS (j’en suis) mais c’est aussi l’occasion de rappeler que le débat n’est pas aussi simple qu’il en a l’air. Le coeur du débat concerne moins le contenu que la délicate question de la monétisation. Je résume les arguments des deux bords et ajoute les miens:  

Côté pour: 
– Lecture efficace : débarrassé du support web on peut enfin lire les textes sur le support de son choix sans contrainte de navigation. 
– Gain de temps : on ne lit que le contenu voulu, sans distraction
– La monétisation est possible, pub a l’affichage ou à la performance par insertion de liens (popularisé par la régie Feedburner.com)
– Distribution en temps réel des contenus, visibilité normalisée pour chaque article (contre le web où la promotion des articles est inégalement répartie avec le risque d’échapper au lecteur)
– Lien fort avec le lecteur qui témoigne de son attachement à la marque éditrice par une acte d' »abonnement » aux flux.

Côté contre:
– Perte de maîtrise de la distribution de ses contenus (le RSS ne se résume pas à une consommation via des lecteurs de flux par des individus mais aussi la reprise sur d’autres sites web)
– Informations limitées sur les utilisateurs de flux: certes les outils de mesure à la Feedburner ou autres donnent quelques indications mais finalement assez imparfaites et très partielles.
– Pas de cookies ou scripts pour envisager le ciblage et l’analyse: volumes et taux de clics sont les seules données récupérables.
– Pas de « contexte » de lecture pour convaincre les annonceurs et justifier des tarifs spécifiques.
– Taux de clics médiocres: pour être honnête une étude de l’agence marketing Pheedo tend à nuancer ce constat et en particulier la proximité des taux de clics sur les pubs dans les deux types de format, RSS intégral contre RSS partiel. Des taux toutefois en retrait par rapport au web.
– Un point laissé de côté par les commentateurs: quid des revenus de publicités insérées par les éditeurs mais affichées sur les services comme My.Yahoo, My.Google, Netvibes et consorts. Situation identique à ce que l’on connait déja sur les video à la Youtube diffusées sur les plateformes de blogs. Combien de temps avant que celles-ci (qui peuvent bloquer l’intégration des videos ne revendiquent leur part du gateau publicitaire à Youtube?). En clair la situation serait très exactement la suivante: les éditeurs se retrouverait à générer des revenus sur les pages de Google et Yahoo. Celles-ci pouvant à tout moment être refusées par ces « hébergeurs ». Ceux qui pensent que les plateformes de consultation des flux RSS ne renvendiqueront pas un jour ces revenus font preuve d’une étonnante naïveté.
– Enfin rappelons-le: l’usage du RSS contrairement à ce qui peut se dire est encore très peu répandu au delà d’une population d’internautes technophiles
– Monétisation encore très faible et CPM difficilement extensibles avec comme corollaire un impossible retour sur investissement sur le coût des articles à quelques exceptions près sur des niches (blogs à faible coûts de production par ex).
– En France l’éternel problème des droits d’auteur peut compromettre ce type de distribution ou sa rentabilité.
– A terme perte d’affinité avec la marque et dilution du media dont l’activité fini par se résumer à une activité d’agence de presse.

 En vérité je comprends tout a fait que du point de vue du lecteur, les éditeurs se privent de répondre à une véritable demande. Une situation paradoxale et dangereuse. Mais la passion des cercles technophiles cache une méconnaissance du contexte juridique de la publication. Pour un lecteur qui consulte un article sur My.Yahoo, il lit son journal autrement. En réalité pour l’éditeur on diffuse son article chez un tiers (je ne parle pas de publication car la consultation reste privée dasn ce cas). 

Il y a certainement une réponse juridique à ce problème mais elle conduit forcément à une négociation pouvant mener à un partage des revenus, difficilement imaginable compte tenu de la rentabilité  encore très aléatoire des activités d’édition en ligne. Elle conduirait de plus à renforcer encore plus le poids des portails lesquels, faut-ils le rappeler, sont totalement incapables de monétiser l’affichage publicitaire au niveau de celui des éditeurs. Pire ils sont responsables du nivellement par le bas des tarifs publicitaires. Ceux qui pensent que Feedbuner remboursera le coût de production de leurs articles n’ont visiblement testé l’engin (où ignorent qu’ils passent à côté d’un niveau de rémunération bien supérieure).

En clair les éditeurs sont parfaitement prêts, techniquement, à distribuer gratuitement des contenus intégraux dans leur flux RSS (apres tout ils le font déjà, ça s’appelle le XML et la syndication) mais les conditions économiques ne sont pas encore favorables à ce type de déploiement et les implications juridiques et commerciales relèvent du terrain miné.

J’ai certainement oublié un certain nombre d’arguments, à vous de compléter…

Publicités

RSS : un impact toujours relatif mais indispensable

Depuis deux ans le RSS est l’objet de toutes les attentions, alors que Feedburner un des principaux services de mesure d’audience du RSS devient gratuit (aussi bien l’analyse technique « pro » que l’hébergement des domaines du client) c’est l’occasion de faire le point sur le sujet. Xiti Monitor a publié quelques chiffres intéressants sur le sujet à partir des données de ses clients.

A retenir:

– Les flux RSS comptent pour 1,8% du total des visites. C’est faible, assez pour faire douter de l’intérêt d’investir. Sachant que ce chiffre doit très probablementêtre surévalué en incluant le trafic généré par les moteurs de recherche qui indexent les liens des articles des flux RSS utilisés sur les sites, blogs et autres espaces éditoriaux (liens qui contiennent le tag Xiti).
– 57% des visites en provenance du RSS ne génèrent qu’une page par visite. C’est LE gros problème du RSS, il encourage un comportement de zapping et l’aller retour vers l’article. En clair le lecteur ne visite pas le site.
– Sur les 43% des visites à partir du RSS générant plus d’une page, la moyenne des pages est de 7,1 contre 8,5 pour les autres sources. 
–  Même problème pour la durée des visites : 5’53 pour le RSS contre 7’19 pour les autres souces.  

Problème: la qualité des visites et l’implication des lecteurs (le « User Engagement ») se mesurent justement par la durée et le nombre de pages ainsi que la fréquence des visites (elle plutôt en faveur du RSS). Paradoxe: le RSS est considéré comme le vecteur de trafic emblématique du Web 2.0 mais il génère des comportements et des visites de mauvaise « qualité ».

Dans ces conditions faut-il promouvoir le RSS?

Hélas oui… Je dis hélas parce que ces données ne facilitent pas la vie de ceux qui ont, comme moi, la charge de la stratégie d’audience mais l’intérêt est aussi réel:

– La souscription à un flux RSS équivaut à un acte d’abonnnement, preuve de l’attachement au média et à sa marque. Paradoxalement se sont les utilisateurs les plus proches de la marque media qui adoptent le RSS pour suivre l’actualité sur une multiplicité de support (personnellement je les utilise aussi sur mon téléphone portable). Pour moi c’est un argument majeur.
– La fréquence des visites est, en théorie, accrue par le RSS en particulier parce qu’il s’agit d’un dispositif d’alerte puissant (effet hélas atténué par la faiblesse des pages vues).
– Les flux RSS sont un dispositif puissant de distribution du contenu en particulier parce qu’ils s’adaptent à différents support et favorisent l’échange (l’effet blog).
– Pour le référencement les flux RSS offrent aux moteurs de recherche une alternative très efficace pour indexer en profondeur les contenus. Très utiles en particulier pour les sites payants (comme Les Echos…).
– Les flux RSS permettent de cibler des usages différents du média et des pôles d’intérêts spécifiques de certains lecteurs que ne peut restituer le rubriquage des sites (suivi thématique, alertes personnalisées, veille etc…). Un atout déterminant pour fidéliser des lecteurs exigeants.

Pour résumer le RSS est un instrument indispensable de fidelisation du noyau dur de son lectorat. Reste à savoir s’il peut dépasser le cadre de cette fraction de lectorat, rien n’est gagné sur ce point. Une piste: les pages personnalisées à la Netvibes, les téléphones.

C’est l’occasion d’indiquer la mise à jour du vénérable Alertinfo le lecteur de flux RSS du Geste qui regroupe les flux de la majorité des titres de presse française. La nouvelle version (téléchargeable gratuitement ici), Alertinfo 2.0, est basée sur le logiciel Feedreader 3.0 (excellente version que j’ai par ailleurs adoptée) et elle permet de sélectionner les sources d’infos avant de télécharger l’application. Pratique pour les débutants.

Note: non je ne commenterai pas les remous actuels autour de Netvibes et du départ de Pierre Chappaz  et Marc Thouvenin, étant moi-même impliqué sur le sujet. Dommage la plupart des commentaires sur le sujet sont pour la majorité à côté de la plaque ou insipides. Un seul a retenu mon attention pour sa tentative d’analyse, toutefois imprécise, c’est ici.

Feedburner racheté par Google

Annoncé par Sam Sethi, confirmé par Techcrunch, le rachat de Feedburner par Google serait conclu pour 100 M$. Franchement il y a comme une lassitude à commenter ces rachats successifs. On ne parlera bientôt plus de Web mais de Googlesphère tant le contrôle de l’ensemble de la chaîne de valeur de l’internet est désormais total. Feedburner n’est pourtant pas un maillon important de cette chaîne (je ne trouve pas d’infos sur sur chiffre d’affaire) mais la société est devenue un des acteurs incontournables pour la distribution des flux RSS.

Feedburner, que j’utilise d’ailleurs depuis près d’un an sur ce blog permet de consulter des statistiques précises sur la consultation des flux RSS, d’en faire la promotion par un tas de petites fonctions évoluées (par exemple intégrer les titres de mes billets dans ma signature d’email). Enfin il permet de les valoriser en y intégrant des liens publicitaires. L’interface est bien faite, l’éditeur choisit les campagnes de pub qu’il souhaite insérer et visualise le CPC proposé. Vraiment très cool et très pratique. Par contre côté perfomance il faut bien admettre que ce n’est pas convaincant. Qu’on en juge: j’ai près de 1000 abonnés (le double sur mes anciens flux WordPress) et je n’ai touché que 1,39 dollars (versés sur Paypal). Les pubs ne sont pas ciblées (en anglais et pour le marché US), les messages sont en fait plus près des liens sponsorisés que de la pub de branding, bref de la performance par toujours haut de gamme, avec des taux de clics souvent médiocres.

Bref rien de révolutionnaire, et la monétisation des flux RSS ne semble pas un pari gagné. En revanche comme intermédiaire de diffusion des flux RSS l’acquisition de feedburner est probablement stratégique pour accompagner la distribution des contenus sur les nouveaux supports comme le téléphone mobile. L’information sur les nouveaux usages, comme toujours, a probablement plus de valeur que la monétisation de court terme.   

MAJ: j’ajoute tout de même un point. Le mariage avec Google permettra de combler un gros manque de Feedburner: l’impossibilité de suivre les performances du flux en aval sur le site de destination. Ce qui de mon point de vue est plus important que de connaître le nombre d’abonnés, chiffre bien peu fiable. Couplé avec Google Analytics l’ensemble de la mesure sera disponible en amont et en aval du flux RSS. Chose déjà possible avec un outil de mesure traditionnel (eStats, Xiti etc…) à condition de combiner le marquage de l’outil avec le flux encapsulé par Feedburner. Tout ça pour dire qu’au fond les capacités de mesure de Feedburner n’ont finalement qu’un intérêt limité, la plupart des outils de mesure pouvant intégrer le même fonctionnalités sans trop de problème.

Accord entre Wikio et les éditeurs de presse en ligne français

A signaler en toute discretion un accord entre Wikio et le GESTE . Accord de principe après quelques rencontres ayant permis de comprendre le modèle des uns et des autres ainsi que leur complémentarité. Une façon aussi de dépassionner le débat entre éditeurs et agrégateurs, mal engagé avec le conflit entre Google News et les éditeurs belges. L’annonce, très sobre, se lit sur Wikio.fr. Ayant participé aux discussions je ne développerai pas mais je salue la distance parcourue en quelques années sur le sujet sensible de l’agrégation des news.

Je les ai toujours considéré comme nos nouveaux distributeurs même s’il ne faut pas nier qu’ils construisent leur activité sur l’exploitation de nos contenus sans toujours se soucier des implications légales. Comme dans Astérix tout s’arrange autour d’une bonne table. La question est moins de remettre en cause cette opportunité que d’en calculer l’impact positif pour les éditeurs. Question d’équilibre entre la valeur de se qu’on cède et celle que l’on reçoit, au final. Reste une inconnue sensible pour moi, l’agrégateur aura un rôle positif s’il fait la démonstration qu’il répond à un besoin réel des internautes et s’il crée une nouvelle audience en révélant les nouveaux usages. En revanche s’il doit son seul succès à sa position entre le site de l’éditeur et les moteurs de recherche, Google en tête, il ne fait que parasiter un ecosystème. Parmi les discussions que j’ai eu avec Laurent Binard (patron de Wikio) figure en bonne place la question du référencement des articles de presse.

La perspective de voir un article mieux positionné sur Google via l’agrégateur que via son site d’origine est un problème car l’agrégateur tient son propre référencement de sa capacité à regrouper l’ensemble des flux des uns et des autres et de l’addition des fréquences de publication. Une situation dangereuse qu’il faut contrôler techniquement. Heureusement Google News se refuse à indexer les autres agrégateurs (on imagine sinon le tourbillon infernal…), d’ailleurs la tendance du moment est de privilégier les producteurs de contenus originaux, professionnels ou non, c’est une bonne chose. 

Pas de lien direct avec la signature de cet accord, quoique, mais j’en profite pour signaler l’expérimentation initiée entre lesechos.fr et Wikio.fr à l’occasion du lancement demain du site compagnon www.auditdelafrance.fr. Ce site reprend l’intégralité du supplément des Echos du 13 mars consacré au bilan économique de la France (voir la video de présentation). Wikio.fr y joue un rôle en fournissant un module destiné à afficher les articles de la blogosphère qui réagissent et commentent ces articles, à la manière de Technorati. Une interaction qu’on espère enrichissante en plein débat électoral. A vos plumes (le site sera ouvert en fin de journée demain)…

Wikipedia en mode « No Follow », c’est la fin des haricots

Jimmy Wales, patron de Wikipedia, vient très discrètement d’annoncer que les liens externes figurant dans l’encyclopédie collaborative seront désormais bridés par un attribut »No Follow » interdisant aux moteurs de recherche de « suivre » ces liens et d’améliorer ainsi le référencement des sites de destination. C’est la fin d’un petit business discret pour les professionnels du référencement et quelques spammeurs malins.

Lire aussi les inquiétudes un peu exagérées de Nicolas Carr sur le sujet…

Beaucoup avait en effet remarqué l’importance de ce type de lien à mesure que Wikipedia gagnait en légitimité et pertinence. Placer un lien sur Wikipedia était devenu un sport très prisé. Difficile de contrôler cette pratique, la pertinence des choix des sites de destination étant souvent affaire de jugement personnel. Fin de la récré plutôt que d’encourager le « link building » Jimmy Wales a décidé de neutraliser cette pratique sans l’interdire. Limitant l’intérêt mercantile de la pratique il espère ainsi limiter le spam et privilégier le sens et la qualité. Bien vu mais c’est aussi un coup de canif dans un système de valeur.

Il y a des petits signes qui montrent ça et là que l’on entre progressivement dans une phase de déconstruction de ce qui a lancé la deuxième vague de neteconomie triomphante. J’avais consacré un des premiers billets de mon blog sur ZDNet.fr, il y a tout juste deux ans, aux trackbacks (à l’époque nous étions un des premiers site de presse français à les intégrer dans nos articles quotidiens). Une technologie mise en place par la plate-forme Typepad, permettant aux blogs d’interagir entre eux et ouvrant la voie à une nouvelle économie de la diffusion des contenus. Une technologie vite neutralisée pour cause de spam. Neutralisée exactement de la même manière que pour Wikipedia.

Personnellement je salue la démarche qui consiste à limiter la porté de ces fonctionnalités sans pour autant les interdire mais il faut bien constater que dans le même temps on égratigne ce qui est à la base de l’écosystème des medias sur internet. En limitant ce qui a permis l’éclosion de nouveaux réseaux de distribution et le rééquilibrage du référencement entre petits et grands médias ont rabat impitoyablement le marché vers le règles de distribution traditionnelles, celles où l’on achète sa promotion par la publicité ou l’on pratique l’échange de notoriété entre sites à forte audience. Celles qui se mesurent en moyens financiers.

Je crains que l’on n’ait pas fini d’assiter à cette déconstruction du jardin d’Eden. Entre la chasse, légitime, contre le spam et l’optimisation des revenus des outils de recherche s’instaure peu à peu des barrières d’entrée de plus en plus puissantes pour accéder à la notoriété. La longue traîne a bon dos si l’on assiste a une concentration accrue de l’audience sur les sites les plus puissants ou si le prétexte de la pertinence conduit à réduire le choix des services. Voir sur ce point cette découverte très intrigante du Journal du Net sur des tests réalisés par Google en matière de positionnement des liens.

RSS: Yahoo ne partage plus?

Bizarre, bizarre, certains des nouveaux sites éditoriaux lancés aux USA par Yahoo ne proposent aucun flux RSS. Alors que l’absence de flux RSS sur un site éditorial est devenue la marque de la plus absolue ringardise voilà que Yahoo crée la surprise en laissant de côté le Saint Graal du partage 2.0 sur ses trois derniers sites Yahoo! Food, Yahoo! Advertising et Yahoo! TV (j’ai vérifié partout, pas de RSS). 

Il n’en fallait pas plus pour lancer la polémique: Steve Rubel y voit la marque d’une stratégie média préhistorique où le RSS minimise les pages vues, réduit le temps de lecture et pousse à l’atrophie des sites éditoriaux.  Au passage je n’ose imaginer les réactions si un responsable de site de presse avait avancé ce type d’argument… Les canadiens du Blogue Marketing Interactif enfoncent le clou en y voyant un moyen d’optimiser les revenus publicitaires.

J’avoue qu’il est assez difficile de croire qu’il puisse s’agir d’un oubli. Techniquement les arguments de Steve Rubel sont tout à fait pertinents: le RSS est un moyen efficace de capter un lectorat mais il génère proportionnellement moins de pages vues par visite, laquelle dure moins longtemps que celle d’un visiteur en provenance d’un moteur et d’une lecture spontanée. En clair il favorise le zapping.

Au risque de me tromper je suis tenté de proposer une autre interprétation. Je pense aussi que l’objectif final est de maximiser l’impact publicitaire et l’approche média traditionnelle mais je ne crois pas que celà puisse se résumer à un compte d’apothicaire sur les pages vues. Le RSS a bien des effets collatéraux négatifs sur le trafic mais la démarche consistant à sélectionner un flux s’apparente à une souscription c’est à dire ue forme d’abonnement qui témoigne aussi d’un lien fort avec le média. En ce sens on peut le concevoir comme la marque d’un lien fort avec ce même média.

En revanche la prolifération des flux RSS a une conséquence qu’on peut juger plus discutable: elle favorise l’émergence d’une nuée d’infomédiaires parasites qui développent des services (agrégateurs, blogs verticaux, revue de presse) voire même de nouveaux sites éditoriaux. Sous prétexte d’offrir un service et de la visibilité ils n’en captent pas moins une petite fraction du marché publicitaire sans supporter le coût de production des contenus. On pense ce que l’on veut de ce débat ancien mais j’utilise volontairement le terme « parasite » non pour les stigmatiser mais pour désigner une forme d’exploitation dérivée des contenus rarement avec l’accord des éditeurs (ce qui ne veut pas dire qu’ils s’en plaignent, les blogs par exemple se satisfont généralement de cette visibilité gratuite). Reste que quand les sites en question produisent des contenus de « niche » il n’est pas forcément pertinent de nourrir sa propre concurrence, a fortiori quand on s’appelle Yahoo et que l’on dispose déjà d’un réservoir d’audience.

Pour cette raison je pense que Yahoo tente de construire des sites de destination, une petite révolution quand on s’est longtemps défini comme un service de passage (où l’on assume que le lecteur vient pour trouver des contenus et basculer in fine sur un autre site). J’imagine sans peine que cette stratégie de sites de destination vise à créer des zones à CPM élevés en concurrence directe avec les sites d’éditeurs traditionnels. Logique car, comme je le rappelais en août dernier, Yahoo est dirigé par des hommes issus de l’industrie des medias qui visent la manne du CPM, non les revenus à la performance trustés par Google.

Un petit pas de plus pour la stratégie média de Yahoo…  

Le New York Times lance ses pages d’accueil personnalisées

C’est parti! La version béta des pages d’accueil personnalisées du New York Times est accessible aux lecteurs enregistrés (c’est gratuit). Après la spectaculaire version perso du site de la chaîne d’infos sportive ESPN la course est ouverte pour l’adoption des pages personnalisables façon Ajax sur les sites médias. Concernant le NYTimes ma première impression est plutôt mitigée: le service est très lent, on hésite à déplacer les modules, la mise à jour des contenus laborieuse. Bref c’est une version béta et ça se voit terriblement.

mytimes.gif

L’ajout de nouveaux flux RSS est prévu, même si c’est plutôt rustique. Mais ce qui m’intéresse ici c’est plutôt la façon d’utiliser les contenus du NYtimes. La plupart des modules sont préchargés et la petite touche innovante vient de la possibilité de choisir des « environnements » différents, en fait des pages pré-configurées par les journalistes de la rédaction. Du coup l’utilisateur choisit les journalistes dont il apprécie les articles et visualise leur sélection de sources d’informations. Quoi de mieux pour susciter l’affinité avec son chroniqueur préféré! Je ne sais pas si cette fonction rencontrera le succés mais c’est bien vu et la présence des photos des principaux journalistes de la rédaction humanise considérablement l’environnement technoïde des flux RSS. Un bon point pour fidéliser…

mytimes-journalists.gif