La crise favorise les solutions extrèmes, c’est compréhensible, mais on ne peut que s’étonner de la différence des niveaux de réflexion stratégique d’un pays à l’autre. Côté France je découvre avec stupéfaction (pour ne pas dire plus) l’existence d’un projet de taxation des FAI, soutenu par la direction de Liberation, pour financer la presse généraliste, grosso modo la licence globale appliquée à la presse.

Cela prête à sourire mais je crois volontiers que l’absense de perspectives puisse conduire à ce genre de réflexe désespéré, en particulier quand on a la charge de sauver des emplois. Je n’aime pas du tout en revanche que l’on brandisse l’argument de la démocratie en péril pour justifier des avantages économiques . Je soutiens une grande partie des mesures issues des Etats Généraux concernant les droits d’auteur des journalistes et le statut d’éditeur en ligne, je suis extrèmement réservé vis à vis des mesures destinées à créer un sous-statut pour la presse « d’information générale et politique « . En pratique elle vise à délimiter très arbitrairement le petit cercle de la presse « utile à la démocratie » qui se partagera les aides de l’Etat. La ficelle est grosse, faut-il pour autant y ajouter le produit d’une taxation des FAI. Le raisonnement me laisse pantois. Je passe sur la répartition calculée « sur la fréquentation et  la taille des rédactions ».  Quelle sorte d’aveuglement ou d’arrogance (ou de désespoir) peut soutenir un tel raisonnement ?

Côté US, le vent de résistance de la presse accouche d’un document probablement discutable mais à l’argumentation calculée. Issu d’une réflexion menée par les directions de plusieurs journaux américains ce document intitulé « Newspaper Economic Action Plan » résume les grandes lignes d’une stratégie consistant à généraliser la formule payante pour la presse d’information généraliste. A noter que ce livre blanc reprend les données des modèles économiques soumis par l’ami Jeff Mignon sur son blog  (voir ici directement les hypothèses de calcul). Je ne partage pas la volonté récurrente d’en découdre avec Google News mais il faut reconnaitre que le scénario est moins caricatural que l’approche binaire tout payant contre tout gratuit. En particulier il intègre l’usage des API, c’est à dire la necessité d’associer au payant une stratégie de distribution des contenus tenant compte des avancées technologiques des dernières années. En particulier une volonté de faire payer les usages plutot que les contenus (je reste farouchement hostile au paiement à l’acte article par article mais après tout chacun peut établir ses propres recettes).

Pour être complet voici une première critique de ce document sur le blog de Scott Rosenberg (co-fondateur de Salon.com). Ses arguments basés sur ses propres échecs me paraissent valables mais il me semble que si une grande majorité des journaux adoptent de concert une stratégie payante il peut se créer un écosystème plus favorable qu’au cours des dernières années (où envisager le payant semblait une erreur face à un marché publicitaire en croissance rapide). Tout cela bien sûr au prix d’une décroissance de l’audience des sites de news généralistes, c’est tout le point. Autrement dit renoncer aux revenus incrémentaux de la longue traîne pour privilégier une hausse du revenu par utilisateur et une audience qualifié.

L’approche des journaux US appliquée au raisonnement de Joffrin reviendrait non pas à taxer les FAI mais au contraire travailler avec eux c’est à dire les utiliser pour ce qu’ils sont: des canaux de distribution. Une piste: faire financer par Orange l’accés aux contenus payants du quotidien des abonnés Orange. Techniquement l’accès et l’authentification des abonnés peut s’effectuer en toute transparence via les API Orange Connect (injustement méconnues, semblable au dispositif Facebook Connect – voir le dispositif Orange Connect que nous avons installé sur CNETFrance.fr - cliquer sur « Identification » en haut à droite puis le logo Orange). Un accord de régie avec Orange peut permettre de compenser tout ou partie des coûts grâce au ciblage publicitaire spécifique de ces abonnés. La qualification des profils peut également générer de nouvelles sources de revenus, on me pardonnera de ne pas les détailler ici.

Avantage: c’est la valeur de l’abonnement ou de l’accès payant, contrôlé par l’éditeur, qui fixe le niveau de valorisation de l’opération et non les conditions volatiles du marché publicitaire sur des audiences non qualifiées. Certes  celà pose la question de l’indépendance vis à vis des opérateurs mais c’est une autre histoire. Un scénario négociable n’est-il pas préférable à des conditions commerciales imposées ou un impôt?

MAJ 04/06/09 via Eric Scherrer: la stratégie mixte du Wall Street Journal où Google News n’est pas bloqué mais est utilisé comme vecteur de recrutement.

Stupéfiant! Même si j’ai expliqué pourquoi le statut d’hébergeur allait nécessairement prendre du plomb dans l’aile je pariais en mon for intérieur pour un jugement plus prudent dans le cas opposant Olivier Martinez et Fuzz. En particulier parce que la procédure prévue par la LCEN et consistant à désigner à l’herbergeur le contenu potentiellement litigieux n’a pas été respectée. Helas cette procédure n’est pas obligatoire, on l’avait oublié, et comme d’habitude le jugement le plus symbolique sanctionne le cas le moins évident, le plus injuste. Fuzz.fr, petit agrégateur sans véritable poids économique.

(Maj 28/03/08 : le détail de l’ordonnance de référé)

Je le dis clairement, j’aurais aimé qu’on discute aujourd’hui d’une Laure Manaudou qui avait toutes les raisons d’attaquer sans regret tous les sites qui d’une manière ou une autre ont sciemment exploité la diffusion des photographies intimes. On aurait pu tranquillement démontrer comment la querelle autour du statut d’hébergeur est parfaitement fondée et comment il peut permettre de détourner, pour des intérêts commerciaux, l’esprit de la Loi conçue, je n’en doute pas, pour préserver les conditions de la liberté d’expression.

Las, Manaudou a choisi la modération malgré son honneur bafoué et Martinez dont on apprend, culot suprême, l’annonce de son mariage, a choisi l’affrontement (MAJ: le mariage est finalement démenti, c’est le bouquet, merci l’AFP et Europe 1 de m’avoir induit en erreur). La justice tranche ainsi sur fond de confusion extrème et génère incompréhension et inutile frustration. Ainsi soit-il. Désormais messieurs vous savez ce qui empoisonne la presse française depuis plusieurs années: on peut publier la vérité et être condamné. Je le dis et le redis, le combat des blogs se mène avec les éditeurs et non avec les hébergeurs.

Puisque, faute de mieux, il faut bien commenter l’affaire Fuzz rappelons que techniquement ce jugement n’a pas valeur de jurisprudence et que rien n’est joué sur le fond (l’affaire Lespipoles.com est bien plus pernicieuse sur ce point). En revanche, dans l’attente de pouvoir lire le détail du jugement, il me faut exprimer mon effroi devant l’extrême bétise qui s’est épanchée au cours des derniers jours pour défendre Eric Dupin sur le thème « je n’aime pas Olivier Martinez ».

Je m’explique…

Je ne mets pas en doute la bonne foi des initiateurs et de la très large majorité des individus ayant soutenu cette initiative, y compris l’astucieuse technique du Google bombing. Le résultat, une campagne de lynchage pure et simple, relève pourtant de la plus profonde immaturité, pire il est extrèmement dangereux:

- La blogosphère a offert sur un plateau des milliers d’articles dont le caractère diffamatoire ne fait aucun doute. Alors qu’à l’origine l’affaire pouvait se plaider, il y a désormais un boulevard pavé d’euros pour exiger des dommages et intérêts. On ne peut pas faire mieux en matière de crétinisme. Prions simplement pour que le défenseur d’Olivier Martinez comprenne la nécessité de calmer le jeu.

- Qu’on le veuille ou non Olivier Martinez A LE DROIT de demander à la justice de trancher s’il estime être lésé. C’est à la justice de décider si sa démarche est fondée ou si elle est abusive. En clair on peut hurler à l’abus, à l’erreur, à l’injustice mais on ne peut nier à un plaignant son droit fondamental à faire appel à la justice. AUCUN JURISTE ne peut contester ce droit car ce serait précisément nier l’existence d’un état de droit. Ce que je crains est simple: l’organisation spontanée ou non de l’opération « je n’aime pas Olivier Martinez » a-t-elle pu influer négativement sur le jugement de l’affaire en se transformant en un déni pur et simple des droits du citoyen.

Alors, et ensuite?

Ensuite, il faudra attendre les autres jugements à venir et rapidement s’attaquer au fond de la question. Puisqu’on a pris le temps de définir ce qu’était un hébergeur en sachant pertinemment que ce type de litige allait survenir tôt ou tard et puisque des juristes m’expliquent (voir les commentaires) à juste titre que c’est le statut d’éditeur qui n’a jamais été précisé et bien repartons du point de départ, redéfinissons le statut d’éditeur à l’heure d’internet. Redéfinissons le cadre juridique permettant à ceux qui assument ce rôle de librement diffuser partie de leur contenu (par exemple via RSS) sans contraindre nécessairement à la contractualisation. Travaillons à définir le media d’un nouveau genre, le media ouvert. N’instrumentalisons pas la Loi pour couvrir les éditeurs masqués sous le statut d’hébergeur.

A titre personnel et professionnel je compte m’engager sur cette question et l’appliquer aux medias que je dirige. C’est dit.

Quelques bonnes lectures:
> Chez Narvic, la question du lynchage
> Chez l’incontournable Versac, le lynchage encore
> Chez Eolas toujours brillant, Que faire quand on reçoit un courrier d’avocat (pour expliquer simplement qu’une assignation n’est pas une condamnation)
> Chez Juriscom.net toujours pertinent (et du côté de la LCEN) un bilan intéressant de la LCEN par le parlement - document toutefois encore non définitif. Document qui tente de soutenir la légitimité du statut d’hébergeur tout en le distinguant ouvertement du statut d’éditeur pourtant réputé « non défini »…
> Chez JB Soufron sur ZDNet.fr, le statut d’hébergeur remis en question
> Chez Adscriptor, la défense de Fuzz, côté bonne foi

Je réagis avec un peu de retard à ce fait d’actualité qui semble donner des migraines à pas mal de monde. Et pour de bonnes raisons. Résumons: le site Lespipoles.com qui, comme beaucoup fait commerce d’une bonne potée de flux RSS en provenance de sites éditoriaux couvrant l’actualité des stars, se retrouve grosjean devant la barre du tribunal . Son tort? Avoir diffusé le titre et le lien d’un article de Gala évoquant une relation entre le réalisateur du film La Môme et Sharon Stone. On se fiche au passage de savoir si l’info est véridique, pour la petite histoire, on peut très bien se retrouver condamné même si l’info est confirmée (bienvenue dans le monde du droit de la presse français).  Donc il y a atteinte à la vie privée et le grossiste en flux RSS se retrouve punaisé au mur et délesté d’un paquet d’euros.

Emois sur le web. Le RSS ne serait pas « bulletproof »!  Je relève quelques articles qui se font l’echo du malaise: Chauffeurdebuzz, PresseCitron, Tom, et Tubbydev qui pose brutalement les questions qui fâchent.

Deux questions majeures:
– « Comment peut-on se retrouver responsable du contenu des autres »: en les publiant banane!
– « Le coup du statut d’hébergeur ne marche plus! » : pas encore mais les avocats ont beaucoup appris et ont commencé à affuter les arguments permettant de limiter la portée de cette astuce juridique héritée de la LCEN en particulier en démontrant l’intentionnalité de l’éditeur/hébergeur et la manipulation des contenus. C’est la grande nouveauté de ce jugement, qui contrairement à ce que certains pensent, n’est pas issu de l’appréciation hasardeuse du juge.

La remise en question progressive du statut d’hébergeur faisait partie de mes prévisions pour 2008, pas par hasard, parce qu’elle fait l’objet de l’attention de pas mal de juristes. Parce qu’elle ouvre aussi la porte du Paradis des dommages et intérêts. Elle inaugure le compte à rebours de la normalisation d’une partie l’industrie du Web 2.0.

Une question mineure:
– « Comment puis-je surveiller les contenus de centaines de flux RSS? » : facile, personne n’oblige à le faire, la seule réponse c’est l’obligation de recueillir l’accord de l’éditeur du flux RSS pour l’exploiter commercialement et de contractualiser l’accord. Peu le savent mais c’est ce que les juristes de la plupart des groupes de presse imposent, ce que pratiquent depuis longtemps les portails à la Yahoo!, MSN. Peu importe la nature de ces accords ils visent tous à affirmer la responsabilité juridique de l’émetteur des flux c’est à dire l’éditeur d’origine de l’information. En clair il protège celui qui réexploite les contenus, l’éditeur assumant ses responsabilités. La routine.

Maintenant la question marrante et qui fâche:
– « Les agrégateurs de flux sont-ils menacés? ».

Ben oui.

Laurent Binard de Wikio m’expliquait qu’il recevait un grand nombre de mises en demeure. Simplement dans la plupart des cas elles sont le fait de juristes qui balayent le web au nom de leurs clients sans trop se soucier du statut de celui qui diffuse l’information (ce qui est d’ailleurs probablement le cas de l’affaire présente). Rarement ces démarches débouchent sur un jugement, la plupart du temps le retrait du contenu est suffisant ou un accord amiable.

C’est tout le malentendu de la situation: il n’y a jamais eu le moindre doute, du moins en France, sur la responsabilité de ceux qui diffusent ou rediffusent des informations simplement l’absence de vraie bataille juridique. C’était déjà la question posée à Google News il y a quelques années par les éditeurs. En vérité l’échange et la libre diffusion des flux RSS repose avant toute chose sur une tolérance relative, sur le « fair use », sur le pari que la relation profite in fine à l’éditeur plus qu’elle ne le lèse.

Toute la vraie question est de savoir si les agrégateurs seront capables de construire une relation équilibrée avec les éditeurs, c’est à dire au besoin en cas de déséquilibre de la relation, de proposer des dispositifs assurant une juste contrepartie aux éditeurs. C’est à dire de se comporter en véritable distributeur plutôt qu’en media parasite. Ces discussions ont été engagées tardivement avec Google, je les ai eu avec Wikio, Netvibes, d’autres. Elles sont souvent constructives. Elles témoignent simplement que le nouvel écosystème se met en place, celui où chacun prend ses marques et apprivoise les nouveaux mécanismes de distribution. La normalisation de l’économie numérique, tout simplement. Elle sera impitoyable pour ceux qui ne la respecteront pas.

A titre personnel, malgré une sévère tendance à l’ironie, je suis partisan de la tolérance en matière d’usage des flux RSS car je pense qu’ils sont un des mécanismes indispensables à la distribution des contenus à moindre coût et surtout à l’accélération du partage des savoirs et de l’information. Peu à peu les grandes plates-formes d’hébergement (blogs, videos) devront simplement sécuriser leurs activités en contractualisant avec les vrais producteurs de contenus. L’exemple de Dailymotion montre par exemple comment s’organise peu à peu la distribution des contenus labelisés des éditeurs.

On oublie simplement que les flux RSS avaient vocation à servir un usage privé. Leur utilisation à des fins de publication et d’exploitation commerciale sont nécessairement soumis à contractualisation. L’apparente liberté perçue par les blogueurs est apparente. En réalité chaque plate-forme de blog comporte dans ces CGU des clauses déterminant la responsabilité de ses utilisateurs, certains éditeurs prennent aussi la peine de faire figurer des CGU relatifs à l’usage de leurs flux. La majorité précise les restrictions d’usage.

Bref ce jugement peut paraître regrettable, il était prévisible.

Ca couine sérieusement sur les blogs d’experts à propos de l’évaluation du nombre d’abonnés aux flux RSS. Des chiffres popularisés par l’outil de mesure Feedburner et son petit compteur affiché par de nombreux blogs et Google Reader qui affiche désormais ce type de données. J’avais déjà signalé il y a un an des problèmes liés à l’émergence de nouvelles plateformes d’agrégation RSS comme Netvibes qui avaient bousculé les stats de feedburner. Cette fois le problème relève moins du problème technique que de la gonflette involontaire.

En clair on découvre des variations brutales ou des évolutions stratosphériques qui touchent souvent des blogs déjà très populaires. Parmi plusieurs causes possibles la promotion artificielle des flux RSS de ces blogs dans des « packages » préchargés ou mis en avant lors de l’inscription aux services de type Google Reader.  Une pratique qui n’a rien de scandaleuse (au contraire elle donne une prime aux blogs les plus populaires) mais qui génère une audience artificielle qui ne consulte pas, en réalité, le contenu des flux. Peter Cashmore, auteur du site Mashable.com, démontre   la corrélation entre l’inflation des stats et la présence des flux RSS concernés dans les packages promotionnels mais surtout il explique que les sites ayant redirigés leurs flux via d’autres instruments de mesure ont vu fondre leur « nombre d’abonnés ».

Une démonstration qui montre que les stats ne correspondent pas à une mesure d’usage réelle mais qui surtout tend à prouver que les instruments de mesure ne détectent pas l’absence d’utilisation de ces flux. Une situation qui m’étonne un peu car jusqu’à présent j’ai pu observer des périodes de croissance et de décroissance du nombre d’abonnés ce qui tendait à prouver que la mesure était élastique. Certes personne n’a jamais affirmé que l' »abonnement » à un flux valait pour usage. Apres tout personne ne demande à l’abonné d’un magazine s’il le lit. Sauf qu’il le paye…

Comme tout le monde je m’interroge sur l’absence de corrélation entre une nombre vertigineux d’abonnés aux flux RSS et l’absence d’un niveau d’audience du site proportionnel. Par exemple Techcrunch France affiche plus de 120 000 abonnés aux flux RSS mais Nielsen Netratings est presque incapable de détecter l’audience du site web ce qui suppose un nombre de visiteurs uniques inférieur au minimum requis par la méthode du panel (soit moins de 30 000 alors que l’audience du blog de Loïc Lemeur est détectée régulièrement, même au delà du seuil de validité fixé à 100 000 visiteurs uniques, ceci avec 25000 abonnés). Pour être complet il faut signaler que Techcrunch propose l’intégralité de ses contenus dans le flux RSS ce qui peut expliquer au moins partiellement le manque de report sur le site.

Il ne s’agit pas de remettre en cause ici la qualité de tel ou tel blog puisque précisément les variations semblent toucher les blogs plus visibles et les plus connus  (Henri et Ouriel s’interrogent sur 2803.com et Techcrunch) mais il faut bien s’inquiéter de la fiabilité de la mesure et son utilisation en matière de communication commerciale.

Pour mémoire la question de la certification de la mesure d’audience du RSS a été posée à l’OJD début 2007, une commission spécialisée à laquelle j’ai participé a conclu à l’impossibilité de certifier une telle mesure. En cause le manque de fiabilité des instruments de mesure et les biais trop facilement exploitables de ce qui n’est qu’un instrument de type push media. En clair seule la mesure du trafic « entrant » vers le site web est sérieusement exploitable (et encore, elle est gonflée par l’effet des moteurs de recherche qui indexent les flux).

Pour info : le flux RSS d’Ecosphere compte plus de 1300 abonnés selon Feedburner mais la plateforme WordPress.com génère un second flux RSS d' »origine » qui comptait entre 500 et 800 abonnés supplémentaires. A cause du manque de fiabilité des mesures WordPress a récemment renoncé à diffuser l’audience des flux RSS, pour ces raisons je n’affiche pas la mesure, forcément partielle de Feedburner.

On sait désormais les raisons de l’accord avec l’AFP et AP (ainsi qu’avec la Canadian Press et UK’s Press Association). Google News annonce aujourd’hui qu’il hébergera lui même les dépêches d’agences mettant ainsi fin aux polémiques. Mais derrière l’annonce se cache une petite bombe: en retour Google va filtrer les mêmes dépêches d’agences qu’il référencait jusqu’à présent sur les sites medias. En clair tous les sites qui doivent leur référencement aux flux continus de dépêches vont recevoir une vilaine claque.

MAJ 19h30 : visiblement c’est parti, premier exemple en Une de Google…
afp-google3.gif
J’ai peut être l’esprit tordu mais je sens dans le communiqué de Google une ironie mordante:

« Starting today, Google News users will be able to quickly and easily find original stories from news publishers and go directly to the original source, including stories from some of the top news agencies in the world. This new approach not only enhances the experience for users, it also gives proper recognition to journalists and publishers who work hard to break the news. »

Je traduis pour les anglophobes: « Chers journalistes vous nous bassinez avec la qualité et bien on vous les coupe et on va voir ce que vous avez dans le ventre » (traduction approximative). Bien vu. En clair en nettoyant l’index des centaines de duplications de dépêches aspirées ça et là Google News affirme pouvoir mettre en valeur la production originale des différents medias. Mathématiquement ça se tient le contenu original se retrouvant moins « dilué » dans la profusion de dépêche mais cela pourrait provoquer une onde de choc inattendue.

Je publie ici tous les mois le Google News Report (sauf depuis juin pour cause de probleme technique sur l’outil de mesure) qui classe les sources d’information de Google News. J’ai plusieurs fois signalé le problème: beaucoup de sites medias doivent leurs positions dominantes sur Google News aux dépêches d’agence diffusées par centaines chaque jour. Le moteur interprète la récurrence de la même info comme une marque d’importance ce qui donne un bonus aux sources. Ce qu’ont aussi parfaitement compris de nombreux sites de référenceurs. Ce qu’on sait moins c’est qu’une très grosse partie des articles de sites medias ne sont pas accessibles à Google, une fois les dépêches filtrées le stock réellement pris en compte pourrait se réduire à la portion congrue. Bref les statistique du prochain mois pourraient être saignantes.

La grande inconnue : Google News va-t-il identifier les articles basés sur la réécriture partielle des dépêches (un vieux truc largement employé pour s’approprier l’information à peu de frais)? A priori Google explique que les dépêches filtrées resteront tout de même référencées mais apparaîtront dans un classement secondaire pour permettre aux lecteurs de « découvrir les enrichissements et infos supplémentaires apportés par les sites medias ». Si Google ne parvient pas à identifier les simili-articles je parie sur une vague de réécriture de titres de dépêches…

« Users will also have the option to click to see all other copies of that article, wherever it has been published, giving them additional opportunities to click through to those publishers’ websites and see extra content, background, and analysis from publishers. »

Google continuera bien entendu à référencer et afficher normalement les articles originaux des sites d’information. L’initiative est je dois dire salutaire mais à mon avis il reste encore à faire le nettoyage des sources d’information dans l’index de Google News et clarifier les critères d’intégration.

> Lire l’article tout frais sur Leschos.fr: « Google News élimine les articles de presse copiant les dépêches d’agences« 
> L’article de Paidcontent sur le même sujet

L’explication ici à 19h because info sous embargo. Préparez le pop-corn…
Bing c’est l’heure …

Suite et fin d’une saga commencée il y a un an, l’accord entre Les Echos et Netvibes (Disclosure: j’ai pris part à la mise en place du projet) vient d’aboutir à la mise en place d’un service de page d’accueil personnalisée: mesechos.fr. Le service ne dépaysera pas les habitués des pages persos, il s’agit pourtant d’une première mondiale basée sur la toute dernière évolution de la technologie Netvibes. Visuellement c’est (presque) invisible mais le dispositif permet de créer des passerelles entre des pages personnelles existantes et les « univers » aux couleurs des partenaires.

Deux situations: soit vous disposez déja d’une page personnelle et la visite sur un univers comme mesechos.fr vous permet de « piocher » les modules et flux pour les ajouter à votre page, soit vous n’avez pas de page personnelle et mesechos.fr devient l’univers de départ de votre page personnelle. Un dispositif qui n’a pas d’équivalent sur le web actuellement et qui inaugure une nouvelle façon de partager l’information. Pour cette raison aussi il ne s’agit pas d’un dispositif de type marque blanche.

C’est un peu la suite de mon précédent billet sur l’économie du RSS et qui inaugure une nouvelle façon d’exploiter le RSS associé à la technologie des widgets. Comme je l’ai déjà dit, ce type de service vise aussi à démocratiser l’usage du RSS auprès d’un public plus large qui peut ainsi découvrir un mode de consultation alternatif de l’information tout en préservant l’exigence d’un contexte et d’une affinité propre à la marque.   

mesechos.gif

(Note : pour ceux que ça intéresse nous avons aussi créé sur Facebook un groupe des « amis des Echos » qui a eu la primeur de l’annonce du lancement , c’est ici).

Suivre

Recevez les nouvelles publications par mail.