Après plusieurs mois d’hibernation je me réveille dans la France d’après Hadopi. Pour être franc j’ai eu un peu de mal avec l’hystérie pro et anti Hadopi qui a littéralement laminé tout débat constructif  (je me reconnais un peu dans le constat désabusé de JM Planche par exemple). On en reparlera.

A l’occasion d’un contrôle de routine des stats Nielsen je découvre que l’audience du plus populaire service p2p en France est en net déclin depuis janvier 2009.  Du coup la question se pose: ne serait-ce pas un début d’effet Hadopi? Sur la courbe ci-dessous extraite des données de l’ancien panel de Nielsen, j’ai ajouté l’audience de PirateBay, beaucoup plus modeste et en hausse légère pour montrer que le report de trafic ne s’est pas fait de ce côté. Ceci malgré une notoriété dopée par la couverture médiatique de son procès.

La courbe montre qu’Emule a perdu près d’un million d’utilisateurs en quatre mois, de 5 millions à 4 millions de visiteurs uniques.  (Les données sont exprimées en visiteurs uniques)

Audience Nielsen 2009 de Emule et Pirate Bay en France

Audience Nielsen 2009 de Emule et Pirate Bay en France

(Emule est depuis longtemps dans le collimateur des FAI, certains filtrant les ports utilisés par ce logiciel pour communiquer mais ces filtrages existaient en 2008 rien ne prouve qu’ils soient à l’origine du déclin)

Stupéfaction à l’occasion d’un entretien sur Canal+ avec Jean Dionis du Séjour rapporteur de la LCEN qui plaide pour une évolution de la Loi. Propos analysés par l’avocat Eolas sur son blog où l’on relève cette déclaration suprenante:

« On en est à dire que Dailymotion sera… serait, il faudra l’encadrer, le limiter, il serait partiellement responsable des contenus [qu'il héberge], il faudra que Dailymotion s’engage plus (d’ailleurs, ils le font déjà) dans la surveillance, dans le contrôle des contenus qui seront apportés par les internautes, et les contenus qui seront [soumis au droit d'auteur], il faudra qu’ils fassent en sorte qu’ils ne soient pas mis en ligne, quoi. »

Lapsus ou démonstration que la révision (pour le moment écartée) de la Loi ou la redéfinition possible de la notion d’hébergeur n’irait pas forcément dans le sens d’une liberalisation? Autre hypothèse, les techniques de marquages des contenus, qui relèvent pour le moment de l’action symbolique (toujours aussi étonnant de voir comment chacun feint de de croire à leur efficacité et la réalité de leur déploiement), pourrait jouer un vrai rôle de filtre si les producteurs de contenus adoptaient le marquage systématique. A condition d’en supporter le coût ce qui ne manque pas de sel…

Je suis également surpris de voir que le député s’étonne des dérives autour de l’application de la LCEN alors que, je le répète, elles étaient parfaitement anticipées dés le départ. Jusqu’au phénomène d’assignation collective des sites qui avait été mentionné comme issue probable. Le pari était simple: la jurisprudence tranchera et donnera l’orientation. Nous y sommes.

Concernant l’affaire Fuzz, relancée par la décision d’Eric Dupin de faire appel et l’assignation de Wikio, j’en profite pour conseiller vivement la lecture de ces deux articles – controversés- de Maître Eolas. Juste pour rappeler que le contexte dans lequel se déroule cette affaire est loin d’être simple.
> et si le juge avait raison ?
> Affaires Fuzz et autres, réplique à Adscriptor

Ce dernier article que je trouve brillant et juste même s’il est devenu difficile d’aborder cette affaire avec sang froid sous l’angle juridique sans passer pour liberticide. Je crois utile de rappeler que cette affaire ne menace absolument pas le Web 2.0 et la majorité des sites assumant leur rôle d’éditeur (et qui bénéficient tout de même de la couverture de la LCEN en ce qui concerne la modération des commentaires) ou leurs fonctions de prestataires techniques. A condition bien sûr de savoir que le risque juridique est inhérent à la fonction d’éditeur.
Seul vrai point de crispation: l’émergence de sites, certes emblématiques du Web 2.0 mais loin d’avoir démontré leur pérennité, dont l’activité se situe pile à la charnière de la fonction d’hébergeur et celle d’éditeur dans la mesure où leur activité ne se résume pas au stockage et la prestation de service mais bel et bien dans l’exploitation du contenu éditorial. Selon que l’on interprête leur nature du côté de l’une ou l’autre des deux fonctions, le risque est total. C’est toute la stratégie des plaignants qui remettent en cause le statut d’hébergeur pour appuyer leurs revendications.

 Vu chez Jean-François Ruiz cette excellente présentation sur les motivations des blogueurs, une étude réalisée par les agences Via Nova Spheeris et Seprem auprès de 266 éditeurs de blogs. Coup de pot ce n’est pas l’argent qui les intéresse même si 49% souhaitent professionnaliser leur activité.

Ce matin au cinéma MK2 près de la Bibliothèque de France, la présentation officielle de Mediapart.fr avant son lancement demain 16 mars 2008. Déjà près de 3500 abonnés (objectif 25 000 à la fin de l’année), et une équipe de 30 personnes. Avant de publier mes impressions voici trois videos prises durant la session. Dans l’ordre François Bonnet le directeur éditorial qui présente le site (video 1 et 2) et Benoît Thieulin qui explique la mécanique participative (video 3).

> Voir aussi le précédent billet sur Mediapart

L’équipe de Mediapart autour d’Edwy Plenel (cliquer pour agrandir)
L’equipe de Mediapart

Stratégie et choix éditorial par François Bonnet Directeur de la rédaction
 
  

Contenu et interactivité par François Bonnet Directeur de la rédaction 

Le Club: les fonctions de réseau social – par Benoit Thieulin (LaNetscouade.com) 

Je réagis avec un peu de retard à ce fait d’actualité qui semble donner des migraines à pas mal de monde. Et pour de bonnes raisons. Résumons: le site Lespipoles.com qui, comme beaucoup fait commerce d’une bonne potée de flux RSS en provenance de sites éditoriaux couvrant l’actualité des stars, se retrouve grosjean devant la barre du tribunal . Son tort? Avoir diffusé le titre et le lien d’un article de Gala évoquant une relation entre le réalisateur du film La Môme et Sharon Stone. On se fiche au passage de savoir si l’info est véridique, pour la petite histoire, on peut très bien se retrouver condamné même si l’info est confirmée (bienvenue dans le monde du droit de la presse français).  Donc il y a atteinte à la vie privée et le grossiste en flux RSS se retrouve punaisé au mur et délesté d’un paquet d’euros.

Emois sur le web. Le RSS ne serait pas « bulletproof »!  Je relève quelques articles qui se font l’echo du malaise: Chauffeurdebuzz, PresseCitron, Tom, et Tubbydev qui pose brutalement les questions qui fâchent.

Deux questions majeures:
– « Comment peut-on se retrouver responsable du contenu des autres »: en les publiant banane!
– « Le coup du statut d’hébergeur ne marche plus! » : pas encore mais les avocats ont beaucoup appris et ont commencé à affuter les arguments permettant de limiter la portée de cette astuce juridique héritée de la LCEN en particulier en démontrant l’intentionnalité de l’éditeur/hébergeur et la manipulation des contenus. C’est la grande nouveauté de ce jugement, qui contrairement à ce que certains pensent, n’est pas issu de l’appréciation hasardeuse du juge.

La remise en question progressive du statut d’hébergeur faisait partie de mes prévisions pour 2008, pas par hasard, parce qu’elle fait l’objet de l’attention de pas mal de juristes. Parce qu’elle ouvre aussi la porte du Paradis des dommages et intérêts. Elle inaugure le compte à rebours de la normalisation d’une partie l’industrie du Web 2.0.

Une question mineure:
– « Comment puis-je surveiller les contenus de centaines de flux RSS? » : facile, personne n’oblige à le faire, la seule réponse c’est l’obligation de recueillir l’accord de l’éditeur du flux RSS pour l’exploiter commercialement et de contractualiser l’accord. Peu le savent mais c’est ce que les juristes de la plupart des groupes de presse imposent, ce que pratiquent depuis longtemps les portails à la Yahoo!, MSN. Peu importe la nature de ces accords ils visent tous à affirmer la responsabilité juridique de l’émetteur des flux c’est à dire l’éditeur d’origine de l’information. En clair il protège celui qui réexploite les contenus, l’éditeur assumant ses responsabilités. La routine.

Maintenant la question marrante et qui fâche:
– « Les agrégateurs de flux sont-ils menacés? ».

Ben oui.

Laurent Binard de Wikio m’expliquait qu’il recevait un grand nombre de mises en demeure. Simplement dans la plupart des cas elles sont le fait de juristes qui balayent le web au nom de leurs clients sans trop se soucier du statut de celui qui diffuse l’information (ce qui est d’ailleurs probablement le cas de l’affaire présente). Rarement ces démarches débouchent sur un jugement, la plupart du temps le retrait du contenu est suffisant ou un accord amiable.

C’est tout le malentendu de la situation: il n’y a jamais eu le moindre doute, du moins en France, sur la responsabilité de ceux qui diffusent ou rediffusent des informations simplement l’absence de vraie bataille juridique. C’était déjà la question posée à Google News il y a quelques années par les éditeurs. En vérité l’échange et la libre diffusion des flux RSS repose avant toute chose sur une tolérance relative, sur le « fair use », sur le pari que la relation profite in fine à l’éditeur plus qu’elle ne le lèse.

Toute la vraie question est de savoir si les agrégateurs seront capables de construire une relation équilibrée avec les éditeurs, c’est à dire au besoin en cas de déséquilibre de la relation, de proposer des dispositifs assurant une juste contrepartie aux éditeurs. C’est à dire de se comporter en véritable distributeur plutôt qu’en media parasite. Ces discussions ont été engagées tardivement avec Google, je les ai eu avec Wikio, Netvibes, d’autres. Elles sont souvent constructives. Elles témoignent simplement que le nouvel écosystème se met en place, celui où chacun prend ses marques et apprivoise les nouveaux mécanismes de distribution. La normalisation de l’économie numérique, tout simplement. Elle sera impitoyable pour ceux qui ne la respecteront pas.

A titre personnel, malgré une sévère tendance à l’ironie, je suis partisan de la tolérance en matière d’usage des flux RSS car je pense qu’ils sont un des mécanismes indispensables à la distribution des contenus à moindre coût et surtout à l’accélération du partage des savoirs et de l’information. Peu à peu les grandes plates-formes d’hébergement (blogs, videos) devront simplement sécuriser leurs activités en contractualisant avec les vrais producteurs de contenus. L’exemple de Dailymotion montre par exemple comment s’organise peu à peu la distribution des contenus labelisés des éditeurs.

On oublie simplement que les flux RSS avaient vocation à servir un usage privé. Leur utilisation à des fins de publication et d’exploitation commerciale sont nécessairement soumis à contractualisation. L’apparente liberté perçue par les blogueurs est apparente. En réalité chaque plate-forme de blog comporte dans ces CGU des clauses déterminant la responsabilité de ses utilisateurs, certains éditeurs prennent aussi la peine de faire figurer des CGU relatifs à l’usage de leurs flux. La majorité précise les restrictions d’usage.

Bref ce jugement peut paraître regrettable, il était prévisible.

Une étudiante de l’ESJ (où je suis intervenu fin Octobre à l’occasion d’une conférence sur le modèle économique des medias participatifs) s’étonnait de l’initiative de Daniel Schneidermann qui appelait en septembre dernier à l’adhésion payante pour soutenir le projet d’Arret sur Images. Elle s’étonnait car « pourquoi payer alors qu’il n’y a encore aucun contenu »? En fait l’initiative était à mon sens tout à fait justifiée mais répondait à une logique nouvelle. Une logique que résume très bien l’edito de Plenel sur le nouveau site du projet Mediapart.fr (projet déjà décrit il y a quelques jours).

En résumé le choix du payant ne relève pas de la valeur marchande de l’information mais d’une adhésion morale à un projet éditorial. Edwy Plenel tire assez justement les leçons de la crise de la presse (son projet pour la reprise du quotidien Liberation avait déjà permis de donner le ton): d’abord la critique largement convenue de la crise de confiance de la presse mais également ce paradoxe que le lecteur paye déjà pour accéder à l’information puisqu’il paye son fournisseur d’accès.

mediapart.gif

Un des arguments les plus pertinents pour la gratuité des medias d’information est en effet basé sur l’idée que même en se rendant au kiosque on n’achète pas la somme des articles de son quotidien mais le moyen d’y accéder, le support papier. Conséquence: il n’y a pas de raison de payer l’info en ligne puisque les coûts de distribution sont inclus dans le forfait du FAI. Imparable. Approche intéressante à laquelle je souscris depuis longtemps et qui a le mérite d’ouvrir la voie à une approche décomplexée de la monétisation de l’information, par la pub ou par la qualification de l’audience (les profils, carburant du marketing direct pour moi la raison d’être économique du Web 2.0).

Comment justifier le payant

Quel rapport avec l’approche du payant de Mediapart.fr? Et bien justement il y a un hic dans cette théorie. Elle marche parfaitement pour les medias de niche ou l’approche verticale des magazines mais elle laisse l’information généraliste aux prises avec un univers concurrentiel si vaste que leur survie ne peut passer que par l’audience de masse et l’attaque frontale face aux portails. Ajoutons les CPM trop faibles en France et la perspective d’une rentabilité par la seule publicité est illusoire. Pire, elle serait nécessairement compromettante. Pour cette raison je ne soutiens pas le modèle du tout gratuit pour l’info généraliste et je pense que l’initiative du New York Times est une erreur (je ne suis pas non plus pour le tout payant mais c’est une autre histoire).

Comment dans ce cas, justifier le payant dans un univers de gratuité? C’est là que l’initiative de Mediapart rejoint celle d’Arrêt sur Images, en fondant l’acte d’abonnement sur un acte d’adhésion et de participation. Comprenez en se déconnectant d’un acte d’achat. Lisez le billet de Benoït Thieulin, qui positionne Mediapart dans la filiation des medias participatifs comme Ohmynews. Il décrit une partie du processus de création de la valeur ajoutée dans un espace participatif, par exemple en exigeant une participation des lecteurs débarassée de l’anonymat et par l’obligation de s’enregistrer: « l’obligation de se loguer dessine, sans qu’on y prenne un garde, un espace délimité dans lequel on appelle à la contribution [...], et qui, déployé dans la durée, confère à chaque contributeur une identité liée à ce projet« .

L’identité numérique, le nouvel enjeu

J’ai soutenu une idée semblable au sein des Echos.fr pour encourager l’idée la participation des lecteurs en leur nom propre (actuellement on laisse toujours des commentaires sous pseudo – j’ai eu le même débat avec Laurent Mauriac de Rue89.com) parce que précisément c’est l’adhésion identitaire au media qui est au coeur du processus de l’affinité. Le moteur du véritable « abonnement » et de la création de valeur. Je pense aussi que tout ça n’est pas nouveau, réside déjà dans l’acte traditionnel d’abonnement mais se retrouve souvent masqué par l’acte d’achat symbolisé par la visite au kiosque.

Pour ces raisons je pense que l’approche de l’équipe de Mediapart est la bonne. Il n’y a aucune garantie de succès. Je fais aussi le pari in fine d’un modèle mixte pub-abonnement mais il me paraît important, pour un projet aussi ambitieux de fixer dès le départ la barre très haut. Non par le prix mais par l’affirmation d’une ambition morale, aussi arrogante soit-elle. D’ailleurs, sur le fond, je ne pense pas qu’il puisse y avoir de grand media sans un projet politique.

A coeur vaillant, rien d’impossible…

Bon courage et zou ! Mes 90 euros … (Déjà 123 abonnés ce soir à 23h)

Le site Editorsweblog.org (en anglais mais dirigé par un français, Bertrand Pecquerie) fait partie de mes lectures régulières. J’en profite pour signaler une série d’articles à ne pas manquer sur le thème de l’organisation des rédactions et en particulier la question de l’intégration des rédactions en ligne. Alexis Delcambre, Rédacteur en chef du Monde.fr et Bruno Patino, Vice Président du groupe Le Monde, y expliquent longuement pourquoi la question de l’intégration est d’une importance relative et pourquoi on doit préserver la spécialisation des journalistes. Frederic Sitterlé, Directeur des nouveaux medias Le Figaro, et Laurent Guimier, Directeur des rédactions du Figaro.fr,  y exposent également leur stratégie autour de la synergie web-papier.

Lire :
– Figaro.fr: Non-integrated Newsroom doesn’t mean non-integration
– “Integration and non-integration are just transitory stages” – Interview with Bruno Patino, Vice President of Le Monde
– Non-integrated newsrooms: Le Monde: 5 reasons why it’s not integrated

L’intérêt majeur de ces entretiens est de montrer que la question de l’intégration des rédactions est finalement beaucoup moins une affaire de théorie que de choix pragmatiques et d’équilibre des compétences. On est loin des choix spectaculaires comme ceux de la Tribune de Genève mais j’aime assez cette approche prudente qui tient compte des aspects très pratiques et opérationnels de la production d’information. Elle nous éloigne aussi du mythe d’un journaliste protéiforme et qui maitriserait l’ensemble des compétences multimedia.

Un point trés important: si l’exigence de la maîtrise de la ligne éditoriale autour d’une marque tend à imposer une direction unique la réalité est aussi celle de deux supports (web et papier) s’adressant à des audiences aux profils et aux exigences souvent différents. La distinction par les usages impose peut être finalement de donner à chaque support les moyens de leur autonomie éditoriale. La coordination n’impose pas nécessairement la fusion.

Suivre

Recevez les nouvelles publications par mail.