Cherche nanas, musicos et techos

Un peu de promo gratuite, histoire d’oublier les nuages au dessus de l’industrie de la presse. CNETNetworks France (où je suis) a lancé une brouette de nouveaux sites: Onlylady.fr blog féminin où l’on retrouvera Pascale Weeks (blogueuse et cuisinière réputée qui officie déjà chez nous sur Goosto.fr) et Juliette, animatrice de CNETTV.fr (oui on a aussi une télé).

Musicspot.fr, un site communautaire pour les fans de musique, et Music360.fr un autre site communautaire conçu pour mettre en relation les musiciens qui cherchent à monter un groupe et diffuser leurs oeuvres. Ce dernier site était au départ un site perso conçu par Benoit Darcy un de mes journalistes gratte guitare, l’idée était simple et géniale du coup on lui a collé un billet aller simple pour le vol roule-ma-poule-c’est-tout-bon. Faites passer les URL à vos amis musicos on a besoin de bras pour déboguer tout ça et collecter les avis des initiés.

J’en profite pour signaler qu’on embauche des developpeurs (envoyez les CV ici)

Voilà voilà, je retourne bosser, côté blogs ça va aussi bouger mais là on vous contactera …

Affaire Fuzz vs Olivier Martinez: le crétinisme au service d’un fiasco

Stupéfiant! Même si j’ai expliqué pourquoi le statut d’hébergeur allait nécessairement prendre du plomb dans l’aile je pariais en mon for intérieur pour un jugement plus prudent dans le cas opposant Olivier Martinez et Fuzz. En particulier parce que la procédure prévue par la LCEN et consistant à désigner à l’herbergeur le contenu potentiellement litigieux n’a pas été respectée. Helas cette procédure n’est pas obligatoire, on l’avait oublié, et comme d’habitude le jugement le plus symbolique sanctionne le cas le moins évident, le plus injuste. Fuzz.fr, petit agrégateur sans véritable poids économique.

(Maj 28/03/08 : le détail de l’ordonnance de référé)

Je le dis clairement, j’aurais aimé qu’on discute aujourd’hui d’une Laure Manaudou qui avait toutes les raisons d’attaquer sans regret tous les sites qui d’une manière ou une autre ont sciemment exploité la diffusion des photographies intimes. On aurait pu tranquillement démontrer comment la querelle autour du statut d’hébergeur est parfaitement fondée et comment il peut permettre de détourner, pour des intérêts commerciaux, l’esprit de la Loi conçue, je n’en doute pas, pour préserver les conditions de la liberté d’expression.

Las, Manaudou a choisi la modération malgré son honneur bafoué et Martinez dont on apprend, culot suprême, l’annonce de son mariage, a choisi l’affrontement (MAJ: le mariage est finalement démenti, c’est le bouquet, merci l’AFP et Europe 1 de m’avoir induit en erreur). La justice tranche ainsi sur fond de confusion extrème et génère incompréhension et inutile frustration. Ainsi soit-il. Désormais messieurs vous savez ce qui empoisonne la presse française depuis plusieurs années: on peut publier la vérité et être condamné. Je le dis et le redis, le combat des blogs se mène avec les éditeurs et non avec les hébergeurs.

Puisque, faute de mieux, il faut bien commenter l’affaire Fuzz rappelons que techniquement ce jugement n’a pas valeur de jurisprudence et que rien n’est joué sur le fond (l’affaire Lespipoles.com est bien plus pernicieuse sur ce point). En revanche, dans l’attente de pouvoir lire le détail du jugement, il me faut exprimer mon effroi devant l’extrême bétise qui s’est épanchée au cours des derniers jours pour défendre Eric Dupin sur le thème « je n’aime pas Olivier Martinez ».

Je m’explique…

Je ne mets pas en doute la bonne foi des initiateurs et de la très large majorité des individus ayant soutenu cette initiative, y compris l’astucieuse technique du Google bombing. Le résultat, une campagne de lynchage pure et simple, relève pourtant de la plus profonde immaturité, pire il est extrèmement dangereux:

– La blogosphère a offert sur un plateau des milliers d’articles dont le caractère diffamatoire ne fait aucun doute. Alors qu’à l’origine l’affaire pouvait se plaider, il y a désormais un boulevard pavé d’euros pour exiger des dommages et intérêts. On ne peut pas faire mieux en matière de crétinisme. Prions simplement pour que le défenseur d’Olivier Martinez comprenne la nécessité de calmer le jeu.

– Qu’on le veuille ou non Olivier Martinez A LE DROIT de demander à la justice de trancher s’il estime être lésé. C’est à la justice de décider si sa démarche est fondée ou si elle est abusive. En clair on peut hurler à l’abus, à l’erreur, à l’injustice mais on ne peut nier à un plaignant son droit fondamental à faire appel à la justice. AUCUN JURISTE ne peut contester ce droit car ce serait précisément nier l’existence d’un état de droit. Ce que je crains est simple: l’organisation spontanée ou non de l’opération « je n’aime pas Olivier Martinez » a-t-elle pu influer négativement sur le jugement de l’affaire en se transformant en un déni pur et simple des droits du citoyen.

Alors, et ensuite?

Ensuite, il faudra attendre les autres jugements à venir et rapidement s’attaquer au fond de la question. Puisqu’on a pris le temps de définir ce qu’était un hébergeur en sachant pertinemment que ce type de litige allait survenir tôt ou tard et puisque des juristes m’expliquent (voir les commentaires) à juste titre que c’est le statut d’éditeur qui n’a jamais été précisé et bien repartons du point de départ, redéfinissons le statut d’éditeur à l’heure d’internet. Redéfinissons le cadre juridique permettant à ceux qui assument ce rôle de librement diffuser partie de leur contenu (par exemple via RSS) sans contraindre nécessairement à la contractualisation. Travaillons à définir le media d’un nouveau genre, le media ouvert. N’instrumentalisons pas la Loi pour couvrir les éditeurs masqués sous le statut d’hébergeur.

A titre personnel et professionnel je compte m’engager sur cette question et l’appliquer aux medias que je dirige. C’est dit.

Quelques bonnes lectures:
> Chez Narvic, la question du lynchage
> Chez l’incontournable Versac, le lynchage encore
> Chez Eolas toujours brillant, Que faire quand on reçoit un courrier d’avocat (pour expliquer simplement qu’une assignation n’est pas une condamnation)
> Chez Juriscom.net toujours pertinent (et du côté de la LCEN) un bilan intéressant de la LCEN par le parlement – document toutefois encore non définitif. Document qui tente de soutenir la légitimité du statut d’hébergeur tout en le distinguant ouvertement du statut d’éditeur pourtant réputé « non défini »…
> Chez JB Soufron sur ZDNet.fr, le statut d’hébergeur remis en question
> Chez Adscriptor, la défense de Fuzz, côté bonne foi

RSS: le tir aux pigeons a commencé

Pull ! Une période difficile semble s’ouvrir pour les apprentis hébergeurs. Apres Lespipoles.com c’est au tour de Fuzz.com un modeste agrégateur de news français  (maintenu par Eric Dupin) qui se retrouve assigné en justice pour des causes similaires. J’apprends aussi que Wikio.fr est sorti indemne d’une procédure en référé pour la même affaire (MAJ : le commentaire vu côté Wikio). Toutefois il faut noter que Wikio (voir l’article de Juriscom.net qui commente l’affaire) s’en tire habilement par des arguments techniques, en clair la société assignée en référé était la détentrice du nom de domaine Wikio.fr, non l’éditeur (Planete Soft) ou l’hébergeur technique. Comprenez que sur le fond l’affaire n’est absolument pas tranchée. Au passage cela prouve que la liste des sociétés assignées a très probablement été établie sur la base d’un relevé rapide des propriétaires des noms de domaine. En vrac. 

 Sur le fond la question reste entière et je note au nombre de messages personnels reçus apres la publication de mon dernier billet que l’affaire agite sérieusement un bon paquet de professionnels. Au point qu’il n’est pas impossible qu’une réponse s’organise du côté des éditeurs qui assument pleinement la distribution de leurs flux. La question est avant tout pratique, si la contractualisation est un passage obligatoire (désolé pour ceux qui hurlent au loup et découvrent qu’on ne vit pas au pays de Blanche Neige) chacun admet qu’il n’est pas envisageable de signer un contrat chaque fois qu’on « emprunte » un flux RSS mis à disposition.

Sur ce point l’affaire pourrait très rapidement toucher aussi les plates-formes d’échanges de videos ou les plates-formes de blogs. J’avais déjà signalé que l’action consistant à ouvrir un blog, ou uploader une video supposait la plupart du temps l’acceptation de CGU (Conditions générales d’utilisation) que personne le lit vraiment et qui implique la cession des droits d’exploitation du contenu. Et oui, quand on « publie » sa video ou sa chanson sur Myspace on cède les droits d’exploitation… En revanche quand on récupère ces videos ou contenus sur son site ou blog on oublie tout autant de lire les CGU qui impliquent souvent l’interdiction d’une exploitation commerciale. Bref, le RSS n’est que la partie visible de l’iceberg.

Vous avez dit « exploitation commerciale »?

Problème, qu’est ce qu’une exploitation commerciale? Dès qu’on fait figurer des liens Adsense sur son blog? Dès que sa propre plate-forme fait figurer une bannière sur notre blog?

Oui, je le crains. Il faudra bien considérer qu’il y a exploitation s’il y a un revenu perçu, d’une façon ou une autre. Une perspective vertigineuse mais encore une fois parfaitement prévisible comme le démontre la lecture des CGU des grosses plates-formes d’hébergement qui prennent soin de faire peser le risque juridique sur leurs utilisateurs, à juste titre. En clair, RSS ou pas, vous publiez et à ce titre le droit de la presse s’appliquera tôt ou tard.

La LCEN en question

La question s’était posée déjà ainsi à l’époque des travaux préparatoires autour de la LCEN (dès 2003). A l’époque on parlait moins de blogs que de forums et la question était de sauver le principe de la liberté d’expression face aux contraintes, réelles, du droit de la presse (découlant de l’acte de publication). Est alors apparue l’idée géniale du statut « d’hebergeur », dédouanant grosso modo les « exploitants » de services Internet (on n’ose plus dire éditeurs) à condition qu’ils réagissent a posteriori aux contenus litigieux. Les forums étaient sauvés, les FAI aussi. La bombe à retardement lancée.

Problème, à l’époque les logiciels de forums étaient déjà utilisés par beaucoup de sites indépendants comme outils de publication. En clair leur activité d’éditeur qui ne faisait aucun doute pouvait disparaitre illico presto sous le statut d’hébergeur technique (« c’est-les-gens-qui-publient-moi-j’y-sais-rien-de-ce-qui-s’passe-sur-mon-pitit-site-herbergé-chez-ma-moman »). Débarrassée du risque juridique lié à l’activité d’édition, une nouvelle industrie pouvait s’installer, en partie basée sur l’exploitation illégale de certains contenus. On s’émerveilla de la créativité, à juste titre, parce que débutait une période d’inventivité exceptionnelle. Sur fond de compte à rebours…

Un compte à rebours parce que chacun savait que tôt ou tard les questions dérivées du droit à la propriété intellectuelle, à l’image etc… se poseraient tôt ou tard brutalement face à industrie dont les fondements étaient basés sur leur contournement. Comme toujours les bons sentiments (sauver la liberté d’expression) ont créé un situation ambigüe. Restait à attendre l’arrivée de l’argent pour porter la cocotte minute à la pression maximale.  Nous y sommes, et il faut toujours protéger la liberté d’expression.  

A l’époque nous avions abordé chacun de ces points avec un des premiers jeunes juristes en charge du dossier pour le FDI et défenseur du statut d’hébergeur, Lionel Thoumyre, fondateur de Juriscom.net, recemment passé chez … Myspace. Salut Lionel! Le débat continue…

MAJ: 17/03/08: pour ceux que ça intéresse la discussion avec Lionel Thoumyre se poursuit ici sur ZDNet…  (voir les commentaires)

Affaire LesPipoles: le RSS n’est pas une bonne planque

Je réagis avec un peu de retard à ce fait d’actualité qui semble donner des migraines à pas mal de monde. Et pour de bonnes raisons. Résumons: le site Lespipoles.com qui, comme beaucoup fait commerce d’une bonne potée de flux RSS en provenance de sites éditoriaux couvrant l’actualité des stars, se retrouve grosjean devant la barre du tribunal . Son tort? Avoir diffusé le titre et le lien d’un article de Gala évoquant une relation entre le réalisateur du film La Môme et Sharon Stone. On se fiche au passage de savoir si l’info est véridique, pour la petite histoire, on peut très bien se retrouver condamné même si l’info est confirmée (bienvenue dans le monde du droit de la presse français).  Donc il y a atteinte à la vie privée et le grossiste en flux RSS se retrouve punaisé au mur et délesté d’un paquet d’euros.

Emois sur le web. Le RSS ne serait pas « bulletproof »!  Je relève quelques articles qui se font l’echo du malaise: Chauffeurdebuzz, PresseCitron, Tom, et Tubbydev qui pose brutalement les questions qui fâchent.

Deux questions majeures:
– « Comment peut-on se retrouver responsable du contenu des autres »: en les publiant banane!
– « Le coup du statut d’hébergeur ne marche plus! » : pas encore mais les avocats ont beaucoup appris et ont commencé à affuter les arguments permettant de limiter la portée de cette astuce juridique héritée de la LCEN en particulier en démontrant l’intentionnalité de l’éditeur/hébergeur et la manipulation des contenus. C’est la grande nouveauté de ce jugement, qui contrairement à ce que certains pensent, n’est pas issu de l’appréciation hasardeuse du juge.

La remise en question progressive du statut d’hébergeur faisait partie de mes prévisions pour 2008, pas par hasard, parce qu’elle fait l’objet de l’attention de pas mal de juristes. Parce qu’elle ouvre aussi la porte du Paradis des dommages et intérêts. Elle inaugure le compte à rebours de la normalisation d’une partie l’industrie du Web 2.0.

Une question mineure:
– « Comment puis-je surveiller les contenus de centaines de flux RSS? » : facile, personne n’oblige à le faire, la seule réponse c’est l’obligation de recueillir l’accord de l’éditeur du flux RSS pour l’exploiter commercialement et de contractualiser l’accord. Peu le savent mais c’est ce que les juristes de la plupart des groupes de presse imposent, ce que pratiquent depuis longtemps les portails à la Yahoo!, MSN. Peu importe la nature de ces accords ils visent tous à affirmer la responsabilité juridique de l’émetteur des flux c’est à dire l’éditeur d’origine de l’information. En clair il protège celui qui réexploite les contenus, l’éditeur assumant ses responsabilités. La routine.

Maintenant la question marrante et qui fâche:
– « Les agrégateurs de flux sont-ils menacés? ».

Ben oui.

Laurent Binard de Wikio m’expliquait qu’il recevait un grand nombre de mises en demeure. Simplement dans la plupart des cas elles sont le fait de juristes qui balayent le web au nom de leurs clients sans trop se soucier du statut de celui qui diffuse l’information (ce qui est d’ailleurs probablement le cas de l’affaire présente). Rarement ces démarches débouchent sur un jugement, la plupart du temps le retrait du contenu est suffisant ou un accord amiable.

C’est tout le malentendu de la situation: il n’y a jamais eu le moindre doute, du moins en France, sur la responsabilité de ceux qui diffusent ou rediffusent des informations simplement l’absence de vraie bataille juridique. C’était déjà la question posée à Google News il y a quelques années par les éditeurs. En vérité l’échange et la libre diffusion des flux RSS repose avant toute chose sur une tolérance relative, sur le « fair use », sur le pari que la relation profite in fine à l’éditeur plus qu’elle ne le lèse.

Toute la vraie question est de savoir si les agrégateurs seront capables de construire une relation équilibrée avec les éditeurs, c’est à dire au besoin en cas de déséquilibre de la relation, de proposer des dispositifs assurant une juste contrepartie aux éditeurs. C’est à dire de se comporter en véritable distributeur plutôt qu’en media parasite. Ces discussions ont été engagées tardivement avec Google, je les ai eu avec Wikio, Netvibes, d’autres. Elles sont souvent constructives. Elles témoignent simplement que le nouvel écosystème se met en place, celui où chacun prend ses marques et apprivoise les nouveaux mécanismes de distribution. La normalisation de l’économie numérique, tout simplement. Elle sera impitoyable pour ceux qui ne la respecteront pas.

A titre personnel, malgré une sévère tendance à l’ironie, je suis partisan de la tolérance en matière d’usage des flux RSS car je pense qu’ils sont un des mécanismes indispensables à la distribution des contenus à moindre coût et surtout à l’accélération du partage des savoirs et de l’information. Peu à peu les grandes plates-formes d’hébergement (blogs, videos) devront simplement sécuriser leurs activités en contractualisant avec les vrais producteurs de contenus. L’exemple de Dailymotion montre par exemple comment s’organise peu à peu la distribution des contenus labelisés des éditeurs.

On oublie simplement que les flux RSS avaient vocation à servir un usage privé. Leur utilisation à des fins de publication et d’exploitation commerciale sont nécessairement soumis à contractualisation. L’apparente liberté perçue par les blogueurs est apparente. En réalité chaque plate-forme de blog comporte dans ces CGU des clauses déterminant la responsabilité de ses utilisateurs, certains éditeurs prennent aussi la peine de faire figurer des CGU relatifs à l’usage de leurs flux. La majorité précise les restrictions d’usage.

Bref ce jugement peut paraître regrettable, il était prévisible.

Google face aux fausses promesses des réseaux sociaux

L’annonce est passée inaperçue alors que tout le monde avait les yeux tournés vers l’OPA de Microsoft sur Yahoo, Google, de l’aveu même de Serge Brin, n’est pas satisfait des performances publicitaires des réseaux sociaux (lire la traduction de l’article par ZDNet.Fr). Du coup on se rappelle avec un peu de retard la nature de l’accord avec Myspace : 900 M$ de revenus garantis mais sur 3 ans avec l’essentiel pour 2009 et à condition de respecter des critères de croissance pour l’audience de Myspace. L’arrivée de Facebook a probablement bouleversé le plan et les revenus de Myspace restent toujours à mon avis une affaire bien mystérieuse.

Ce qui est intéressant dans cette histoire c’est d’entendre Serge Brin parler de « déception » à propos des performances des réseaux sociaux. Parler de médiocrité est plus proche des témoignages qui se multiplient depuis plusieurs mois. Pas sûr non plus dans le cas de Myspace que les contenus et le contexte soient très favorables à la publicité. Les uns et les autres étant probablement trop hétérogènes pour permettre un ciblage satisfaisant.

Lire aussi : la chute de la durée de session sur les réseaux sociaux (aussi ici)

Maj 05/02/08: News Corp affirme à l’occasion de l’annonce de ses résultats financiers que sa filiale Fox Interactive (incluant Myspace) atteindra ses objectifs de 1 milliard de $ de CA. Affirmation qui laisse ouvert toute interprétation (apres tout le revenu est garanti donc en clair la question est de savoir si Google récupère sa mise à l’issu du deal).

MAJ 05/02/08: L’analyse de Larry Dignan, plus nuancée sur Myspace qui semble le grand gagnant du deal au contraire de Google. 

Dailymotion: vers un CA de 20 millions en 2008?

Pas sûr que vous l’ayez noté, pour ça il fallait regarder et écouter attentivement hier soir l’excellent reportage de « Complément d’Enquête » sur France 2 et consacré, entre autres choses, à Dailymotion. Un plan furtif sur une réunion de direction dans les locaux de Dailymotion et une phrase captée à la volée qui annonce l’objectif de la société pour 2008 : atteindre 20,3 M d’euros de CA publicitaire.

A la volée? Pas si sûr, d’après les vérifications de la rédaction de ZDNet (encore Estelle), la présence du micro était connue et assumée. Du coup on s’interroge, l’info est peut être un peu plus « téléphonée » qu’elle n’en a l’air (voir la video autour de 60% de la séquence).

Bluff ou pas bluff, cette séquence a le mérite de mettre un chiffre sur Dailymotion et de calmer les fantasmes de ceux qui pensent que la société a déjà atteint ce niveau de CA en 2007. La réalité est probablement largement inférieure mais tout démontre que Dailymotion s’est engagé de façon aggressive dans la course aux revenus. Une bonne chose.

dailymotion-complement-enquete-france2.gif

Une bonne chose pour un service qui corrige peu à peu ses défauts. J’abordais la question dans un précédent billet « Dailymotion, plus de professionnalisation, pas assez de garanties« , qui m’avait valu une réaction assez vive du service marketing de la société. On m’avait demandé de revoir mon texte. Ce que j’ai refusé de faire, pas convaincu par les arguments, je regrette simplement que la promesse de réponse sur le blog n’ait pas été tenue à l’époque. La vraie réponse c’est peut être justement l’opération en cours avec BFM TV , qui fait aussi l’objet du reportage, où l’on voit comment la chaîne de TV utilise Dailymotion pour impliquer les lecteurs dans une émission politique sans pour autant diffuser ses programmes sur Dailymotion (ce qui me paraissait justement source d’un déséquilibre dans l’échange de valeur). Comment faire de la plate-forme autre chose qu’un instrument de buzz, c’est une bonne démonstration. A suivre…

> MAJ 29/01/08: lire le billet de Rodrigo qui propose un calcul très intéressant

(Au passage l’emission confirme l’imminence d’une procédure de TF1 contre Dailymotion)

Officiel: Facebook dément tout soutien au Président Ubu

Fin de l’histoire, merci à Estelle Dumout de la redac de ZDNet.fr qui a pris le soin de contacter Facebook USA. La réponse est arrivée cette nuit. C’est ici

Matt Hicks, du département de la communication de la société : «Facebook is not affiliated with the website or the application referring to the election of a “Facebook President.” This is an independent effort and not in any way an official “election” for Facebook. » (Blog ZDNet.fr)

Je traduis pour les non anglophones: « Cette élection est une embrouille à deux balles et Dédé, l’anguille de la Caspienne, est un mytho de première bourre » (Ok c’est approximatif).

Voilà qui clos cet épisode qui restera malheureusement un grand moment de ridicule. L’épisode n’est d’ailleurs peut être pas clos puisque l’usage de la marque Facebook par Arash Derambarsh est juridiquement contestable, à suivre…

MAJ 04/01/08: dernier épisode, les précisions de la société ClutterMe à l’origine de l’application utilisée pour l’opération. Infos recueillies toujours par Estelle Dumout (ZDNet). 

Pour ceux qui pensent que ça ne méritait pas tant d’énergie je m’autorise un acte rare, je vais publier ci-dessous l’extrait d’un mail de ma maman, auditrice d’Europe 1 et qui comme d’autres lecteurs/auditeurs a réagi à ce qu’elle ressentait comme un léger problème au niveau de la crédibilité de notre profession. La suite en copier collé, c’est du brut(al) :

****

Ma maman m’écrit donc ce matin:

Bonjour Emmanuel, je voulais te téléphoner pour te parler de ce fameux président virtuel de Facebook. Je l’ai entendu en long en large et en travers sur Europe 1. Ils en ont fait des tonnes au point que je me suis posée pas mal de questions à son sujet. J’ai presque eu envie de crier « Elkabach où es-tu ? Ta radio fout le camp! » Merci donc pour ton article et ses nombreux commentaires, j’ai ma réponse.
D’une façon générale je suis en train d’insupporter les médias actuellement : radio = téléphoner comme sur TF1 sur des sujets mais nuls, mais nuls. J’attends le jour où on nous dira d’appeler pour savoir si Sarkozy fait pipi avant ou après le déjeuner le matin !!!! Quand aux télés ils ont des reportages trottoirs indigents surtout en ce moment avec la cigarette. C’est affligeant et je ne comprends pas que les rédac en chef laissent passer autant d’ineptie. On dirait qu’il n’y a personne aux commandes. La course à l’audience se traduit par une course à la bêtise, et au nivellement par le bas. En fait la boucle est bouclée : les « jeunes » aux commandes sont le pur produit d’une éducation nationale qui n’a pas fait son travail. Le nivellement est bien arrivé en bas. Mission accomplie.

Tout est dit je crois, merci M’man !

(Note : si c’est pas du contributif ça!!)

Facebook: Ubu Président au pays des neuneux

MAJ 03/01/08: Officiel: Facebook vient de démentir tout lien avec l’opération, démenti reccueilli par ZDNet (Disclaimer: Site par ailleurs sous ma responsabilité). Ma conclusion ici.

Atterrant. Aujourd’hui un hurluberlu vient de se payer une couverture médiatique nationale (ajoutons les radios) en parvenant à rendre crédible auprès des rédactions une pseudo élection d’un Président de Facebook. Avec un aplomb extraordinaire le gars balance un ramassis de foutaises et de chiffres bidons laissant croire à une quelconque implication de Facebook dans l’opération qui n’est rien d’autre qu’une nième application virale issue d’une initiative privée.

Bravo mon gars! Je n’en dirais pas autant de ce que je lis: , ici, ou encore (et même, où il fourgue un projet avec l’Unesco!). La possibilité de publier des blogs sur des sites de presse a permis, de toute évidence, de crédibiliser l’info en utilisant des marques medias: ici ou (démonstration au passage de la capacité de désinformation des espaces de publication ouverts). On aimerait que la presse, celle qui « décrypte » et « vérifie l’info » prenne la mesure de l’information et bien non. C’est l’inverse qui se passe. On fonce tête baissée et ce sont les petits gars du net qui regardent, effarés, une profession se ridiculiser. Oui, Aziz (Mashable France) tu as raison de faire part de ta stupéfaction, je la partage.

Bon evidemment certains diront que ce n’est pas bien grave, que tout celà n’est qu’une forme de canular sympathique. Et bien je ne le crois pas. D’abord le gugusse semble représenter une véritable formation politique (Alternative Libérale) mais surtout il fait la démonstration de notre incapacité à traiter sérieusement la « petite » information. L’information secondaire, celles des anecdotes, celle de la proximité, celle où en réalité se bâtit la crédibilité parce que la seule dont chacun peut juger de la fiabilité.

Enfin tout ceci me rappelle trop 2001, quand à quelques semaines de l’effondrement de la Neteconomie, fleurissaient les articles people-jeune-entrepreneur, au style badin et faussement enthousiaste parce qu’il fallait se rattraper sur des années d’indifférence face au Net (J’ai rappelé quelques uns de ces moments sur ce billet consacré à « l’Internet qui fait des bulles« ). Là c’est autre chose, au bord du précipice, il faut couvrir frénétiquement tout ce qui mène à l’audience, vite, accumuler les mots clés pour Google, galoper derrière les modes éphémeres, gober tout, vite. Facebook, le mot magique du moment. Après Second Life.

Bref vous m’avez compris il faudra autre chose que ces pigeonnades pour sauver notre industrie.

Maj 03/01/08: le pompon final qui m’avait échappé: la légende sur Wikipedia bien sûr, avec l’appui des neuneux (ou des copains). Plus intéressant on voit qu’il défend et impose la mise à jour se sa propre fiche sur la foi … des articles de presse qui légitiment sa présence sur Wikipedia, la boucle est blouclée. Effarant.

Maj 15/01/08: la page Wikipedia a finalement été supprimée suite à la prise en compte du démenti de Facebook et la polémique autour de l’affaire. Fin de l’épisode.

OK, rien de grave, c’était juste mon coup de gueule du soir, et c’est l’effroi plus que la méchanceté qui me l’inspire…

Prévisions 2008: concentration, consolidation, destruction

C’est l’exercice des prévisions et il n’est pas simple. D’abord par ce qu’on se trompe souvent. J’ai vu en 2007 le retour du payant alors que ce fut la victoire de la gratuité, Google n’a pas subi la correction attendue. Je suis tenté de miser à nouveau tout ça pour 2008 mais ça manquerait d’originalité. D’un autre côté je ne vais pas vous dire que Twitter est la révolution attendue ou que Facebook est le tueur de Google, tout ceci n’a pas d’intérêt. Je garde en mémoire ce que furent AOL, Multimania, Yahoo, Geocities en leur temps et je me dis que décidemment on ne peut plus prévoir comme on mise sur des chevaux. Ce sont les fondamentaux qui dictent l’économie, et le verdict est plus mitigé qu’on ne veut bien le dire.

Les poulains du Web 2.0 ont montré la voie mais n’ont toujours pas convaincu les annonceurs. En clair ils vont influencer pour plusieurs années encore la manière de concevoir les sites medias. Pour la plupart ils aborderont leur deuxième année en mode start up ce qui signifie: rachat ou course à la rentabilité puisque la course vers la bourse ne semble plus une option.

Les CPM sont toujours trop faibles sur le marché français ce qui signifie que l’avenir passe par une phase d’acquisition et de concentration agressive, en particulier pour assurer l’avenir de la presse en ligne ce qui est probablement la meilleure porte de sortie pour les poulains cités plus haut. C’est la tendance depuis un an déja. Phénomène agravant: le ralentissement de la croissance des revenus publicitaires.

Video et mobile: non ce ne sera toujours pas l’année du miracle. On nous ressert le plat chaque année mais je crains qu’il ne faille attendre 2009. Comme pour le Web 2.0 il ne faut pas confondre succès d’usage et succès commercial. Pour la video la prédominance des sites de partage entretient une confusion majeure et ne facilite pas la tâche des annonceurs.

UGC et machins citoyens: là c’est plus clair, Rue89.com a agit comme une claque magistrale en démontrant la pertinence du modèle mixte, c’est à dire un media encadré par des professionnels avec du carburant contributif. Toutefois si le phénomène va aider à guider les futurs projets éditoriaux les contraintes de CPM conduiront inévitablement à participer à la concentration à venir. Probablement le meilleur scénario pour le renouvellement des pratiques journalistiques.

Presse papier: annus horribilis en perspective, je le crains. Baisse des revenus publicitaires non compensée par la hausse des revenus des activités internet, c’est désormais le scénario connu de tous, dans tous les pays. Repositionner le papier par rapport au web. Vite. Très vite. Constituer des groupes réellement multimédia: à suivre de près l’évolution du Groupe Le Figaro et Nextradio qui devront consolider leurs nombreuses acquisitions. Ecouter sur ce point Alain Weill interrogé sur l’excellent Atelier des Medias et qui affirme la presse écrite devient un média de luxe (amusant, je suis arrivé à la même conclusion il y a quelques mois mais je n’ai pas osé publier le billet qui argumentait sur la question).

Editeur ou hébergeur: un problème juridique désormais majeur. Le statut d’éditeur équivaut à une prise de risque maximum, tandis que le statut d’hébergeur revendiqué en particulier par les sites contributifs et les plates-formes d’hébergement video permet tranquillement de développer une stratégie media à l’abris (pour le moment) du coût financier et du risque juridique liés au droit de la presse (écouter Rodrigo Sepulveda de VpodTV sur la question, on ne peut pas être plus franc). Une distorsion économique devenu intolérable et qu’il faudra bien trancher. Prédiction: le statut d’hébergeur va souffrir au cours de l’année 2008.

Conservation des données personnelles: la bombe à retardement. Législation européenne oblige elle pourrait être portée à trois ans ou plus. Jusqu’à présent la menace ne semblait mobiliser que les FAI, en réalité c’est tout l’ecosystème Web 2.0, basé sur la collecte de ces données qui pourrait en subir les conséquences avec des coûts de stockages prohibitifs. La menace n’est pas étrangère à la création récente de l’Asic (le club web 2.0) qui organise les barricades. A suivre de très très près, la menace pourrait très vite siffler la fin de la récrée.

Widgets et réseaux sociaux: ce sera l’incontournable phénomène de 2008 ce qui ne doit pas faire oublier qu’on connait depuis longtemps les limites du modèle. Distribution hasardeuse pour les widgets, réseaux sociaux aux performances inégales (pour la pub). Le risque de disperser beaucoup d’énergie pour un résultat discutable. En tout cas il faudra s’y plonger, les réseaux sociaux, qu’on le veuille ou non pourront jouer le rôle de nouvelle place de marché.

Recession: le gros mot. Les USA se préparent à plonger, l’Europe ne sera pas touchée de suite mais personne ne peut vraiment prédire les conséquences sur le online qui restera dopé par une manne publicitaire toujours croissante mais qui pourrait dans le même temps devenir plus sélective.

Second Life: hahaha!
Je plaisante… Dans six mois relisez quand même ce qu’on a pu en dire, histoire d’en rire.

Sinon je réitère une partie des prévisions 2007 en particulier pour tout ce qui concerne l’identité numérique qui va devenir le centre des préoccupations en matière légale et commerciale et le ciblage comportemental dont on dressera le premier bilan sérieux.

Quelques bonnes lectures sur le sujet 2008:
> Emission n°10 de L’atelier des medias
> Quelques chiffres du marché synthétisés il y a un an par WebTrends

Voilà, pas de quoi faire son tiercé sereinement mais 2008 s’annonce sportif…

Merci de m’indiquer ci-dessous le meilleurs billets que vous avez pu repérer en matière de prévision 2008 (merci d’éviter le bullshit sur Twitter, kowoogoo.com et les listes de grille-pain web 2.0, ça me donne la migraine).

Mediapart: l’adhésion comme carburant

Une étudiante de l’ESJ (où je suis intervenu fin Octobre à l’occasion d’une conférence sur le modèle économique des medias participatifs) s’étonnait de l’initiative de Daniel Schneidermann qui appelait en septembre dernier à l’adhésion payante pour soutenir le projet d’Arret sur Images. Elle s’étonnait car « pourquoi payer alors qu’il n’y a encore aucun contenu »? En fait l’initiative était à mon sens tout à fait justifiée mais répondait à une logique nouvelle. Une logique que résume très bien l’edito de Plenel sur le nouveau site du projet Mediapart.fr (projet déjà décrit il y a quelques jours).

En résumé le choix du payant ne relève pas de la valeur marchande de l’information mais d’une adhésion morale à un projet éditorial. Edwy Plenel tire assez justement les leçons de la crise de la presse (son projet pour la reprise du quotidien Liberation avait déjà permis de donner le ton): d’abord la critique largement convenue de la crise de confiance de la presse mais également ce paradoxe que le lecteur paye déjà pour accéder à l’information puisqu’il paye son fournisseur d’accès.

mediapart.gif

Un des arguments les plus pertinents pour la gratuité des medias d’information est en effet basé sur l’idée que même en se rendant au kiosque on n’achète pas la somme des articles de son quotidien mais le moyen d’y accéder, le support papier. Conséquence: il n’y a pas de raison de payer l’info en ligne puisque les coûts de distribution sont inclus dans le forfait du FAI. Imparable. Approche intéressante à laquelle je souscris depuis longtemps et qui a le mérite d’ouvrir la voie à une approche décomplexée de la monétisation de l’information, par la pub ou par la qualification de l’audience (les profils, carburant du marketing direct pour moi la raison d’être économique du Web 2.0).

Comment justifier le payant

Quel rapport avec l’approche du payant de Mediapart.fr? Et bien justement il y a un hic dans cette théorie. Elle marche parfaitement pour les medias de niche ou l’approche verticale des magazines mais elle laisse l’information généraliste aux prises avec un univers concurrentiel si vaste que leur survie ne peut passer que par l’audience de masse et l’attaque frontale face aux portails. Ajoutons les CPM trop faibles en France et la perspective d’une rentabilité par la seule publicité est illusoire. Pire, elle serait nécessairement compromettante. Pour cette raison je ne soutiens pas le modèle du tout gratuit pour l’info généraliste et je pense que l’initiative du New York Times est une erreur (je ne suis pas non plus pour le tout payant mais c’est une autre histoire).

Comment dans ce cas, justifier le payant dans un univers de gratuité? C’est là que l’initiative de Mediapart rejoint celle d’Arrêt sur Images, en fondant l’acte d’abonnement sur un acte d’adhésion et de participation. Comprenez en se déconnectant d’un acte d’achat. Lisez le billet de Benoït Thieulin, qui positionne Mediapart dans la filiation des medias participatifs comme Ohmynews. Il décrit une partie du processus de création de la valeur ajoutée dans un espace participatif, par exemple en exigeant une participation des lecteurs débarassée de l’anonymat et par l’obligation de s’enregistrer: « l’obligation de se loguer dessine, sans qu’on y prenne un garde, un espace délimité dans lequel on appelle à la contribution […], et qui, déployé dans la durée, confère à chaque contributeur une identité liée à ce projet« .

L’identité numérique, le nouvel enjeu

J’ai soutenu une idée semblable au sein des Echos.fr pour encourager l’idée la participation des lecteurs en leur nom propre (actuellement on laisse toujours des commentaires sous pseudo – j’ai eu le même débat avec Laurent Mauriac de Rue89.com) parce que précisément c’est l’adhésion identitaire au media qui est au coeur du processus de l’affinité. Le moteur du véritable « abonnement » et de la création de valeur. Je pense aussi que tout ça n’est pas nouveau, réside déjà dans l’acte traditionnel d’abonnement mais se retrouve souvent masqué par l’acte d’achat symbolisé par la visite au kiosque.

Pour ces raisons je pense que l’approche de l’équipe de Mediapart est la bonne. Il n’y a aucune garantie de succès. Je fais aussi le pari in fine d’un modèle mixte pub-abonnement mais il me paraît important, pour un projet aussi ambitieux de fixer dès le départ la barre très haut. Non par le prix mais par l’affirmation d’une ambition morale, aussi arrogante soit-elle. D’ailleurs, sur le fond, je ne pense pas qu’il puisse y avoir de grand media sans un projet politique.

A coeur vaillant, rien d’impossible…

Bon courage et zou ! Mes 90 euros … (Déjà 123 abonnés ce soir à 23h)

Pub sur Facebook: quelques chiffres

L’inimitable Jason Calacanis publie quelques données intéressantes concernant les performances de la publicité sur Facebook. L’objet de son billet est plutôt de discuter de la polémique en cours sur l’usage des données personnelles par Facebook mais tout l’intérêt vient de ce qu’il a testé les possibilités de ciblage publicitaire proposés aux annonceurs. Son annonce publicitaire cible les passionnés de musique, utilisateurs d’un jeu video de simulation musicale (Guitar Hero). Le dispositif est semblable aux mots clés sponsorisés de Google sauf qu’ici tout fonctionne au sein de l’ecosystème Facebook.

Le résultat donne une idée de la performance de ce type de pub, basée sur du ciblage des données de profil. A priori le résultat est médiocre mais intéressant. On retiendra le taux de clic entre 0,2% et 0,4%, le cpc moyen autour de 0,13$ (finalement élevé et proche des Adwords) et l’équivalent en CPM entre 0,3$ et 0,5$. Bref au final gardons cette valeur en tête: un CPM à 30 centimes (toujours mieux que Myspace qui semble-t-il flirte entre 0,01 et 0,1$). Pour une pub qui, il faut le signaler occupe au minimum trois fois plus de surface que les Google Adwords.

guitarhero-facebook.png

Important! Mise à jour du 27/11/07 : on me signale à juste titre  que Fabrice Grinda a publié il y a quelques jours les résultats d’une expérience similaire (voir ici). Sauf qu’il obtient des résultats largement plus médiocres avec une accroche publicitaire moins grand public. Chez lui on atteint un taux de clic de 0,02% et un équivalent CPM moyen autour de 0,02$ (2 cents). Ce qui nous ramène aux données de Myspace…