La crise favorise les solutions extrèmes, c’est compréhensible, mais on ne peut que s’étonner de la différence des niveaux de réflexion stratégique d’un pays à l’autre. Côté France je découvre avec stupéfaction (pour ne pas dire plus) l’existence d’un projet de taxation des FAI, soutenu par la direction de Liberation, pour financer la presse généraliste, grosso modo la licence globale appliquée à la presse.

Cela prête à sourire mais je crois volontiers que l’absense de perspectives puisse conduire à ce genre de réflexe désespéré, en particulier quand on a la charge de sauver des emplois. Je n’aime pas du tout en revanche que l’on brandisse l’argument de la démocratie en péril pour justifier des avantages économiques . Je soutiens une grande partie des mesures issues des Etats Généraux concernant les droits d’auteur des journalistes et le statut d’éditeur en ligne, je suis extrèmement réservé vis à vis des mesures destinées à créer un sous-statut pour la presse "d’information générale et politique ". En pratique elle vise à délimiter très arbitrairement le petit cercle de la presse "utile à la démocratie" qui se partagera les aides de l’Etat. La ficelle est grosse, faut-il pour autant y ajouter le produit d’une taxation des FAI. Le raisonnement me laisse pantois. Je passe sur la répartition calculée "sur la fréquentation et  la taille des rédactions".  Quelle sorte d’aveuglement ou d’arrogance (ou de désespoir) peut soutenir un tel raisonnement ?

Côté US, le vent de résistance de la presse accouche d’un document probablement discutable mais à l’argumentation calculée. Issu d’une réflexion menée par les directions de plusieurs journaux américains ce document intitulé "Newspaper Economic Action Plan" résume les grandes lignes d’une stratégie consistant à généraliser la formule payante pour la presse d’information généraliste. A noter que ce livre blanc reprend les données des modèles économiques soumis par l’ami Jeff Mignon sur son blog  (voir ici directement les hypothèses de calcul). Je ne partage pas la volonté récurrente d’en découdre avec Google News mais il faut reconnaitre que le scénario est moins caricatural que l’approche binaire tout payant contre tout gratuit. En particulier il intègre l’usage des API, c’est à dire la necessité d’associer au payant une stratégie de distribution des contenus tenant compte des avancées technologiques des dernières années. En particulier une volonté de faire payer les usages plutot que les contenus (je reste farouchement hostile au paiement à l’acte article par article mais après tout chacun peut établir ses propres recettes).

Pour être complet voici une première critique de ce document sur le blog de Scott Rosenberg (co-fondateur de Salon.com). Ses arguments basés sur ses propres échecs me paraissent valables mais il me semble que si une grande majorité des journaux adoptent de concert une stratégie payante il peut se créer un écosystème plus favorable qu’au cours des dernières années (où envisager le payant semblait une erreur face à un marché publicitaire en croissance rapide). Tout cela bien sûr au prix d’une décroissance de l’audience des sites de news généralistes, c’est tout le point. Autrement dit renoncer aux revenus incrémentaux de la longue traîne pour privilégier une hausse du revenu par utilisateur et une audience qualifié.

L’approche des journaux US appliquée au raisonnement de Joffrin reviendrait non pas à taxer les FAI mais au contraire travailler avec eux c’est à dire les utiliser pour ce qu’ils sont: des canaux de distribution. Une piste: faire financer par Orange l’accés aux contenus payants du quotidien des abonnés Orange. Techniquement l’accès et l’authentification des abonnés peut s’effectuer en toute transparence via les API Orange Connect (injustement méconnues, semblable au dispositif Facebook Connect – voir le dispositif Orange Connect que nous avons installé sur CNETFrance.fr - cliquer sur "Identification" en haut à droite puis le logo Orange). Un accord de régie avec Orange peut permettre de compenser tout ou partie des coûts grâce au ciblage publicitaire spécifique de ces abonnés. La qualification des profils peut également générer de nouvelles sources de revenus, on me pardonnera de ne pas les détailler ici.

Avantage: c’est la valeur de l’abonnement ou de l’accès payant, contrôlé par l’éditeur, qui fixe le niveau de valorisation de l’opération et non les conditions volatiles du marché publicitaire sur des audiences non qualifiées. Certes  celà pose la question de l’indépendance vis à vis des opérateurs mais c’est une autre histoire. Un scénario négociable n’est-il pas préférable à des conditions commerciales imposées ou un impôt?

MAJ 04/06/09 via Eric Scherrer: la stratégie mixte du Wall Street Journal où Google News n’est pas bloqué mais est utilisé comme vecteur de recrutement.

Après plusieurs mois d’hibernation je me réveille dans la France d’après Hadopi. Pour être franc j’ai eu un peu de mal avec l’hystérie pro et anti Hadopi qui a littéralement laminé tout débat constructif  (je me reconnais un peu dans le constat désabusé de JM Planche par exemple). On en reparlera.

A l’occasion d’un contrôle de routine des stats Nielsen je découvre que l’audience du plus populaire service p2p en France est en net déclin depuis janvier 2009.  Du coup la question se pose: ne serait-ce pas un début d’effet Hadopi? Sur la courbe ci-dessous extraite des données de l’ancien panel de Nielsen, j’ai ajouté l’audience de PirateBay, beaucoup plus modeste et en hausse légère pour montrer que le report de trafic ne s’est pas fait de ce côté. Ceci malgré une notoriété dopée par la couverture médiatique de son procès.

La courbe montre qu’Emule a perdu près d’un million d’utilisateurs en quatre mois, de 5 millions à 4 millions de visiteurs uniques.  (Les données sont exprimées en visiteurs uniques)

Audience Nielsen 2009 de Emule et Pirate Bay en France

Audience Nielsen 2009 de Emule et Pirate Bay en France

(Emule est depuis longtemps dans le collimateur des FAI, certains filtrant les ports utilisés par ce logiciel pour communiquer mais ces filtrages existaient en 2008 rien ne prouve qu’ils soient à l’origine du déclin)

A l’occasion de la lecture sur Mediacafé d’un nième article sur le mal de la presse et tout le gnagnagna sur la qualité des contenus et la misère de la presse d’opinion je me suis fendu d’un long commentaire que je crois assez en décalage avec ce qui se dit habituellement pour juger qu’il a sa place ici.  Je me permets de le reproduire ci-dessous et de l’enrichir un peu , il tiendra aussi lieu de réponse tardive aux conclusions des Etats généraux .

***

Pour commencer, même si je partage avec d’autres une vision critique sur la qualité des contenus il me semble utile de relever les paradoxes suivants:

- Si c’était une crise du contenu pourquoi les mêmes journaux en ligne battent des records d’audience. Avec une grande part de l’audience sur des dépêches d’agence réécrites et parfaitement interchangeables d’un media à l’autre.

- Si c’est un problème de presse d’opinion comment expliquer que sur Internet c’est justement l’opinon et la subjectivité qui triomphent au travers des blogs (et que tout le monde acclame)

- Pourquoi toujours critiquer la stratégie internet des grands titres de presse alors qu’ils ont pour la plupart atteint des niveaux d’audience tout à fait respectables.

Mes conclusions:
Question contenu c’est moins une question de fond que de nouveaux usages et d’adaptation des contenus aux nouveaux modes de lecture.

La vraie question de fond: une lutte pour le pouvoir et la friction entre classes sociales. L’internet permet l’expression d’une communauté qui ne se sent pas représentée par ses élites, ses journaux. La fracture s’étend jusqu’au coeur des rédactions, elle cisaille les partis politiques etc…

Internet est l’instrument de la revanche des classes moyennes qui voient s’éloigner les perspectives de progression sociale. C’est le media des cols blancs qui se découvrent en voie de prolétarisation et vont s’allier très naturellement avec les professions intellectuelles de plus en plus marginalisées vis à vis du pouvoir économique.
Parmi elles, une grande partie des…journalistes.

Ce qui explique que la fracture passe au beau milieu des rédactions et que certains aient besoin de mettre en avant plus que de nécessaire la question d’un contenu devenu "illégitime" (je ne dis pas que cette critique est totalement infondée).

En vérité c’est une bataille pour la prise de pouvoir autour des fonctions d’intermédiation. Et comme toute lutte qui se veut révolutionnaire, ceux qui la mènent le font au nom du peuple et de la démocratie pour n’instaurer, au final, qu’un système équivalent mais rénové.

La presse traditionnelle menée par des générations ayant précédé l’âge du numérique s’accroche à l’ancien système de pouvoir politique et reçoit une juste rétribution de sa peine. Un salaire bien mérité rendu possible parce que la balance économique leur est encore favorable. Pas sa tendance…

Moralité : pour parvenir à accomplir a révolution numérique au sein de l’industrie de la presse il faut le faire avec l’appui de forces politiques représentatives des aspirations des classes moyennes (pour le moment aucun parti politique ne répond à ce cahier des charges) mais également construire de nouveaux circuits de financement dégagés des influences de l’Etat et de l’industrie traditionnelle.

On est encore loin du compte et le risque est grand de découvrir que de tout cela émergera un ordre économique qui renforcera en réalité la précarité de ses acteurs. En grande partie parce que les nouveaux circuits de financement servent directement les intérêts marchands et n’offrent à l’industrie de l’information que la perspective d’une économie de survie tout en encourageant un mode individualisé de production de l’information. Mode hautement précaire et soumis au risque juridique.

Au final on accouchera d’une industrie qui relèvera plus de la production agricole et dont la matière première servira essentiellement à nourrir le pouvoir des véritables nouveaux infomédiaires, l’industrie des telecoms, Google et tous les services relevant de la distribution des biens numériques. Pour le moment rien n’est encore irréversible.

Beaucoup citent Digg.com comme une des meilleures réussites du web dit 2.0 et je constate en discutant ça et là  que de nombreux commentateurs entretiennent l’illusion que Digg est une activité rentable. C’est faux. J’en suis le premier surpris. C’est ce que révèle BusinessWeek qui s’est plongé dans les comptes de la société. Digg.com accuse 4 M$ de pertes sur les trois premiers trimestres 2008 pour 6.4M$ de chiffre d’affaires. Un résultat en nette dégradation puisque le service accusait déjà 2,8M$ de pertes en 2007 (pour 4,8 M$ de CA).

A lire aussi un article intéressant de Techcrunch US qui anticipe en estimant les pertes totales de Digg pour 2008 à 5,3M$ pour 8,5 M$ de CA.

Lisez  très attentivement cet article d’Australian IT qui révèle un petit scandale sur certaines pratiques d’agences de pub en Australie.

En résumé: certaines agences ont compris comment exploiter le différentiel de CPM entre des sites éditoriaux à forte valeur ajoutée et des sites ou services à faibles CPM. Pour cela elles diffusent des campagnes sur les premiers, destinées à recueillir les données de navigation et de comportement des internautes. Ces informations sont stockées dans des cookies exploités par les adservers (les serveurs chargés de diffuser les campagnes publicitaires). Si l’internaute est identifié plus tard, par la présence sur son PC de ce cookie,  sur un site ou des réseaux à faibles CPM on lui sert alors une publicité ciblée et evidemment moins couteuse à diffuser que sur le premier site.

En clair on utilise les informations recueillies sur le site à forte valeur ajoutée pour qualifier l’audience sur un autre site à faible valeur ajoutée. C’est le but  du ciblage comportemental destiné clairement à valoriser les immenses inventaires des grands portails par exemple sur les pages des boites aux lettres électroniques. Sauf qu’ici on n’achète qu’un minimum d’espace sur le site de l’éditeur, voire même des espaces insignifiants, peu performants et à faible coût, le but n’étant pas en réalité de diffuser la campagne mais de générer un maximum de cookies qualifiés. Le gros de la campagne est dépensé ailleurs à moindre coûts mais en la justifiant par une audience qualifiée sur des sites!

Tout ceci à l’insu de l’éditeur du premier site et surtout à l’insu de l’utilisateur lui même. Pour faire court imaginez qu’un lecteur de LesEchos.fr se voit proposer de la publicité pour des services financiers quand il navigue sur un site de voyage. Pas scandaleux en soi, sauf que tout  le bénéfice de la stratégie consistant à proposer des contenus exigeants à une audience très ciblée est détourné à l’insu de l’éditeur pour enrichir un autre service. Autrement dit sur l’éditeur pèse l’ensemble des côuts permettant de qualifier une audience tandis que le bénéfice est collecté ailleurs. Les réseaux à faible CPM parasitent les sites à forts CPM… CQFD.

Ce que vient de rendre public cet article, et qu’on appelle le "retargeting" (reciblage) n’est ni plus ni moins qu’un vol. Au centre de la polémique: le rôle des ad-servers (les serveurs qui diffusent techniquement les campagnes) qui sont au coeur du système sur chaque page des éditeurs,  captent l’information et peuvent être manipulés en acceptant l’ajout de système de tracking de sociétés tierces.

Une question simple: qui contrôle les ad servers ?

La question compliquée: ce détournement de la valeur de l’audience est un vol car il s’effectue à l’insu des éditeurs et des utilisateurs. Mais comment le qualifier si on obtenait l’autorisation de l’une ou l’autre des parties?

Comment?

En rendant le processus cool
En rendant le processus utile

En le baptisant Open social ou Open Id, par exemple…

(Qu’on se rassure pour ça aussi il y a une réponse, une réponse négociée basée sur la reconnaissance du déséquilibre de l’échange de valeur. Encore faut-il la mesurer)

A lire sur ZDNet.fr (un des sites dont j’ai la charge) un entretien avec Olivier Abecassis DG de WAT, la plate-forme video de TF1. Il annonce un intéressant revirement de stratégie: désormais la priorité consiste à monétiser le contenu propriétaire de la chaîne ainsi que celui de ses partenaires. WAT continuera à héberger le contenu des utilisateurs (UGC) mais ne croit plus à la capacité de tirer des revenus suffisants de ces videos à la qualité aléatoire et controversée.

Une décision qu’on peut rapprocher de la stratégie autour de Hulu.com aux USA, soutenue en particulier par Fox (Murdoch) et qui consiste à privilégier exclusivement la monétisation des contenus des éditeurs. Le calcul est simple: mieux vaut moins d’audience mais une monétisation à l’unité accrue et exploiter ses fonds de catalogue. En face rappellons que Youtube ne monétise que moins de 5% de son stock de video.

La strategie des Youtube, Dailymotion et même Myspace consiste aussi à accroitre la part du contenu propriétaire par des accords avec des éditeurs mais également, ce qui est passé un peu plus inaperçu, à recycler le contenu "piraté". Comment? Grâce aux différents système d’identification des videos qui permettent de réattribuer la paternité de ces contenus aux éditeurs d’origine et de leur proposer un partage des revenus sur leur exploitation. Une stratégie ingénieuse qui transforme le piratage en système de distribution. Malin. Très malin même si, en pratique, l’identification des videos est loin d’être un processus fiable et repose sur la capacité de référencer au préalable les oeuvres originales afin de comparer les signatures numériques.

Bref deux modèles et deux choix stratégiques s’opposent sur le marché de la video. Une course contre la montre.

Apres son premier reportage sur la bulle internet la chaîne 13eme rue diffuse sa dernière production cette fois sur le phénomène du buzz sur Internet. Au delà de l’aspect anecdotique l’intérêt de ce documentaire repose sur la démonstration de l’intérêt économique qui nourrit impitoyablement la diffusion du buzz, par exemple dans le cas de Laure Manaudou (déjà abordé ici). On y retrouvera aussi le thème de la manipulation, de la fin du "OFF" et de l’exposition incontrôlée des personnalités politiques.

Bref toute une époque. Je regrette toutefois qu’on mette sur le même plan les buzz crapoteux et le hors antenne qui a valeur d’information (sur ces questions Arret sur images fait un bien meilleur boulot). A signaler quelques passages ironiques sur les bloggeurs qui "aiment passer à la télé". Sur le fond impossible de ne pas rappeler aux bloggeurs, grands ou petit, que tout relève de l’acte publication, avec les conséquences juridiques associées.

La phrase qui résume tout: "avec Internet le hors antenne a trouvé son media"

Video hilarante à voir à propos d’une controverse mineure au sein de la conférence TC50 organisée par Techcrunch (qui rassemble par ailleurs plein d’acteurs intéressants du web 2.0).  Visiblement l’événement s’est ouvert avec, en fond sonore, l’hymne américain devant une partie du public d’origine étrangère plutôt éberluée. Je passe sur certaines réactions acerbes qui n’enlèvent rien à la qualité de la manifestation mais le pompon revient à Lauren Feldman, blogueur au style saignant et controversé,  qui couvre la conférence et résume ce matin la polémique dans la video ci-dessous:

En clair il approuve l’hymne national US (ce qui est inattendu) car – je traduis – "il n’y a qu’aux Etats-Unis qu’on peut foutre autant de pognon dans autant de sociétés qui n’ont pas de revenus, de produits, ou la moindre preuve de succès… God bless America!"

[YOUTUBE=http://www.youtube.com/watch?v=01l-tfN50f4]

Injuste mais tellement bon…

La rentrée s’annonce chaude. Google devrait lancer aujourd’hui son navigateur maison, Google Chrome. On peut dire que c’est un des buzz les plus spectaculaires du moment, Google ayant choisi de diffuser l’annonce auprès d’un public restreint, sous la forme d’une bande dessinée (Voir sur le site Blogoscoped.com qui reproduit les 38 pages de cette BD d’un nouveau genre). En quelques heures l’annonce fait le tour du web. Impressionnant.

J’ai parcouru ces pages et au delà de la simple annonce d’un nouveau navigateur ma première réaction à chaud est simple. Le message tient dans la première page: un constat limpide, le navigateur web n’est plus un navigateur c’est avant tout la nouvelle interface pour utiliser des applications web. Le navigateur est le nouveau bureau au sein de votre PC. L’annonce d’une multitude de nouveautés ergonomiques (certaines inspirée du navigateur Opera, comme quoi on n’invente rien…) ne pèse pas lourd face à la démonstration de fond. Sur de nombreuses pages la BD de Google explique comment Google Chrome est avant tout conçu pour optimiser les fonctions multitâches, la mémoire de votre PC, la sécurité etc…

Je laisse aux nombreux commentateurs le soin de disséquer dans les prochains jours les fonctionnalités de la bête. Pour moi le message est clair, Google Chrome est l’offensive attendue pour détroner Microsoft du PC. Non pour bousculer Explorer mais l’ensemble de l’écosystème qui vise à contrôler la chaîne de distribution des services sur votre PC. Comprenez du système d’exploitation au web (dont Google régule déjà l’économie) en passant par les outils de bureautique. La chaîne nourricière de Microsoft depuis sa fondation.

Un exemple simple: si chaque onglet ("tab") peut fonctionner en toute indépendance et se séparer du corps du navigateur et si dans chaque onglet nous ouvrons une application, alors nous avons reproduit via le navigateur l’exact fonctionnement d’une suite d’applications. Reste à sécuriser l’utilisation de l’ensemble et en particulier des données introduites par l’utilisateur (image, chiffres, textes) et il ne reste plus grand chose qui nous sépare de la suite de logiciels. C’est exactement ce que démontre la présentation de Google Chrome. Saut ultime. Plus besoin de PC complexe, place au terminal connecté au web. Le PC low cost (j’ai mon asus eee pc 900 ouf merci).

Bref on ne va pas s’ennuyer dans les prochains mois

MAJ 02/09/08 : télécharger Google Chrome sur ZDNet.fr

Stay tuned…

On le sentait venir, c’est désormais confirmé par l’IAB USA: les revenus publicitaires du premier trimestre 2008 sont en baisse par rapport au dernier trimestre 2007. Un décrochage très bien commenté par Didier Durand dont je partage l’analyse centrée sur la récession américaine et l’élasticité du marché publicitaire. On attendait cette confirmation dans les résultats du premier trimestre de Google mais ceux-ci, comme l’avaient noté quelques analystes, étaient brouillés par la croissance des revenus hors USA.

Ajoutons au décor le taux de change dollars/euros qui pénalise les investissements des entreprises américaines et on peut supposer que l’impact ne se limitera pas à la zone US. J’ai par ailleurs constaté, malgré le démenti (faussé à mon sens) des résultats de Google une large baisse des revenus aux clics sur le réseau Adsense, ce que me confirme plusieurs blogueurs indépendants dont les revenus proviennent exclusivement de ces publicité à la performance. Mes observations portent toutefois sur plusieurs pays aussi ai-je de bonnes raisons de penser qu’on assiste à une baisse de la pression publicitaire sur ce réseau, peut-être pas dans tous les secteurs. N’hésitez pas à me contredire ou confirmer cette impression…

Les conséquences n’ont même pas à être imaginées puisqu’on les observe depuis quelques mois: le web 2.0 est en vente car bon nombre d’investisseurs anticipent une à deux années de vaches maigres et la concentration s’accélère. Pour faire court la bulle qui n’existe pas a éclaté sans bruit. Sans bruit puisque cette fois, les répercutions n’affectent pas massivement la bourse. Personne n’a toutefois noté que quelques grosses acquisitions des derniers 12 mois ont dégringolé dans des proportions inquiétantes. Enfin pourquoi est-ce que je mentionne le Web 2.0? Parce que les valeurs des sociétés emblématiques de ce secteur reposaient sur une surestimation du visiteur unique, lui même survalorisé par une anticipation exagérée de la croissance du marché de la publicité (du point de vue de l’acheteur potentiel).

Bref 2008 est bien partie pour être l’année de la correction.

J’ai laissé en plan l’affaire Fuzz il y a quelques semaines tout en promettant une suite, elle commence à prendre forme. Sans reprendre la polémique en détail disons qu’une malheureuse vague de jugements en référé ont conduit pas mal de monde à douter de la pertinence du statut d’hébergeur tel que décrit par la LCEN. Au minimum son efficacité à protéger un certain nombre de services en ligne ayant cru pouvoir limiter leur responsabilité en invoquant ce statut. Pour faire court il a suffi de démontrer que ces services "organisaient le contenu" pour contester le statut d’hébergeur et les faire basculer comme éditeurs avec un régime de responsabilité maximum, ce qui a ébranlé plus d’un modèle économique et suscité l’émoi.

Le GESTE qui regroupe une bonne part des principaux medias professionnels d’information en ligne a décidé dans la foulée de mobiliser ses juristes pour plancher sur la question. Objectif: préciser la responsabilité repective des services concernés au besoin en clarifiant la nature de leur activité et  retrouver les conditions favorable à leur développement économique. Je vais essayer de résumer ici le résultat de cette réflexion le plus simplement possible (je ne suis pas juriste mais le GESTE précisera dans les prochaines semaine le détail de cette argumentation).

Au départ, deux points majeurs à retenir:

- Sortir de la distinction binaire hebergeur vs editeur: c’est la leçon des derniers jugements, l’opposition brutale, sans nuance entre les deux statuts mène à l’impasse. Pour une raison simple: le statut d’hébergeur est attractif mais aussi très restrictif en particulier parce qu’il décrit essentiellement une activité de stockage (assertion la plupart du temps risible pour n’importe quel observateur, avis personnel). S’il apparaît d’une manière ou une autre que l’activité du service s’étend au delà du simple stockage c’est l’ensemble du statut qui est remis en question. Dans un système binaire cela signifie qu’on bascule ipso facto du côté du statut d’éditeur avec un régime de responsabilité accru. C’est exactement ce qui est arrivé avec Fuzz. Autrement dit, revendiquer  le statut d’hébergeur est un jeu à quitte ou double. On gagne ou on perd tout. Mais surtout on s’interdit de plaider sur toutes les nuances de l’activité, par exemple d’agrégateur, puisqu’elles vont toutes contredire l’activité d’hébergement (on organise les contenus, on indexe, on hiérarchise etc…). Du coup, dans un contexte hostile, on se retrouve suspecté de mauvaise foi. Bing!

- Préciser la définition de l’éditeur: c’est le grand paradoxe du débat, le concept qui semble le plus solide dans l’esprit de tous les acteurs est un mirage. Croyez-le ou non (voir les commentaires de mon billet et mon échange avec Lionel Thoumyre de Jurisnet.com) le statut d’éditeur n’existe pas. Pire, entre multimedia, audiovisuel, interactivité, il devient chaque jour plus complexe et fuyant. Au mieux on l’identifie aux medias traditionnels, à sa forme la plus palpable, l’édition papier. Il n’est plus opérant. Qualifier sans nuance la plupart des services interactifs d’"éditeurs" à défaut de pouvoir les définir comme hébergeur, revient donc à les expédier à l’autre extrémité du spectre des définitions possibles, dans le mur ou le néant.

La vérité est simple est cruelle. La plupart des services concernés par la polémique  ne sont pas des hébergeurs au sens strict du terme. C’est une évidence, du moins hors du champ juridique. Ils ne sont pas non plus des éditeurs au sens traditionnel. C’est aussi une évidence. La question n’est pas de savoir s’ils sont hébergeurs (qui peut croire sérieusement que Murdoch investirait pour vendre du gigaoctet), la question est de savoir s’ils peuvent le plaider. Nuance.

Paradoxe les éditeurs traditionnels s’éloignent aussi de la simple activité de production de contenus, ce que reconnaît la LCEN en leur reconnaissant une fraction du statut d’hébergeur, par exemple en ce qui concerne la gestion des commentaires (dans le cas d’une modération a posteriori la responsabilité est celle d’un hébergeur, pour faire court).

Constat important: la LCEN a introduit l’idée qu’au sein d’un même service ou media, la nature de la responsabilité pouvait être nuancée. Une façon polie de reconnaître la nature profondément ambivalente des medias en ligne. Rétrospectivement c’était une approche visionnaire, même si, au départ il ne s’agissait que de préserver des lieux de débat et la liberté d’expression. C’est ce point, je crois, qu’il faut préserver.

La proposition du GESTE: reconnaître la notion d’éditeur de services

Simple. Ne remettons pas en cause le statut d’hebergeur, il décrit une activité qui existe bel et bien. Opérons une distinction dans le statut d’éditeur. Le GESTE a déja produit une définition du statut d’éditeur qui reconnaît l’ambivalence entre la production de contenu et la production de services (à télécharger ici). Enfoncons le clou, reconnaissons la distinction entre éditeurs de contenus et éditeurs de services. L’éditeur de services organise des contenus, peut opérer des choix éditoriaux, indexer, ajouter des mots clés, hiérarchiser l’information avec ses utilisateurs (pensons à Digg.com). L’éditeur de service peut réaliser tout celà sans produire ni prendre connaissance des contenus un par un. L’éditeur de service a la responsabilité des choix éditoriaux qu’il opère en organisant même partiellement les contenus, il n’a pas la responsabilité des contenus eux-mêmes à la différence de l’éditeur de contenus. Bref il est reponsable de ce qu’il édite vraiment. Il peut ainsi réagir a posteriori à un contenu litigieux selon le même régime de responsabilité qui est reconnu à l’hébergeur… et à l’éditeur de contenus dans le cas des commentaires.

Appliqué à Fuzz c’est lui permettre de reconnaître pleinement l’ambition éditoriale de ce service tout en le déchargeant de la responsabilité de contenus produits par d’autres (à condition qu’il ne les produisent pas lui-même mais c’est une autre histoire). C’est aussi et surtout l’opportunité de pouvoir se défendre sans devoir se revendiquer d’une improbable activité de stockage.

Dans les prochaines semaines, peut être via un nouveau livre blanc, le GESTE devrait préciser cette approche dont le mérite est aussi de ne pas remettre en cause les acquis de la LCEN. Je précise au passage, que bien qu’ayant pris part au débat certains commentaires écrits ici relève de mon opinion personnelle et n’engage pas tous les membres du GESTE. 
Parce qu’il faut rendre à César son dû, je remercie Marine Pouyat, juriste du GESTE, et surtout Etienne Drouard avocat du cabinet Morgan Lewis qui ont orchestré ces travaux en un temps record (je ne désespère pas de leur faire ouvrir un jour un compte Facebook mais pour le moment on se passera de liens). J’espère n’avoir pas dénaturé leur raisonnement.

La discussion ne fait que commencer. J’inaugure le crash test en exposant ces idées dès demain aux ateliers de l’ADIJ dans le cadre d’un débat avec Lionel Thoumyre (Juriscom.net) qui est aussi l’avocat de Myspace.

Stupéfaction à l’occasion d’un entretien sur Canal+ avec Jean Dionis du Séjour rapporteur de la LCEN qui plaide pour une évolution de la Loi. Propos analysés par l’avocat Eolas sur son blog où l’on relève cette déclaration suprenante:

"On en est à dire que Dailymotion sera… serait, il faudra l’encadrer, le limiter, il serait partiellement responsable des contenus [qu'il héberge], il faudra que Dailymotion s’engage plus (d’ailleurs, ils le font déjà) dans la surveillance, dans le contrôle des contenus qui seront apportés par les internautes, et les contenus qui seront [soumis au droit d'auteur], il faudra qu’ils fassent en sorte qu’ils ne soient pas mis en ligne, quoi."

Lapsus ou démonstration que la révision (pour le moment écartée) de la Loi ou la redéfinition possible de la notion d’hébergeur n’irait pas forcément dans le sens d’une liberalisation? Autre hypothèse, les techniques de marquages des contenus, qui relèvent pour le moment de l’action symbolique (toujours aussi étonnant de voir comment chacun feint de de croire à leur efficacité et la réalité de leur déploiement), pourrait jouer un vrai rôle de filtre si les producteurs de contenus adoptaient le marquage systématique. A condition d’en supporter le coût ce qui ne manque pas de sel…

Je suis également surpris de voir que le député s’étonne des dérives autour de l’application de la LCEN alors que, je le répète, elles étaient parfaitement anticipées dés le départ. Jusqu’au phénomène d’assignation collective des sites qui avait été mentionné comme issue probable. Le pari était simple: la jurisprudence tranchera et donnera l’orientation. Nous y sommes.

Concernant l’affaire Fuzz, relancée par la décision d’Eric Dupin de faire appel et l’assignation de Wikio, j’en profite pour conseiller vivement la lecture de ces deux articles – controversés- de Maître Eolas. Juste pour rappeler que le contexte dans lequel se déroule cette affaire est loin d’être simple.
> et si le juge avait raison ?
> Affaires Fuzz et autres, réplique à Adscriptor

Ce dernier article que je trouve brillant et juste même s’il est devenu difficile d’aborder cette affaire avec sang froid sous l’angle juridique sans passer pour liberticide. Je crois utile de rappeler que cette affaire ne menace absolument pas le Web 2.0 et la majorité des sites assumant leur rôle d’éditeur (et qui bénéficient tout de même de la couverture de la LCEN en ce qui concerne la modération des commentaires) ou leurs fonctions de prestataires techniques. A condition bien sûr de savoir que le risque juridique est inhérent à la fonction d’éditeur.
Seul vrai point de crispation: l’émergence de sites, certes emblématiques du Web 2.0 mais loin d’avoir démontré leur pérennité, dont l’activité se situe pile à la charnière de la fonction d’hébergeur et celle d’éditeur dans la mesure où leur activité ne se résume pas au stockage et la prestation de service mais bel et bien dans l’exploitation du contenu éditorial. Selon que l’on interprête leur nature du côté de l’une ou l’autre des deux fonctions, le risque est total. C’est toute la stratégie des plaignants qui remettent en cause le statut d’hébergeur pour appuyer leurs revendications.

Suivre

Recevez les nouvelles publications par mail.