Scoop: l’audience d’Emule en déclin en 2009, effet Hadopi?

Après plusieurs mois d’hibernation je me réveille dans la France d’après Hadopi. Pour être franc j’ai eu un peu de mal avec l’hystérie pro et anti Hadopi qui a littéralement laminé tout débat constructif  (je me reconnais un peu dans le constat désabusé de JM Planche par exemple). On en reparlera.

A l’occasion d’un contrôle de routine des stats Nielsen je découvre que l’audience du plus populaire service p2p en France est en net déclin depuis janvier 2009.  Du coup la question se pose: ne serait-ce pas un début d’effet Hadopi? Sur la courbe ci-dessous extraite des données de l’ancien panel de Nielsen, j’ai ajouté l’audience de PirateBay, beaucoup plus modeste et en hausse légère pour montrer que le report de trafic ne s’est pas fait de ce côté. Ceci malgré une notoriété dopée par la couverture médiatique de son procès.

La courbe montre qu’Emule a perdu près d’un million d’utilisateurs en quatre mois, de 5 millions à 4 millions de visiteurs uniques.  (Les données sont exprimées en visiteurs uniques)

Audience Nielsen 2009 de Emule et Pirate Bay en France

Audience Nielsen 2009 de Emule et Pirate Bay en France

(Emule est depuis longtemps dans le collimateur des FAI, certains filtrant les ports utilisés par ce logiciel pour communiquer mais ces filtrages existaient en 2008 rien ne prouve qu’ils soient à l’origine du déclin)

Publicité

LCEN V2: Jean Dionis du Séjour pour un contrôle a priori des contenus?

Stupéfaction à l’occasion d’un entretien sur Canal+ avec Jean Dionis du Séjour rapporteur de la LCEN qui plaide pour une évolution de la Loi. Propos analysés par l’avocat Eolas sur son blog où l’on relève cette déclaration suprenante:

« On en est à dire que Dailymotion sera… serait, il faudra l’encadrer, le limiter, il serait partiellement responsable des contenus [qu’il héberge], il faudra que Dailymotion s’engage plus (d’ailleurs, ils le font déjà) dans la surveillance, dans le contrôle des contenus qui seront apportés par les internautes, et les contenus qui seront [soumis au droit d’auteur], il faudra qu’ils fassent en sorte qu’ils ne soient pas mis en ligne, quoi. »

Lapsus ou démonstration que la révision (pour le moment écartée) de la Loi ou la redéfinition possible de la notion d’hébergeur n’irait pas forcément dans le sens d’une liberalisation? Autre hypothèse, les techniques de marquages des contenus, qui relèvent pour le moment de l’action symbolique (toujours aussi étonnant de voir comment chacun feint de de croire à leur efficacité et la réalité de leur déploiement), pourrait jouer un vrai rôle de filtre si les producteurs de contenus adoptaient le marquage systématique. A condition d’en supporter le coût ce qui ne manque pas de sel…

Je suis également surpris de voir que le député s’étonne des dérives autour de l’application de la LCEN alors que, je le répète, elles étaient parfaitement anticipées dés le départ. Jusqu’au phénomène d’assignation collective des sites qui avait été mentionné comme issue probable. Le pari était simple: la jurisprudence tranchera et donnera l’orientation. Nous y sommes.

Concernant l’affaire Fuzz, relancée par la décision d’Eric Dupin de faire appel et l’assignation de Wikio, j’en profite pour conseiller vivement la lecture de ces deux articles – controversés- de Maître Eolas. Juste pour rappeler que le contexte dans lequel se déroule cette affaire est loin d’être simple.
> et si le juge avait raison ?
> Affaires Fuzz et autres, réplique à Adscriptor

Ce dernier article que je trouve brillant et juste même s’il est devenu difficile d’aborder cette affaire avec sang froid sous l’angle juridique sans passer pour liberticide. Je crois utile de rappeler que cette affaire ne menace absolument pas le Web 2.0 et la majorité des sites assumant leur rôle d’éditeur (et qui bénéficient tout de même de la couverture de la LCEN en ce qui concerne la modération des commentaires) ou leurs fonctions de prestataires techniques. A condition bien sûr de savoir que le risque juridique est inhérent à la fonction d’éditeur.
Seul vrai point de crispation: l’émergence de sites, certes emblématiques du Web 2.0 mais loin d’avoir démontré leur pérennité, dont l’activité se situe pile à la charnière de la fonction d’hébergeur et celle d’éditeur dans la mesure où leur activité ne se résume pas au stockage et la prestation de service mais bel et bien dans l’exploitation du contenu éditorial. Selon que l’on interprête leur nature du côté de l’une ou l’autre des deux fonctions, le risque est total. C’est toute la stratégie des plaignants qui remettent en cause le statut d’hébergeur pour appuyer leurs revendications.

Mediapart J-1 : la présentation

Ce matin au cinéma MK2 près de la Bibliothèque de France, la présentation officielle de Mediapart.fr avant son lancement demain 16 mars 2008. Déjà près de 3500 abonnés (objectif 25 000 à la fin de l’année), et une équipe de 30 personnes. Avant de publier mes impressions voici trois videos prises durant la session. Dans l’ordre François Bonnet le directeur éditorial qui présente le site (video 1 et 2) et Benoît Thieulin qui explique la mécanique participative (video 3).

> Voir aussi le précédent billet sur Mediapart

L’équipe de Mediapart autour d’Edwy Plenel (cliquer pour agrandir)
L’equipe de Mediapart

Stratégie et choix éditorial par François Bonnet Directeur de la rédaction
 
  

Contenu et interactivité par François Bonnet Directeur de la rédaction 

Le Club: les fonctions de réseau social – par Benoit Thieulin (LaNetscouade.com) 

Affaire LesPipoles: le RSS n’est pas une bonne planque

Je réagis avec un peu de retard à ce fait d’actualité qui semble donner des migraines à pas mal de monde. Et pour de bonnes raisons. Résumons: le site Lespipoles.com qui, comme beaucoup fait commerce d’une bonne potée de flux RSS en provenance de sites éditoriaux couvrant l’actualité des stars, se retrouve grosjean devant la barre du tribunal . Son tort? Avoir diffusé le titre et le lien d’un article de Gala évoquant une relation entre le réalisateur du film La Môme et Sharon Stone. On se fiche au passage de savoir si l’info est véridique, pour la petite histoire, on peut très bien se retrouver condamné même si l’info est confirmée (bienvenue dans le monde du droit de la presse français).  Donc il y a atteinte à la vie privée et le grossiste en flux RSS se retrouve punaisé au mur et délesté d’un paquet d’euros.

Emois sur le web. Le RSS ne serait pas « bulletproof »!  Je relève quelques articles qui se font l’echo du malaise: Chauffeurdebuzz, PresseCitron, Tom, et Tubbydev qui pose brutalement les questions qui fâchent.

Deux questions majeures:
– « Comment peut-on se retrouver responsable du contenu des autres »: en les publiant banane!
– « Le coup du statut d’hébergeur ne marche plus! » : pas encore mais les avocats ont beaucoup appris et ont commencé à affuter les arguments permettant de limiter la portée de cette astuce juridique héritée de la LCEN en particulier en démontrant l’intentionnalité de l’éditeur/hébergeur et la manipulation des contenus. C’est la grande nouveauté de ce jugement, qui contrairement à ce que certains pensent, n’est pas issu de l’appréciation hasardeuse du juge.

La remise en question progressive du statut d’hébergeur faisait partie de mes prévisions pour 2008, pas par hasard, parce qu’elle fait l’objet de l’attention de pas mal de juristes. Parce qu’elle ouvre aussi la porte du Paradis des dommages et intérêts. Elle inaugure le compte à rebours de la normalisation d’une partie l’industrie du Web 2.0.

Une question mineure:
– « Comment puis-je surveiller les contenus de centaines de flux RSS? » : facile, personne n’oblige à le faire, la seule réponse c’est l’obligation de recueillir l’accord de l’éditeur du flux RSS pour l’exploiter commercialement et de contractualiser l’accord. Peu le savent mais c’est ce que les juristes de la plupart des groupes de presse imposent, ce que pratiquent depuis longtemps les portails à la Yahoo!, MSN. Peu importe la nature de ces accords ils visent tous à affirmer la responsabilité juridique de l’émetteur des flux c’est à dire l’éditeur d’origine de l’information. En clair il protège celui qui réexploite les contenus, l’éditeur assumant ses responsabilités. La routine.

Maintenant la question marrante et qui fâche:
– « Les agrégateurs de flux sont-ils menacés? ».

Ben oui.

Laurent Binard de Wikio m’expliquait qu’il recevait un grand nombre de mises en demeure. Simplement dans la plupart des cas elles sont le fait de juristes qui balayent le web au nom de leurs clients sans trop se soucier du statut de celui qui diffuse l’information (ce qui est d’ailleurs probablement le cas de l’affaire présente). Rarement ces démarches débouchent sur un jugement, la plupart du temps le retrait du contenu est suffisant ou un accord amiable.

C’est tout le malentendu de la situation: il n’y a jamais eu le moindre doute, du moins en France, sur la responsabilité de ceux qui diffusent ou rediffusent des informations simplement l’absence de vraie bataille juridique. C’était déjà la question posée à Google News il y a quelques années par les éditeurs. En vérité l’échange et la libre diffusion des flux RSS repose avant toute chose sur une tolérance relative, sur le « fair use », sur le pari que la relation profite in fine à l’éditeur plus qu’elle ne le lèse.

Toute la vraie question est de savoir si les agrégateurs seront capables de construire une relation équilibrée avec les éditeurs, c’est à dire au besoin en cas de déséquilibre de la relation, de proposer des dispositifs assurant une juste contrepartie aux éditeurs. C’est à dire de se comporter en véritable distributeur plutôt qu’en media parasite. Ces discussions ont été engagées tardivement avec Google, je les ai eu avec Wikio, Netvibes, d’autres. Elles sont souvent constructives. Elles témoignent simplement que le nouvel écosystème se met en place, celui où chacun prend ses marques et apprivoise les nouveaux mécanismes de distribution. La normalisation de l’économie numérique, tout simplement. Elle sera impitoyable pour ceux qui ne la respecteront pas.

A titre personnel, malgré une sévère tendance à l’ironie, je suis partisan de la tolérance en matière d’usage des flux RSS car je pense qu’ils sont un des mécanismes indispensables à la distribution des contenus à moindre coût et surtout à l’accélération du partage des savoirs et de l’information. Peu à peu les grandes plates-formes d’hébergement (blogs, videos) devront simplement sécuriser leurs activités en contractualisant avec les vrais producteurs de contenus. L’exemple de Dailymotion montre par exemple comment s’organise peu à peu la distribution des contenus labelisés des éditeurs.

On oublie simplement que les flux RSS avaient vocation à servir un usage privé. Leur utilisation à des fins de publication et d’exploitation commerciale sont nécessairement soumis à contractualisation. L’apparente liberté perçue par les blogueurs est apparente. En réalité chaque plate-forme de blog comporte dans ces CGU des clauses déterminant la responsabilité de ses utilisateurs, certains éditeurs prennent aussi la peine de faire figurer des CGU relatifs à l’usage de leurs flux. La majorité précise les restrictions d’usage.

Bref ce jugement peut paraître regrettable, il était prévisible.

Mediapart: l’adhésion comme carburant

Une étudiante de l’ESJ (où je suis intervenu fin Octobre à l’occasion d’une conférence sur le modèle économique des medias participatifs) s’étonnait de l’initiative de Daniel Schneidermann qui appelait en septembre dernier à l’adhésion payante pour soutenir le projet d’Arret sur Images. Elle s’étonnait car « pourquoi payer alors qu’il n’y a encore aucun contenu »? En fait l’initiative était à mon sens tout à fait justifiée mais répondait à une logique nouvelle. Une logique que résume très bien l’edito de Plenel sur le nouveau site du projet Mediapart.fr (projet déjà décrit il y a quelques jours).

En résumé le choix du payant ne relève pas de la valeur marchande de l’information mais d’une adhésion morale à un projet éditorial. Edwy Plenel tire assez justement les leçons de la crise de la presse (son projet pour la reprise du quotidien Liberation avait déjà permis de donner le ton): d’abord la critique largement convenue de la crise de confiance de la presse mais également ce paradoxe que le lecteur paye déjà pour accéder à l’information puisqu’il paye son fournisseur d’accès.

mediapart.gif

Un des arguments les plus pertinents pour la gratuité des medias d’information est en effet basé sur l’idée que même en se rendant au kiosque on n’achète pas la somme des articles de son quotidien mais le moyen d’y accéder, le support papier. Conséquence: il n’y a pas de raison de payer l’info en ligne puisque les coûts de distribution sont inclus dans le forfait du FAI. Imparable. Approche intéressante à laquelle je souscris depuis longtemps et qui a le mérite d’ouvrir la voie à une approche décomplexée de la monétisation de l’information, par la pub ou par la qualification de l’audience (les profils, carburant du marketing direct pour moi la raison d’être économique du Web 2.0).

Comment justifier le payant

Quel rapport avec l’approche du payant de Mediapart.fr? Et bien justement il y a un hic dans cette théorie. Elle marche parfaitement pour les medias de niche ou l’approche verticale des magazines mais elle laisse l’information généraliste aux prises avec un univers concurrentiel si vaste que leur survie ne peut passer que par l’audience de masse et l’attaque frontale face aux portails. Ajoutons les CPM trop faibles en France et la perspective d’une rentabilité par la seule publicité est illusoire. Pire, elle serait nécessairement compromettante. Pour cette raison je ne soutiens pas le modèle du tout gratuit pour l’info généraliste et je pense que l’initiative du New York Times est une erreur (je ne suis pas non plus pour le tout payant mais c’est une autre histoire).

Comment dans ce cas, justifier le payant dans un univers de gratuité? C’est là que l’initiative de Mediapart rejoint celle d’Arrêt sur Images, en fondant l’acte d’abonnement sur un acte d’adhésion et de participation. Comprenez en se déconnectant d’un acte d’achat. Lisez le billet de Benoït Thieulin, qui positionne Mediapart dans la filiation des medias participatifs comme Ohmynews. Il décrit une partie du processus de création de la valeur ajoutée dans un espace participatif, par exemple en exigeant une participation des lecteurs débarassée de l’anonymat et par l’obligation de s’enregistrer: « l’obligation de se loguer dessine, sans qu’on y prenne un garde, un espace délimité dans lequel on appelle à la contribution […], et qui, déployé dans la durée, confère à chaque contributeur une identité liée à ce projet« .

L’identité numérique, le nouvel enjeu

J’ai soutenu une idée semblable au sein des Echos.fr pour encourager l’idée la participation des lecteurs en leur nom propre (actuellement on laisse toujours des commentaires sous pseudo – j’ai eu le même débat avec Laurent Mauriac de Rue89.com) parce que précisément c’est l’adhésion identitaire au media qui est au coeur du processus de l’affinité. Le moteur du véritable « abonnement » et de la création de valeur. Je pense aussi que tout ça n’est pas nouveau, réside déjà dans l’acte traditionnel d’abonnement mais se retrouve souvent masqué par l’acte d’achat symbolisé par la visite au kiosque.

Pour ces raisons je pense que l’approche de l’équipe de Mediapart est la bonne. Il n’y a aucune garantie de succès. Je fais aussi le pari in fine d’un modèle mixte pub-abonnement mais il me paraît important, pour un projet aussi ambitieux de fixer dès le départ la barre très haut. Non par le prix mais par l’affirmation d’une ambition morale, aussi arrogante soit-elle. D’ailleurs, sur le fond, je ne pense pas qu’il puisse y avoir de grand media sans un projet politique.

A coeur vaillant, rien d’impossible…

Bon courage et zou ! Mes 90 euros … (Déjà 123 abonnés ce soir à 23h)

Organisation des rédactions: l’exemple du Monde.fr et du Figaro.fr

Le site Editorsweblog.org (en anglais mais dirigé par un français, Bertrand Pecquerie) fait partie de mes lectures régulières. J’en profite pour signaler une série d’articles à ne pas manquer sur le thème de l’organisation des rédactions et en particulier la question de l’intégration des rédactions en ligne. Alexis Delcambre, Rédacteur en chef du Monde.fr et Bruno Patino, Vice Président du groupe Le Monde, y expliquent longuement pourquoi la question de l’intégration est d’une importance relative et pourquoi on doit préserver la spécialisation des journalistes. Frederic Sitterlé, Directeur des nouveaux medias Le Figaro, et Laurent Guimier, Directeur des rédactions du Figaro.fr,  y exposent également leur stratégie autour de la synergie web-papier.

Lire :
– Figaro.fr: Non-integrated Newsroom doesn’t mean non-integration
– “Integration and non-integration are just transitory stages” – Interview with Bruno Patino, Vice President of Le Monde
– Non-integrated newsrooms: Le Monde: 5 reasons why it’s not integrated

L’intérêt majeur de ces entretiens est de montrer que la question de l’intégration des rédactions est finalement beaucoup moins une affaire de théorie que de choix pragmatiques et d’équilibre des compétences. On est loin des choix spectaculaires comme ceux de la Tribune de Genève mais j’aime assez cette approche prudente qui tient compte des aspects très pratiques et opérationnels de la production d’information. Elle nous éloigne aussi du mythe d’un journaliste protéiforme et qui maitriserait l’ensemble des compétences multimedia.

Un point trés important: si l’exigence de la maîtrise de la ligne éditoriale autour d’une marque tend à imposer une direction unique la réalité est aussi celle de deux supports (web et papier) s’adressant à des audiences aux profils et aux exigences souvent différents. La distinction par les usages impose peut être finalement de donner à chaque support les moyens de leur autonomie éditoriale. La coordination n’impose pas nécessairement la fusion.

De Pointblog vers le Mondedublog.com

Poinblog fut un site pionnier, fondé par Cyril Fievet et repris par Gilles Klein, il a accompagné l’émergence des blogs. Pointblog.com est au tapis, pour la seconde fois, cette fois c’est la bonne. Gilles s’étonne de bosser sans être payé, le problème n’est pas nouveau, cette fois il le fera à son compte. Bon vent Gilles. Et pouf, un backlink pour gonfler les voiles: l’aventure continue sur Lemondedublog.com.

MediaPart: Edwy Plenel expose son projet de site d’information

MAJ 3/12/07: le site Mediapart.fr est ouvert, retrouvez-y la profession de foi des fondateurs… et le formulaire d’adhésion. Mes commentaires ici.

Edwy Plenel, à l’occasion d’un chat sur le site du Nouvelobs.com, nous donne quelques détails sur son projet de site d’information, nom de code MediaPart.
Ce qu’il faut retenir:

 – Le site sera payant, sans publicité et la participation soumise à l’adhésion préalable

« Notre modèle économique, ce sera l´abonnement payant. Et il n´y aura pas de publicité. Donc le succès de ce journal en ligne dépendra de vous : de votre adhésion par l´abonnement. Ce ne sera pas cher : moins qu´une place de cinéma pour un mois et encore moins cher pour les moins de 25 ans et les chômeurs. Mais cela ne veut pas dire que le site sera « entièrement » payant : il y aura une partie en accès libre et gratuit. Mais pour aller plus loin, participer à la communauté, contribuer dans le club, profiter d´informations enrichies et appronfondies, etc., il faudra payer. C´est la clé de l´indépendance et de la qualité. »

Une équipe d’une quarantaine de personnes et l’appui d’une agence spécialisée en contenus interactifs

« Au total, nous serons une quarantaine, toutes compétences comprises. Côté journalistes, l´équipe est en cours de constitution autour de François Bonnet, qui fut longtemps au « Monde », après avoir été à « Libération » et qui vient de quitter « Marianne » pour rejoindre notre projet. »

– Un capital majoritairement controlé par les fondateurs

« En ayant une indépendance économique véritable : dans notre projet, les fondateurs ont épargné ou se sont endettés, de façon à être majoritaires dans le capital. Et puis l´équipe aura en plus des droits moraux reconnus, précisés dans une charte éditoriale. »

– Le contenu s’organise autour de trois piliers: info généraliste, revue de web, débat et contributions

« Notre site aura trois piliers, rapidement résumé : « le meilleur de l´info » (des articles inédits, originaux, exclusifs, très sélectifs), « le meilleur du web » (on va trier pour vous, sélectionner, éditer, hiérarchiser), et « le meilleur du débat » (là, ce sera votre affaire : le participatif, les contributions, la communauté, le club). »

– Un objectif de rentabilité sur trois ans
– Les référants:
Salon, Slate, Politico, Ohmynews, Rue89 (sauf pour le modèle économique)

« En ce sens, nos références seraient plutôt du côté de sites comme les Américains « salon », « slate », « politico », ou comme le Coréen « ohmynews ». « 

La principale question tourne bien entendu autour du modèle économique basé sur le payant. Un choix courageux, cohérent, avec le projet et le discours de Plenel depuis son départ du Monde. Toutefois pour soutenir une équipe de 40 personnes c’est pour le moins ambitieux sur ce terrain très concurrentiel de l’info généraliste. Je parie sans risque pour un modèle mixte avant le terme des trois ans.

Modération des sites de rencontres, un prestataire veut attaquer l’emission Capital de M6

Ceux qui ont regardé l’emission Capital de M6 dimanche dernier ont pu découvrir certaines méthodes utilisées pour stimuler les échanges en lignes sur les sites de rencontres. Certaines pratiques sont illégales, ça n’a pas échappé au site Datingwatch qui s’est fendu d’une petite enquête désignant le prestataire malgache Ingedata et un de ses clients. Réaction immédiate du fondateur de Ingedata dans les commentaires de l’article qui conteste violemment les faits et annonce qu’il portera l’affaire en justice :

« Capital sera attaqué en diffamation et tromperie, Mr fourcade de M6 le journaliste ayant : Filmer à notre insu ( le soir après les horaires normaux ) un service qu’il n’a pas compris et orienté les réponses de nos collaboratrices avec des moyens de pression fort douteux. Réorienter complètement le sujet de son émission qui devait être à la base l’outsourcing. « 

Au moins, à l’époque du Minitel on savait rigoler…

Leçon inaugurale du CFJ: « Je me sens rabaissé par l’idée de devenir mediateur de conversation »

Cet après midi se tenait la leçon inaugurale du CFJ, l’école de journalisme de la rue du Louvre, un exercice rituel mené cette année par Francis Pisani. Je ne commenterai pas l’excellent discours du journaliste, auteur du blog Transnets, toujours empreint de prudence et de modestie (MAJ 19/10/07: voir des extraits en video ici). C’est devenu son style, celui du voyageur curieux, toujours reconnaissable. L’exercice était complexe. Comment transmettre à la nouvelle génération d’étudiants journalistes cette idée simple et cruciale que leur métier ne s’exercerait jamais plus comme celui de leurs aînés. Une approche en douceur  pour une industrie menacée de ruine.

cfj-pisani-lecon-inaugurale-2007.jpg 

Dans la salle j’ai retrouvé quelques autres observateurs de l’industrie des medias, plusieurs exercant au CFJ, Philippe Couve, Joël Ronez, Luc Legay, Philippe Gammaire. Notre étonnement fut total face à quelques réactions de la cinquantaine d’étudiants. Francis Pisani s’est piqué d’un petit sondage à la volée:

« Qui utilise les flux RSS, Del-icio-us, Digg.com? »
Pour chacun de ces services pratiquement aucun doigt ne se lève! Derrière moi, une étudiante me demande de lui épeler D-I-G-G. Stupéfaction. A y réfléchir je ne suis pas du tout étonné du manque de notoriété d’un Del-icio-us, dont on oublie vite que l’interface ésotérique et la philosophie en ont fait depuis le début un instrument d’initié aux arcanes de la tagologie. Idem pour Digg.com pourtant plus accessible, mais qui reste aussi le joujou d’une communauté de geeks. Ne pas le connaître indique pourtant une sévère méconnaissance du débat sur les nouveaux medias et ses services emblématiques. La méconnaissance du RSS, en revanche, m’inquiète tout autant qu’elle me confirme la faible pénétration de son usage. Elle m’inquiète car elle est la clé permettant de comprendre le fonctionnement du nouvel ecosystème de l’édition en ligne.

« Qui utilise Skype, Facebook, Myspace? »
Quelques doigts se lèvent, on respire. Quelques doigts seulement sur cinquante. Les étudiants étrangers en particuliers utilisent Skype. Connaissent-ils sans les utiliser ou ne les connaissent-il pas? On ne le saura pas. La nuance laisse pourtant s’ouvrir un abîme au sein d’une génération. La crise de la presse est aussi une crise des usages. Comment envisager de reconstruire notre industrie si les nouveaux usages restent inconnus? Frisson.

Viennent enfin les questions de la salle qui donnent le ton. Point positif on aborde franchement les points qui fâchent. Choc frontal:

« La presse écrite (papier) va-t-elle disparaître? »
Francis botte en touche, refusant prudemment de croire à la substitution des médias les uns aux autres. Certes…  Je n’ai pas la bonhomie d’un Pisani mais je ne crois pas qu’il soit judicieux de laisser planer l’indécision face à ceux qui rejoindront peut être nos rédactions. Il y a urgence. Francis donne tout de même la bonne piste: la presse écrite ne doit plus s’identifier au papier ou a un quelconque support, notre métier c’est l’information.

« Je me sens rabaissé par l’idée [de devenir] un médiateur de conversation. Ne sacrifie-t-on pas le regard extérieur au profit de l’intelligence collective? »
Francis avait en effet avancé l’idée d’un nouveau rôle pour le journaliste celui de « médiateur de conversation ». Pour les habitués des débats sur les blogs et du Web 2.0, l’idée n’est pas nouvelle. Ici on touche le nerf. Le nerf, c’est une certaine idée du journaliste dont le pouvoir, car c’est bien de cela dont il est question (ne tournons pas autour du pot), vient de la légitimité de son statut d’intermédiaire privilégié. Le fantôme de Bourdieu plane un moment…

« Rabaissé »! Le mot est violent mais tout est dit. Je rends hommage à la franchise de cet étudiant qui dit en un mot ce que murmure toute une profession effarée devant les saltimbanques du web 2.0. La vérité c’est qu’on paye deux ans de malentendus autour du discours sur les medias participatifs et du citoyen journaliste. Deux ans pendant lesquelles beaucoup d’élucubrations ont masqué l’essentiel du message du Web 2.0. La nécessité de concevoir aussi, et non exclusivement, l’information comme un flux de discussions, d’oser apprendre de ses lecteurs, de les associer à la construction du media sans forcément céder sa plume, en la cédant parfois. Dur, dur, d’exposer les mille et une nuances et l’absence d’une recette unique qui s’appliquerait à chaque media.

« Rabaissé »! Cher étudiant, comment te dire, comment t’expliquer, avec ceux qui ont oeuvré,  depuis dix ans, à la mise en pratique de l’interactivité sur les sites médias. Patiemment, prudemment, pour ne pas heurter le mépris ouvertement affiché par l’élite de notre profession pour l’idée même d’écouter ses lecteurs. Sa terreur animale d’imaginer la critique de la plèbe s’exposer à la vue de tous, de ses pairs. Comment t’expliquer qu’il n’a jamais été question de rabaisser, ni d’oublier l’ambition humaniste de notre profession. Comment t’expliquer qu’il n’a jamais été question, dans ce combat,  de vérité mais de classe sociale, de superstition, d’hypocrisie, bref, de pouvoir.

Comment te dire que nous avons vu ce qui a tué notre presse…

> Lire aussi ce matin dans Les Echos:
La presse toujours en quête d’un nouveau modèle pour le futur
> Sur Samsa News
Le journaliste multimédia est-il condamné à avoir le cul collé sur sa chaise?

> Un étudiant commente aussi sur son blog: