Yahoo: "be evil"?

février 27, 2007

Curieux, curieux cette demande de brevet déposée par Yahoo et qui désigne assez clairement l’ensemble des briques technologiques permettant de réaliser des pages personnalisables à base d’informations mises à jour en temps réel. Même si Yahoo est un des précurseurs du web 2.0 et compte parmi les acteurs les plus avancés pour la monétisation des contenus communautaires, la démarche est pour le moins tardive et peut, pour tout dire apparaître comme hostile face aux Netvibes, Webwag, Page Flakes, Live.com qui pullulent…
> Lire le détail du brevet ici
> Les commentaires sur CrunchGear

Pour mieux comprendre les subtilités qui ont mené à ressusciter l’idée d’un label lire l’excellente interview de Maxime Baffert, inspecteur des Finances et coauteur du rapport, sur ZDNet. Encore une fois l’initiative n’a rien à voir avec l’idée d’une légion d’honneur de la presse traditionnelle telle qu’on a pu l’entendre il y a quelques années (ce qui m’avait fait assez fait soupirer à l’époque). C’est méconnaître les questions qui agitent les acteurs de l’internet. La difficulté de se repérer dans le maquis des sites medias est en cause. Même Google reconnaît la necessité de mettre de l’ordre dans l’index de Google News. Même son de cloche chez Wikio, par exemple, qui pondère dejà positivement certaines sources par rapport à d’autres.

Le label est une idée fragile certes, il y a peut être d’autres voies, mais qu’on ne s’y trompe pas les temps sont à la recomposition du paysage et au grand nettoyage du fatras communautaire en premier lieu pour des raisons économiques et de marché publicitaire. des raisons très puissantes qu’il ne faut pas sous estimer. En second lieu pour des raisons légales et même fiscales. Au passage le rapport s’intéresse au statut des contributeurs rémunérés pour en faire des correspondants de presse. Ce sont des pistes intéressantes. Il est trop tôt pour dire si celà aboutira mais pour une fois il semble qu’on tente de prendre en compte l’évolution de l’industrie des medias.

Enfin c’est aussi une chance de renforcer la crédibilité des medias indépendants pure players et ça c’est nouveau…

Maj 28/02/070: Maxime Baffert réagit sur Netpolitique (voir les commentaires) 

Après l’analyse d’Antoine de Tarlé, c’est au tour de Marc Tessier de rendre son rapport, au Ministre de la Culture et de la Communication cette fois. "La presse au défi du numérique", c’est son titre, va encore plus loin me semble-t-il, à la fois dans l’analyse et dans l’ébauche de réponse. Passons sur les aides à la presse, c’est le passage obligé pour ce type de document, au fond chacun sent bien que le débat de fond n’est pas affaire de subventions si ce n’est pour accompagner les inévitables investissements de groupes à la trésorerie exsangue. 

Je note des propositions originales sur la question des droits d’auteur avec une législation favorable à la publication multi support sur une durée limitée. Sans remise en cause sur le fond du droit d’auteur. J’y vois l’ébauche d’une sorte de cycle du produit éditorial, le groupe de presse bénéficiant d’un avantage de court terme pour développer la publication multisupport sans l’épéee de Damoclès de la remise en cause des accords, tout en acceptant à moyen terme le partage des revenus des archives. En quelque sorte on crée un environnement sécurisé pour développer l’activité sur le court terme et on partage les revenus marginaux de la longue traîne. Franchement j’ai du mal à avoir un avis tranché sur cette proposition mais cela fait bien longtemps que l’on n’avait pas entendu de solutions alternatives dans ce débat bloqué depuis des années. Cela seul mérite qu’on y prête attention.

La baisse de la TVA pour les publications numériques est un argument plus technique et financier et une vieille revendication qui resurgit de façon inattendue. Je n’y reviendrai pas. En revanche le retour du label de qualité pour la presse en ligne, presse d’information s’entend, m’interpelle plus. C’est un vieux serpent de mer qui ressurgit dans un contexte nouveau. Il ne m’a jamais enthousiasmé mais à l’heure ou tout le monde se baptise media d’information, s’auto labelise "media citoyen" ou participatif, la confusion est totale au pays de l’information. A l’heure ou l’information circule toujours plus vite (c’est la vraie conséquence de la démocratisation des moyens de publication) les sources d’information exclusives et originales n’ont jamais été aussi rares et menacées. On s’extasie en long et en large sur les commentaires toujours plus riches autour d’une information toujours plus pauvre. A défaut de garantir la qualité de l’information il faudra bien qualifier sa nature et les processus de production de cette information. C’est tout le sens de ce label et je partage largement la conclusion du rapport sur ce point.

Contrairement aux premiers débats autour d’un label de la presse en ligne il y a quelques années il ne s’agit plus de d’estampiller la presse traditionnelle pour lui assurer la rente de son passé glorieux. Le rapport souligne assez positivement l’émergence de nouveaux acteurs, pure players, medias participatifs ou non, qui  se structurent autour d’un projet professionnel, de critères de qualité et qui assument leur vocation de producteurs d’information.

C’est un constat qui me ravit car il désigne la vraie fracture, celle qui sépare non les détenteurs de cartes de presse des autres, non les marques traditionnelles des pure players mais celle qui oppose ceux qui produisent l’information de ceux qui ne font que l’héberger ou la recopier.  Quant au statut "professionnel" ce n’est pas une affaire de corporatisme mais bel et bien de nature du projet. En somme pour moi le vrai combat, qui tranche enfin sur l’insupportable diversion que constitue le débat blogs contre presse pro alors même que la presse "amateur" donne naissance à des projets professionnels.

Reste que si le débat est pertinent, avons-nous besoin d’un label?

Pourquoi pas. Pourquoi pas si, comme le préconise le rapport, il est mis en place par les acteurs concernés eux-mêmes s’accordant sur les critères de qualité garantissant les processus de fabrication de l’information. Contrairement à ce que l’on croit habituellement beaucoup d’acteurs de l’internet, pure players, se définissant d’abord par opposition aux medias traditionnels, en sont venus à redécouvrir un certain nombre d’exigences empruntés aux corpus de base du journaliste professionnel. A l’opposé les medias traditionnels redécouvrent les fondamentaux de leur métier, de leur histoire. Je l’ai déjà écrit, c’est tout le sens du débat autour de la prochaine génération des medias collaboratifs professionnels.

C’est aussi, je le crois, le vrai point de convergence avec les défenseurs du droits d’auteur: réinstaurer la chaîne de valeur du contenu pour défendre in fine sa spécificité et sa politique de prix. Faut-il le rappeler comme le souligne aussi le rapport la faiblesse des medias en ligne français vient aussi de la difficulté d’imposer un prix plus élevé à ses espaces publicitaires. Comment défendre sa vraie valeur si le CPM moyen reste aligné sur celui des agrégateurs de contenus et des marchands d’articulets…

A lire:
> Le numérique, planche de salut des groupes de presse (Lemonde.fr)
> Bientôt un label de qualité pour les sites web d’information? (ZDNet.fr)
> Un rapport plaide pour la concentration dans la presse (Nouvelobs.com)
> Le rapport Tessier plaide pour des concentrations dans la presse (Lesechos.fr)
> Rapport de Marc Tessier : La presse au défi du numérique (L’Observatoire des médias)

J’aime bien le mot de Jean Guitton : "être dans le vent c’est avoir un destin de feuille morte". C’est un peu ce que m’inspire le débat "écrire pour Google" qui sort peu à peu du cercle des pros du web pour interroger les pratiques des journalistes et des medias en général. Maintenant que publier sur le web est une affaire sérieuse et que le coût d’acquisition du lecteur monte en flêche, l’optimisation des sites web en vue de leur référencement dans les moteurs de recherche est devenue une question de micro-chirurgie. Choisir ses mots pour coller aux préférences de Google fait partie de la stratégie et certains quotidiens US n’hésitent plus à former leurs journalistes et secrétaires de rédaction pour s’assurer des bonnes pratiques.

Jeff Mignon a réouvert le débat, poursuivi par Philippe Couve qui voit déjà les limites de l’exercice. Il a d’ailleurs bien raison. Je ne reprendrai pas l’ensemble du débat bien résumé par Jeff mais j’y apporte quelques nuances. Clairement le rédacteur doit garder à l’esprit qu’un titre informatif doit désormais obligatoirement comporter les mots clés qui désignent l’essentiel du contenu de l’article. Rien de nouveau, je l’ai déjà dit, par rapport à ce qui est enseigné dans les écoles de journalistes disons simplement que les titres "à la libé" plein de bons mots risquent en effet d’expédier votre article dans le purgatoire du web, c’est à dire dans les bas fond de l’index de Google. Disons qu’une bonne part se joue en général dans l’articulation du titre et du chapo puis par la densité et la cohérence du texte.

Ca c’est la préhistoire des conseils en matière de SEO (Search Engine Optimization). Reste que désormais certains ont fait du moyen, rendre visible son article, une fin en soi. Certains petits champion du blog s’empressent ainsi de pondre des billets ineptes mais composés des bons mots clés dès qu’une polémique surgit sur le Web afin de capter l’audience. Appliqué à l’industrie des medias celà signifie qu’on peut être tenté de choisir ses sujets et ses mots à partir de l’analyse des mots clés les plus populaires. Et ça marche…

Malheureusement…

Toutefois c’est un calcul de court terme qui peut rapidement détourner une stratégie éditorial de ce qui devrait être sa vraie préoccupation: non seulement capter l’attention du lecteur mais l’informer et assumer sur la durée un angle et un positionnement éditorial. Bref non nous n’écrivons pas pour Google mais pour un lecteur. Encore faut-il apprendre à s’habiller correctement… C’est toute la nuance entre attirer une audience passagère et la fidéliser. C’est la grande question des prochaines années pour les medias d’information, pour leur survie. L’audience de Google est en effet sous certains aspects totalement fictive et les instruments de mesure, instituts de sondage, créent cette fiction en leur attribuant une cohérence qu’elle n’a pas. C’est le vrai sens de ma critique de l’étude Ipsos sur les blogs, une audience dispersée qui navigue au hasard du web n’a jamais fait un media.

Pour revenir à des arguments plus prosaïques, coller aux mots clés les plus populaires de Google c’est prendre le risque de s’épuiser et de devenir "obsolète" rapidement à mesure que passe l’actualité. Rester informatif et couvrir sur la durée l’essentiel des thématiques propre à son secteur c’est au contraire être prêt quand l’actualité cristalise un événement.

Je prends un exemple récent que j’ai observé sur le site lesechos.fr. Il y a quelques semaines l’actualité politique s’est focalisée autour de la société civile immobilière ("SCI") de Ségolène et de l’ISF. Evidemment un quotidien d’actualité financière est naturellement à traiter ces thèmes en profondeur ce qui n’est pas le cas des medias généralistes. Des sujets par ailleurs habituellement austères, destinés à un public spécialisé ou concerné. Le résultat se passe de commentaire (voir ici et ) , la présence d’un contenu riche et naturellement référencé a permis de générer un large flux d’audience alors que la grande majorité des autres médias ont du, je l’ai vérifié le jour même, acheter massivement les mots clés "SCI" et "ISF" pour se positionner sur les pages de résultats. Bonne affaire au final pour Google.

Moralité: vive le référencement naturel et les sujets traités en profondeur, sur la durée. D’ailleurs les pros du SEO vous le diront, Google aime les contenus qui durent…
Les lecteurs aussi.

> Lire aussi le billet de Jean-Marie Le Ray qui analyse très finement la technique d’optimisation de lécriture. 

Ca m’avait échappé cette semaine mais Florence Devouard, présidente de la fondation Wikipedia, a lâché une petite bombe en annoncant que Wikipedia ne disposait plus de de 3 à 4 mois de trésorerie pour couvrir ses frais de serveurs. Selon les notes de Bruno Giussani (salut Bruno, collègue journaliste Suisse qui chroniquait déjà l’internet il y a plus de 10 ans), présent à la conférence LIFT07 de Genève où les propos ont été tenus, la fondation a besoin de 5 M$ pour couvrir les frais de 2007. 1M$ ont été levés jusqu’à présent.

Du coup les commentaires vont bon train sur le sujet, Jason Calacanis relève que certains proposent des mesures hypocrites pour ouvrir l’encyclopédie à la publicité. Voir aussi la note de Nicolas Carr’s toujours très réactif pour dénoncer les limites du modèle collaboratif. Je n’ai pas trop de soucis pour l’avenir de Wikipedia mais clairement l’indépendance est désormais en question.

J’aimerais bien saluer sans arrère pensée le succès de MySpace tel qu’on peut le lire ça et là suite à la publication des résultats du groupe News Corp’s mais franchement on nage dans le mystère. Il n’y a tout simplement pas de données officielles concernant les revenus de MySpace mis à part la déclaration de Murdoch affirmant que "MySpace fait 25 M $ par mois". Ce qui veut surtout dire que le site a pu atteindre ce chiffre, nullement qu’il s’agit d’une moyenne mensuelle.

Depuis quelques jours circule aussi (bizarrement très discrètement) l’information que le contrat avec Google n’est toujours pas signé et serait même en phase de renégociation. En fait actuellement il se résume à une lettre d’intention même si Peter Chemin (le COO du groupe) affirme que la croissance de trafic est supérieure au minimum exigé par Google.

Résumons ce qui est affirmé par News Corp’s:
– Décembre est le premier mois rentable pour FIM (la division "interactive" du groupe qui intègre entre autre MySpace)
– La croissance du CA de MySpace serait de 70% par an
– La croissance du trafic de MySpace serait de 25% par trimestre
– Le CA de la division FIM devrait atteindre 500 M $ en 2007
– L’apport de Google devrait atteindre son maximum en 2008 avec plusieurs centaines de millions de $
– La rentabilité hors investissement (nuance importante) est annoncée pour 2007
– On vise une marge de profit de près de 20% en 2008
– Le CA de MySpace a atteint 25 M$ (selon Murdoch)
– Le minimum garanti de volume de trafic du pré-accord avec Google est atteint en 2006

 Ce qu’on peut en déduire:
– L’activité internet n’est pas profitable sur l’année
– Le calcul économique est basé au minimum sur une croissance maintenue de 25% de trafic par trimestre sur 2 ans au minimum.
– L’année 2008 est l’année décisive avec l’essentiel des reversements de Google (on comprend la nervosité autour des négociations)
– le CA de MySpace du dernier trimestre se situe entre 60 et 75 M$ (hypothèse haute sur la base des 25M$ mensuels de Murdoch)
– La division FIM n’a atteint la rentabilité qu’en décembre, rien ne dit que MySpace le soit aussi.

Je ne crois pas qu’il y ait anguille sous roche mais franchement tout ceci ressemble terriblement à une partie de poker ou le bluff s’installe tranquilement faute de données vérifiables. Le problème c’est que MySpace est toujours noyé dans les comptes du groupe dans une ligne assez fourre tout comme je l’avais déja signalé. De quoi donner une large place aux effets d’annonce comme le possible deal avec eBay.

 A lire sur ce sujet:
> Indispensable sur SeekingAlpha : la transcription complète de la conférence deNews Corp’s sur les résultats financiers  
> L’analyse de PaidContent.org
> Le calcul très intéressant de Ashkan Karbasfrooshan  sur SeekingAlpha
> Du même auteur sur la question de la renégociation du deal Google-MySpace

Suivre

Recevez les nouvelles publications par mail.