Discerner les tendances lourdes des prochaines années sur le marché de l’information en ligne est un exercice particulièrement difficile. En particulier quand on est submergé par un buzz généralisé qui porte au pinacle l’introuvable journalisme citoyen, le marketing viral de la video en ligne et l’absolue certitude de la gratuité de l’information. Des phénomènes dont on ne saurait nier la réalité et la popularité mais dont on prend soin d’éclipser le statut éminément précaire. Entre 1999 et 2001 le même phénomène reposait sur quelques variables économiques et industrielles simples: quasi-gratuité de l’hébergement et de la bande passante pour l’utilisateur, capitaux flottants massivement investis. En 2006 les variables sont semblables avec un petit bonus: la généralisation du haut débit qui tend à générer une croissance mécanique de la consommation des contenus et la création de contenus par les utilisateurs dont on oublie qu’elle dépend aussi des variables précédentes. La question à un milliard de dollars est simple : les revenus générés par la publicité pourront-ils rémunérer les investissements, les coûts du stockage et de la diffusion?
La réponse est … non
La réponse est non du moins tant que l’immense majorité de ces revenus est le produit marginal des réseaux publicitaires basés sur la performance (CPC, CPA et autres friandises), mots clés sponsorisés en première ligne. La raison en est simple: ces revenus sont insuffisants pour financer la production de contenus et le grand cirque de l’information citoyenne et blogosphérique ne parvient pas à fournir les conditions d’une production industrielle de flux d’information alliant à la fois fiabilité, régularité et exhaustivité (par honneteté on admettra qu’il peut remplir ca et là l’un ou l’autre des critères). Conditions nécessaires à la fidelisation sur le long terme d’une audience mature et homogène, le prérequis pour tirer le meilleur parti du marché publicitaire. Le vrai. Celui des marques.
Qu’on ne s’y trompe pas, la réorganisation des forces en présence vise avant tout à capter ce marché publicitaire, lequel est pour le moment justement toujours hors de portée de Google. La tentative d’appropriation du Web 2.0 par Yahoo pour en faire l’instrument de ciblage comportemental des internautes est précisément une des pièces de la stratégie des portails pour séduire les annonceurs et reconstruire le modèle traditionnel de rémunération des médias. La direction de Yahoo, majoritairement composée de professionnels de l’industrie des medias n’est certainement pas du genre à se satisfaire d’un pourcentage au clic.
Vers la location des contenus
Ne pouvant produire le contenu sans mettre à mal leur modèle, Yahoo et les autres grands portails n’ont que deux options: soutenir la production de contenus par les utilisateurs et louer le contenu aux producteurs d’information à la manière des chaînes de télévision. La première option étant très rentable mais hasardeuse le risque ne peut être compensé que par l’investissement mesuré mais fiable de la seconde option. Je dis « mesuré » car il n’est plus question de tout accepter et à n’importe quel prix car désormais la question n’est plus de faire croître l’audience des mega-portails mais de fidéliser l’audience et de la monétiser sur des niches très précises, identifiées par le marketing.
C’est bien cette tendance qui est décrite dans un article particulièrement intéressant du Mercury News intitulé « New media making deals with old’ news providers » (qui m’a largement inspiré ce billet). De quoi s’agit-il? De l’émergence d’accords privilégiés entre les portails, Yahoo en tête, et les grands médias d’information US. A lire, les commentaires très pertinents de Neil Budde, patron de Yahoo News US, qui confirme la stratégie consistant à limiter le nombre d’accords financiers avec les producteurs de contenus, au prix de montages complexes et de partage de revenus, afin de sécuriser les zones éditoriales à forte valeur ajoutée. En clair c’est le grand nettoyage au profit d’accords industriels entre portails distributeurs et groupes de presse. Exit les seconds couteaux.
Un nouveau rapport de force
Conséquence: les groupes de presse ayant su conserver une position dominante et de larges capacités de production se retrouvent en position de force. Corollaire: les réseaux d’infomédiaires et autres aggrégateurs ne pouvant justifier pleinement du copyright des oeuvres sont exclus du jeu et devront se rabattre sur la pillule empoisonnée du CPC. Comme l’explique Tom Curley, Chief Executive de l’agence Associated Press (AP), les contenus se payent désormais au prix fort. Un constat plutôt étonnant alors que l’on semble, côté média, au plus fort de la tempête et de la critique existentielle. On comprend dès lors que le UGC (User generated Content) est devenu un enjeu crucial pour tout le monde car le seul moyen de contrer les coûts d’acquisition du contenu pour les uns, le coût de production pour les autres.
C’est aussi je crois une tendance assez logique, où chacun, par intérêt économique, retrouve la voie de la spécialisation, distributeur-diffuseur de masse pour les portails, producteur-diffuseur spécialisé pour les autres. Encore faut-il que les groupes de presse puissent disposer d’une organisation capable de servir l’attente des lecteurs et de s’arracher à la culture mono-support au profit d’un contenu aux formats désormais multiples.
J’y vois aussi une autre question intéressante ainsi que l’aube d’une nouvelle bataille: si le contenu des utilisateurs est un enjeu vital pour chacune des parties en présence, laquelle le controlera finalement? A quel prix?
Très bon article, même si pas évident à digérer 😉
Intéressant en tous cas de se demander à quel point l’information « balisée » des medias reconnus est nécessaire par rapport à ce que vous appelez le user generated content.
Quant à celui-ci, si aujourd’hui on semble se satisfaire d’une large exposition (même temporaire) comme celle que peut apporter Digg, va t’on voir arriver une sorte de jurisprudence de la rémunération (partage des revenus notamment). Cela n’est peut-être pas si ridicule par rapport aux Google adsense que chacun peut mettre sur son site.
Troisième point auquel me fait penser votre article: tous les contenus générés par les utilisateurs se valent-ils ? On voit déjà certains internautes se démarquer et acquérir une crédibilité similaire dans son fonctionnement (et pas encore/toujours dans son ampleur) à celle des medias traditionnels. Un très bon article d’un anonyme pourra-t’il autant être mis en valeur qu’un article correct d’un blogueur reconnu ?
On tourne en rond, non ?
Back to basics alors? Je m’empresse de le croire et j’envoie ce lien à mes anciens collègues de l’AFP…
Beau billet.
Back to basic, oui en partie. Chacun sait que par ailleurs une page se tourne définitivement pour l’industrie des médias. Plutôt que back to basic je dirais, business as usual …
Julien, mon propos consiste à aborder la question sous un angle industriel. Je n’ai aucun doute que l’aventure individuelle d’un blogueur talentueux puisse permettre l’éclosion d’un projet ou d’une success story. D’un point de vue industriel l’histoire se raconte autrement et ce n’est pas contradictoire. Le partage des revenus ou la perf ne suffisent pas à produire le contenu du moins pas celui que l’on attend d’un media d’information.
Sur la crédibilité, c’est une autre question, je n’ai aucun doute sur le fait qu’elle se gagne avec le temps et que chacun à sa chance, c’est probablement le meilleur du phénomène du blog. Pour cette raison je crois volontiers aux trajectoires individuelles mais ca ne fait pas une industrie …
Bonjour,
en lisant cet article très interessant je me suis amusé à rédiger ma vision sur l’avenir de l’économie du web (2007-2008) en fonction de mon expérience personnelle. http://blog.encausse.net/?p=93#more-93
Un peu de bon sens finalement et qui rejoint l’intérêt à redonner un sens spécialisé, donc une dimension communautaire plus pertinente aux espaces de production-diffusion. Ça aussi, ça peut aider à mieux vendre l’espace de leur côté, ou des services.
Dans ce papier, vous faites assez peu référence à la rétribution que l’on sent inévitable de la production de contenu auprès des hyper-contributeurs (cf Calcanis vs Digg), à moins que ce soit inclu dans la réflexion sur la valeur retrouvée du contenu en lui-même (?)
Rassurez-vous Alexis, la polémique ne m’a pas échappé. Par manque de temps je n’ai pas pu y consacrer un billet mais j’ai bien failli titrer « Calacanis dévoile le pot aux roses ».
Calacanis ne brille en général pas par la finesse de ses propos mais il faut reconnaitre que sa brutalité a le mérite de remuer le consensus gnangnan autour « des réseaux sociaux » et les « bidules citoyens ». Comme je l’ai déja noté à propos du journalisme citoyen on constate assez vite que le nombre d’utilisateurs réellement engagé dans la rédaction et l’animation est assez faible. C’est l’effet long tail inversé : quelques personnes motivées générent l’essentiel du trafic.
Supprimez les contributeurs irréguliers et sans talents, conservez le top 20 qui assure l’essentiel de l’activité, payez les pour sécuriser le business…
Bref comme d’habitude on redécouvre le mécanisme de création d’une entreprise tout à fait traditionnelle et l’aspect « citoyen » ira rejoindre la mythologie de cette entreprise et deviendra une composante essentielle de sa communication future … 😉
Je n’ai pas abordé cette question non par manque d’interet mais parce que justement d’un point de vue industriel nous donnons beaucoup trop d’importance à ce tricotage, certes passionnant, mais dont on ne sait si au fond il a un impact économique ou s’il constitue une vraie originalité.
Sans doute, le contenu généré par les lecteurs entre-t-il dans le champ de la fidélisation. Les contributeurs sont aussi les personnes les plus engagées par rapport à la marque du titre sur lequel ils décident d’écrire, commenter, critiquer, etc. La difficulté reste comme dans le dit ‘journalisme citoyen’ de trier entre les contributions de bonne qualité qui apportent un plus au journal et les autres qui embrouillent un peu plus le lecteur. La quantité des contributions – facile à repérer et à récompenser – n’est pas vraiment signe de qualité…
Bonjour Emmanuel,
Une question d’actualité en rapport avec cet article passionnant et clairvoyant : que pensez-vous de l’UGC produit sur MySpace, autant en termes qualitatifs que d’impact sur une stratégie future de « location du contenu » ?
Jean-Marie
L’UGC de Myspace est globalement d’une affligeante médiocrité pour cette raison c’est une erreur de voir en Myspace (ou les Skyblogs) un « concurrent » à la presse. Je pense, et je ne suis pas le seul, qu’il y a un malentendu autour de la perception du phénomène Myspace: il s’agit avant tout d’une plate-forme de communication directe beaucoup plus qu’une plate-forme de publication. En clair la grande majorité des utilisateurs se servent de Myspace ou des Skyblogs comme d’un messenger ou d’un téléphone mobile. il s’agit avant tout d’un vecteur de communication trsè simple pour de petites communautés d’amis et un moyen d’élargir cette communauté. La démarche est identitaire, communautaire. Pour cette raison comme mon collègue de Publishing 2.0 je pense que le modèle de revenus pubs CPM (le modèle média) ne pourra jamais s’adapter à ce genre d’environnement ou uniquement de faiçon très marginale. Reste les opérations de marketing ciblées, le cpc (voir le deal Google) et le sponsoring divers.
En ce qui concerne le contenu, oubliez, il n’y en a pas vraiment de construit sous forme écrite et qui mériterait un copyright. A une réserve près et de taille: Myspace est aussi une formidable plate-forme de distribution pour la musique et la video. Bref plate-forme d’échange et de distribution et non de publication écrite.
Pingback: Une étude sur la stratégie des médias sur internet « ecosphere
Pingback: Pub: Google expérimente le ciblage comportemental « ecosphere
Pingback: Bulle 2.0: elle n’est pas ronde et pourtant elle tourne « ecosphere