Déjà 4M$ de pertes financières en 2008 pour Digg

Beaucoup citent Digg.com comme une des meilleures réussites du web dit 2.0 et je constate en discutant ça et là  que de nombreux commentateurs entretiennent l’illusion que Digg est une activité rentable. C’est faux. J’en suis le premier surpris. C’est ce que révèle BusinessWeek qui s’est plongé dans les comptes de la société. Digg.com accuse 4 M$ de pertes sur les trois premiers trimestres 2008 pour 6.4M$ de chiffre d’affaires. Un résultat en nette dégradation puisque le service accusait déjà 2,8M$ de pertes en 2007 (pour 4,8 M$ de CA).

A lire aussi un article intéressant de Techcrunch US qui anticipe en estimant les pertes totales de Digg pour 2008 à 5,3M$ pour 8,5 M$ de CA.

Publicité

Pub: comment la technique du reciblage détourne la valeur des sites éditoriaux

Lisez  très attentivement cet article d’Australian IT qui révèle un petit scandale sur certaines pratiques d’agences de pub en Australie.

En résumé: certaines agences ont compris comment exploiter le différentiel de CPM entre des sites éditoriaux à forte valeur ajoutée et des sites ou services à faibles CPM. Pour cela elles diffusent des campagnes sur les premiers, destinées à recueillir les données de navigation et de comportement des internautes. Ces informations sont stockées dans des cookies exploités par les adservers (les serveurs chargés de diffuser les campagnes publicitaires). Si l’internaute est identifié plus tard, par la présence sur son PC de ce cookie,  sur un site ou des réseaux à faibles CPM on lui sert alors une publicité ciblée et evidemment moins couteuse à diffuser que sur le premier site.

En clair on utilise les informations recueillies sur le site à forte valeur ajoutée pour qualifier l’audience sur un autre site à faible valeur ajoutée. C’est le but  du ciblage comportemental destiné clairement à valoriser les immenses inventaires des grands portails par exemple sur les pages des boites aux lettres électroniques. Sauf qu’ici on n’achète qu’un minimum d’espace sur le site de l’éditeur, voire même des espaces insignifiants, peu performants et à faible coût, le but n’étant pas en réalité de diffuser la campagne mais de générer un maximum de cookies qualifiés. Le gros de la campagne est dépensé ailleurs à moindre coûts mais en la justifiant par une audience qualifiée sur des sites!

Tout ceci à l’insu de l’éditeur du premier site et surtout à l’insu de l’utilisateur lui même. Pour faire court imaginez qu’un lecteur de LesEchos.fr se voit proposer de la publicité pour des services financiers quand il navigue sur un site de voyage. Pas scandaleux en soi, sauf que tout  le bénéfice de la stratégie consistant à proposer des contenus exigeants à une audience très ciblée est détourné à l’insu de l’éditeur pour enrichir un autre service. Autrement dit sur l’éditeur pèse l’ensemble des côuts permettant de qualifier une audience tandis que le bénéfice est collecté ailleurs. Les réseaux à faible CPM parasitent les sites à forts CPM… CQFD.

Ce que vient de rendre public cet article, et qu’on appelle le « retargeting » (reciblage) n’est ni plus ni moins qu’un vol. Au centre de la polémique: le rôle des ad-servers (les serveurs qui diffusent techniquement les campagnes) qui sont au coeur du système sur chaque page des éditeurs,  captent l’information et peuvent être manipulés en acceptant l’ajout de système de tracking de sociétés tierces.

Une question simple: qui contrôle les ad servers ?

La question compliquée: ce détournement de la valeur de l’audience est un vol car il s’effectue à l’insu des éditeurs et des utilisateurs. Mais comment le qualifier si on obtenait l’autorisation de l’une ou l’autre des parties?

Comment?

En rendant le processus cool
En rendant le processus utile

En le baptisant Open social ou Open Id, par exemple…

(Qu’on se rassure pour ça aussi il y a une réponse, une réponse négociée basée sur la reconnaissance du déséquilibre de l’échange de valeur. Encore faut-il la mesurer)

Google sous le feu des Etats généraux

Cette fois il semble que les passions se lâchent: « Il y a encore six mois nous pensions y arriver, mais aujourd’hui, avec la crise actuelle, nous vous considérons comme notre pire ennemi », Pierre Conte, patron de Publiprint (Figaro). Selon la retranscription des échanges de la dernière session du pôle 3 des Etats Généraux il est clair que Google est désormais dans la ligne de mire des éditeurs français. Les propos sont violents et adressés à Josh Cohen en charge de Google News qui était l’invité du jour. J’assisterai demain matin à la prochaine rencontre entre Google et les éditeurs, cette fois dans le cadre du Geste, j’espère que le sang froid sera au rendez-vous.

Cette fois il ne s’agit plus de reprocher à Google la reprise des contenus sur Google news (assumée par tout le monde ou presque depuis le dernier étripage en 2003 que j’ai raconté ici) mais son rôle dans l’effondrement des tarifs publicitaires. Un débat complexe mais qui prouve que tout le monde a désormais bien identifié la nature du problème qui mine la presse en ligne: l’impossibilité de monétiser correctement l’information. Je ne suis pas sûr que Google soit le seul responsable sur un marché français où les CPM sont depuis longtemps très inférieurs aux voisins (lire aussi ici). Mais avec un cpm largement  inférieur à 10 euros sur Youtube et et un Google qui se met à proposer de la publicité vendue à la performance (cpc) dans les formats de type carré ou bannière (le display qui assure l’essentiel des revenus des medias) force est de constater qu’il participe activement à vider la baignoire.

Je verrai demain comment s’orientent les débats et la réponse de Google mais je doute que Josh Cohen soit le meilleur interlocuteur pour discuter de ces questions. A mon sens la question du démantèlement de Google se posera nécessairement tôt ou tard non pour remettre en cause le coeur de son activité mais parce que sa position dominante à la fois dans la distribution (search) et comme régie publicitaire constitue désormais une aberration économique qu’on n’aurait toléré d’aucun acteur économique dans une économie traditionnelle.

J’apprécie comme beaucoup la puissance du moteur de recherche et sa contribution à l’ouverture de l’économie des savoirs mais je pense que son modèle économique, du fait de sa position outrageusement dominante, relève désormais plus de la taxation des échanges économiques plus que des mécanismes du commerce. Google ponctionne la valeur ajoutée du commerce en ligne plus qu’il ne le facilite. Je l’écrivais en 2005 en comparant cette domination à celle des banquiers Lombards au Moyen-Age:  « l’enjeu c’est le pouvoir, celui qui contrôle les routes du commerce, filtre les échanges, les ponctionne, fixe les règles ». En clair parce que Google contrôle les routes du commerce il est en situation de contrôler les mécanismes de fixation des prix. C’est la question.

MAJ 15/12/08
Quelques nouvelles  réactions des témoins à lire absolument:

Google en panne d’algorithme politique par Frederic Filloux sur E24.fr

« Google Chahuté » par Sophie Gohier, éditrice de L’Express.fr

Mediawatch avec (encore) Eric Scherer en version anglaise mais qui enrichit son compte rendu de la session qui s’est déroulé avec le GESTE le lendemain.

(Note: j’ai décidé de m’abstenir de faire le récit de la session du vendredi, nettement moins polémique de toute façon mais ayant un caractère privé. J’attends surtout pour commenter de savoir quel sera le texte final qui sera publié à l’issu des Etats Généraux).