Intéressante initiative du site design 2.0 qui étale côte à côte les pages d’accueil de plusieurs sites medias internationaux. Moches ou brillants? L’auteur s’interroge mais c’est surtout l’occasion de découvrir les 3 ou 4 grandes tendances: le style classique des quotidiens à la NYTimes en lignes serrées et multicolonnage très travaillé (jusqu’à présent mon style préféré), le graphisme brillant et coloré à la Sports Illustrated , le style web 2.0 à la Digg/Google finalement très pauvre et le style … scandinave proche du tabloïd trash se déroulant de façon interminable.

J’avoue que cela fait longtemps que le doute me prend face au succès du style scandinave. Ma culture personnelle m’éloigne totalement de ces choix graphiques exubérants mais ce succès mérite qu’on si arrête. En voyant la capture ci-dessous de ce magazine suédois je me demande si cela ne correspond pas à un nouveau mode de lecture que l’on aurait sous-estimé.

 expressen_se.jpg

J’ai toujours pensé, chiffres à l’appui, que la nécessité de dérouler la page d’accueil d’un site provoquait une dégradation de la consultation, de l’ordre de 25% par "écran". Phénomène que connaissent très bien les régies publicitaires qui voient s’effondrer les taux de clic à mesure qu’on descend dans la page. Dans le cas du magazine suédois je me demande si une telle profondeur, démesurée et interminable (je compte 18 "écrans"!) ne correspond pas finalement à une lecture verticale comparable à celle d’un parchemin qu’on déroule. Je veux dire qu’un certain lectorat préfère peut être parcourir les contenus d’un magazine de cette manière plutôt qu’en naviguant par rubrique ou en s’enfoncant dans le site. C’est une vraie question qui me perturbe d’autant que la particularité de ces sites est aussi qu’ils sont totalement dépourvus de gadgets web 2.0 tout en proposant un haut niveau d’interactivité.

Et si on faisait fausse route?

C’est le constat du dernier rapport de l’IAB UK qui donne 11,4% de parts de marché pour la pub en ligne contre 10,9% pour les quotidiens nationaux pour toute l’année 2006. Sur la même période les parts du marché publicitaire de la télévision ont baissé de 4,7%. A noter que les mots clés sponsorisés représentent 57,8% du total de la pub en ligne (en valeur). Enfin l’ensemble du marché publicitaire s’est accru de 1,1% ce qui montre que tout ceci n’est pas un simple jeu de vases communicants mais que l’internet a probablement favorisé l’émergence de nouveaux annonceurs.

Lire l’article du Guardian sur le même sujet

Suite à l’annonce de Google qui se lance dans l’expérimentation du modèle de CPA (Cost per Action) sur son moteur, Fred Cavazza a relancé le débat sur la rivalité des différents modèles. J’ai déjà écrit ici pourquoi le CPA constitue un piège pour les éditeurs en ligne et je constate à la lecture des commentaires que depuis un an les arguments encourageants à la méfiance se sont développés. Plutôt que de relancer le débat avec les mêmes interlocuteurs j’en ai profité pour poser la question franchement sur Linkedin (où figure mon CV) auprès de mon réseau de contacts. une bonne occasion de tester le nouveau service de questions/réponses du réseau Linkedin.

Je dois dire que le résultat dépasse mes espérances et j’ai reçu en quelques jours plusieurs réponses très argumentées de la part de professionnels du marketing en ligne de tous les coins du monde (USA, Allemagne, Argentine …). Un point pour les réseaux communautaires professionnels, cela confirme au passage la bonne qualité du réseau Linkedin. Je reproduis ci-dessous les principales réponses:

La question :  Should online publishers and medias be afraid of CPA (Cost per action) model ?

- Rick Monihan ( ex directeur Commercial chez Fox News-USA):
The CPA model is not one with publishers will ever be happy with, unless they have a direct interest in the acquisition portion of the deal. If their sole source of revenue is the money generated by CPA, then it’s always going to be a losing proposition.
Here is why:
1. Most advertising is lead generation – oriented. That is, an ad is generally designed to spread information and get consumers interested. It isn’t always a matter of getting an immediate sale or purchase. So, alot of ads sold as CPA will run without generating revenue.
2. Publishers are at the mercy of the advertisers. If the advertisers have lousy products, lousy ads, or a lousy website, then getting the Action or Acquisition portion of the advertising may never occur. More ads with empty revenue potential.
3. Brand equity…even with a good CPA campaign, there is a value to building the brand. So, with the CPA model the advertiser only pays for the A (action or acquisition) but doesn’t pay for all the additional benefits of advertising – spreading the information about the product, improving brand image, etc. That is all given for free by the publisher.
The solution is for the publisher to be directly linked in with the revenue generation portion of the relationship….but then this will erode the independence of many outlets that rely on advertising for revenue.
CPA can be PART of an overall revenue generation strategy by publishers, but it can’t be the sole revenue source, nor should it be the primary one.

- Eli Feldblum (Expert SEO, online marketing, Israël)
I say: Yes, very afraid.
CPA uses too many variable that you, as a publisher, can’t control. You can do everything right to your site: optimize it, bring in qualified traffic, keep it updated. But if your advertiser’s site has problems or doesn’t offer a compelling product, you don’t get paid for your valuable advertising space no matter how many impressions or clicks the ad gets.
If you do want to accept CPA ads, go into it the same way you’d go into a business partnership. Accept ads on a one-by-one basis; if you would partner or revenue share with this site–if it’s compelling enough to make you commit whatever action they are paying your site for–then it’s good enough to accept on a CPA basis. If not, then no way.

Quelques positions plus originales et moins hostiles au CPA:  

- Fernando Garcia Penella (Manager chez Avaya, Argentine) 
Let’s take it from the customer point of view. A sophisticated online advertising customer will be measuring publishers and online media from a CPA point of view if it’s looking for a lead-generation campaign. And choosing the best value for its advertising budget.
Online advertising gives him the ability to measure this marketing expense and finding out which sites, portals, networks, etc. give him the best bang for his buck. And that is how he will evaluate in the long run, no matter whether he is purchasing by CPM, CPA, or whatever other metric.
So the online publishers are already being measured through this optic by this customer — they are already part of the customer’s business; the media that will offer him a CPA model is only speaking in the same language that this customer.
Obviously this requires a change of worldwiew for online publishers. It’s no longer advertising buisiness as usual…..

- Pierre Alexandre (Patron de New York French Press – USA -mais français expat…)
The advertiser want to pay for result. The one who sell expensive space withtout trust real audience need to be afraid. But those who have a good and REAL audience don’t haver to be afraid. Now the content is king. And the time of liars poker with advertiser is over.

- Ryan Turner (Consultant en communication – USA)
Publishers and media have nothing to fear if they’re being honest about the reach and loyalty of their audience, and not trying to cheat the system, regardless of any approach in place. By going the CPA approach, online marketing– especially in areas where risk and open-minds should be greatest– can turn into a "bounty for hire" that removes the sense of personal cost and investment in the effort’s success.Other legitimate concerns:
– brand separation (more emphasis on the ad, product, or overall brand at the expense of marketers pushing online transactions);
– brand dilution (mishandling of the brand through disconnect in marketers);
– prospect cannibalization (online channels and sites marketing at cross purposes with one another)
At this point, remember Google is only testing CPA against CPC models, though I suspect in the short- to mid-term they will implement both as a hedge against competing providers, and offer different tiers or packages of services. It’s their best move to reach solve a combination of problems and hedge their bets in the short- to mid-range. Then they will eventually phase in one hybrid model that takes the "best" of both for them.

Think of it this way: of the following, which probably *make* more money for Google and which ones probably *cost* Google more money under a CPC scheme?:
– small-size/high-traffic sites
– small-size/low-traffic sites
– large-size/high-traffic sites
– large-size,/low-traffic sites

I’m guessing the small-size/high-traffic and large-size/low-traffic sites would the type of groups Google wants to court for a CPA program, because they’d wind up paying less than under a CPC plan while gaining enough of a base to make it worth their time, no?

Retrouvez toutes les réponses ici. Pour ma part je partage la plupart des critiques faites au CPA, je reste très surpris que certains y voient une opportunité de monétiser l’inventaire de pub invendu. Ceci alors que comme l’ont relévé plusieurs commentateurs, on voit de développer des pratiques douteuses consistant, côté annonceur, à acheter des campagnes de branding (notoriété) sur les réseaux d’affiliation afin de bénéficier de coûts de diffusion écrasés tout ça sur le dos de l’éditeur.

En fait je crois que le malentendu est là: il y a de la place pour le CPA chez les éditeurs simplement ce n’est pas une affaire de bannière et d’affichage. Le CPA est adapté sur les zones marchandes ou dans un contexte de shopping et de consommation et sur des formats différents (text, liens contextuels etc…) . C’est fait pour et comme le disent finement les derniers commentaires, si un éditeur fait la démonstration que ses lecteurs sont aussi des consommateurs il gagne en crédibilité et tire son épingle du jeu.

Comme l’a relevé Didier Durand, Comscore vient d’annoncer que la mesure des visites (les "sessions"), leur durée et leur fréquence seraient désormais les principaux indicateurs pris en compte avec les visiteurs uniques pour la mesure d’audience des sites web. Je ne reviens pas sur l’annonce elle-même, Didier détaille très bien l’enjeu qui consiste à mettre en avant la qualité de la relation avec les lecteurs et leur fidelisation. Rappelons tout de même que c’est aussi une manière discrète d’enterrer en douceur la mesure des pages vues totalement folkorique sur les outils basés sur des panels comme Comscore ou Nielsen Netratings comme je l’avais écrit ici (suscitant au passage une réponse en français du patron de Comscore).

Du coup le petit jeu consiste a redécouvrir les modifications du classement des sites en fonction de ces nouveaux critères, en particulier la fréquence des visites. Pour résumer disons que les portails du type yahoo/MSN en ressortent regaillardis. Du coup je me suis demandé ce que cela pouvait cacher sachant que les grands portails mélangent contenus, services, espaces communautaires soit un environnement beaucoup plus hétérogène que celui des sites medias. Un coup d’oeil sur Nielsen m’a vite confirmé que l’impact des messageries électroniques fausse largement les données et cache un match beaucoup plus serré qu’on ne l’imagine.

Sans révéler les données des uns et des autres j’ai effectué le calcul suivant: j’ai isolé deux groupes de sites, celui des portails et celui des medias comprenant un mélange de sites de news et de magazines. J’ai comparé la fréquence des visites moyennes de chaque groupe puis j’ai recommencé le calcul en supprimant du premier groupe la mesure de l’audience des messageries électroniques, des messengers et des moteurs de recherche en pondérant par rapport aux parts de marché de chaque zone du portail (vous n’avez rien compris c’est normal mais disons que ce n’est pas une moyenne toute bête). Voici ce que cela donne :

Données mensuelles (février 07)

Données completes Hors emails + messagerie + search
Sessions par visiteur Sessions par visiteur
Portails 12,34 5,7
Medias 4,38 4,38

Je ne rentre pas dans le détail du calcul, il mériterait plus de précision et une fourchette d’écart. Tout de même il faut préciser que le résultat légerement supérieur des portails vient de la surpondération des pages d’accueil. Pour le reste malgré la puissance d’attraction des messageries les portails ne parviennent pas à distancer les medias en matière de fidelisation sur les contenus et services.

Signalons une trés grosse surprise : les services communautaires types blogs, forums, pages persos n’influent pratiquement pas sur la fréquence des visites, en fait ils se consomment comme des pages de contenus (par contre ils génèrent de longues durées de session et des pages vues). Voilà qui va à l’encontre des idées reçues. En revanche les pages d’accueil personnalisées (incluses dans mon calcul) sont un facteur important d’accroissement de la fréquence des visites.

Note: le calcul est effectué sous ma seule responsabilité, il est probablement approximatif et très largement perfectible et n’engage pas l’instrument de mesure d’où j’ai puisé les chiffres. Ceci étant dit je suis assez confiant sur les grandes lignes de l’analyse.

Signe des temps, alors que certains s’extasient toujours sur les volumes de trafic mirifiques des sites communautaires d’autres s’interrogent sur les limites de cette course à la carotte. En particulier ils se demandent si l’intérêt des medias est de participer à la kermesse. Que l’interrogation vienne d’un investisseur VC montre que ce n’est plus un débat de théoriciens. L’investisseur, c’est Jeremy Liew de Lightspeed Venture Partners, et sa préoccupation c’est comment un média peut-il atteindre un CA de 50 M de dollars. Tout un poème.

Le paradoxe qu’il soulève tient en trois scénarios, lequel est le meilleur pour un média?
1- D’un côté la vaste plateforme communautaire draine des milliards de pages vues mais avec un CPM de 1$ grand maximum. Il lui faudrait des dizaines de milliards de pages vues. Est-ce bien raisonnable de devoir cibler 50% d’une population pour espérer des marges de profits?
2- Au centre le portail communautaire, avec une diversité de contenus et services, qui supporte des centaines de millions de pages de pages vues et pousse dans le meilleur des cas son CPM à 5$. Difficile même pour un Microsoft, il faudrait 10 milliards de pages vues.
3- Enfin le site thématique (bagnoles, voyages, films) qui en ciblant des niches publicitaires peut prétendre à quelques dizaines de millions de pages mais un CPM de 20$. Là l’objectif serait des centaines de millions de pages vues. Pas facile.

Evidemment l’ordre croissant est aussi celui du coût de production du contenu. Autrement dit l’objectif est difficilement atteignable dans les trois cas.  Scott Karp, Publishing 2.0, fait aussi remarquer que les milliards de pages vues ne signifient pas forcement un nombre proportionnel de visiteurs uniques. Le visiteur d’un Myspace génerera 50 pages vues là où celui d’un site media en génerera 5 ou 8. C’est aussi pour cette raison que l’équilibre des prix s’organise. C’est aussi pour celà que les medias ne sauraient rester crédibles avec des CPM inférieurs à 10$ ou 20$ mais c’est une autre histoire.

J’ajouterai à la réflexion l’importance du contexte: l’impact de la publicité n’a aucune raison d’être le même dans des forums d’ados que sur des pages de contenus éditoriaux. Oui c’est un jugement de valeur, au sens propre. J’ai déjà mentionné les remarques d’un annonceur à propos des résultats médiocres de la pub sur Myspace. On aurait tort de sous-estimer l’importance de ce facteur alors même que jusqu’à présent tout ce beau monde ne voit que la publicité comme source de revenus. D’ailleurs c’est peut être celà la solution de l’énigme: la marge ne viendra peut être pas de la publicité mais des produits dérivés, des services, des revenus des mobiles et … du payant. 

Lire aussi le papier du NYTimes inspiré du même article : "La popularité pourrait ne pas suffire"… 

Le terrain était bien préparé, Médiamétrie a annoncé la semaine dernière que 2007 serait l’année de l’internet mobile, 5,3 millions des 49,8 millions d’utilisateurs de téléphones mobiles bénéficiant déjà de la 3G. Qu’ils utilisent ou non cette 3G c’est bien la question qu’il faut désormais aborder. Pour mesurer l’utilisation de l’internet par le  téléphone mobile Médiamétrie va donc lancer un panel de 2500 à 3000 personnes. Deux vagues d’études sont prévues en juin et octobre. Le choix de la méthode du panel se justifie car les multiples systèmes d’exploitation des téléphones et la trop grande diversité des modèles rend encore difficile la mise en place de marqueurs ou de mouchards sur les appareils.

Je gardais l’info depuis quelques jours mais elle a été publiée par la lettre spécialisée Comelec des Echos (la lettre des Télécoms et des Communications Electroniques dispo par abonnement) donc je partage. L’annonce et les détails devraient être précisés cette semaine.

Impossible de passer à côté, Christophe Druaux sur son blog OuiNon, vient de lancer un vent de fraîcheur sur l’exercice de plus en plus pesant consistant à dresser des listes de blogs populaires. Son idée est sympathique et astucieuse à la fois: dresser la cartographie imaginaire de la blogosphère française. Tout ça ressemble furieusement à la Carte de Tendre, poésie en moins (NDLA: Carte de Tendre et non carte DU Tendre comme on me le fait remarquer justement). Pas si simple de répartir les tribus de monomaniaques en familles cohérentes. A découvrir juste pour le plaisir. Le vilain m’a casé en Biélorussie, entre Pisani et le blog Auto qui lorgnent sur mes frontières et Tchernobyl pour chauffer la moquette. Je vais de ce pas revendiquer l’Antartique pour moi tout seul … 

Cliquez sur la carte pour élargir (pdf, 2,1 Mo):

 cartographie-de-la-blogosphere.jpg

A signaler en toute discretion un accord entre Wikio et le GESTE . Accord de principe après quelques rencontres ayant permis de comprendre le modèle des uns et des autres ainsi que leur complémentarité. Une façon aussi de dépassionner le débat entre éditeurs et agrégateurs, mal engagé avec le conflit entre Google News et les éditeurs belges. L’annonce, très sobre, se lit sur Wikio.fr. Ayant participé aux discussions je ne développerai pas mais je salue la distance parcourue en quelques années sur le sujet sensible de l’agrégation des news.

Je les ai toujours considéré comme nos nouveaux distributeurs même s’il ne faut pas nier qu’ils construisent leur activité sur l’exploitation de nos contenus sans toujours se soucier des implications légales. Comme dans Astérix tout s’arrange autour d’une bonne table. La question est moins de remettre en cause cette opportunité que d’en calculer l’impact positif pour les éditeurs. Question d’équilibre entre la valeur de se qu’on cède et celle que l’on reçoit, au final. Reste une inconnue sensible pour moi, l’agrégateur aura un rôle positif s’il fait la démonstration qu’il répond à un besoin réel des internautes et s’il crée une nouvelle audience en révélant les nouveaux usages. En revanche s’il doit son seul succès à sa position entre le site de l’éditeur et les moteurs de recherche, Google en tête, il ne fait que parasiter un ecosystème. Parmi les discussions que j’ai eu avec Laurent Binard (patron de Wikio) figure en bonne place la question du référencement des articles de presse.

La perspective de voir un article mieux positionné sur Google via l’agrégateur que via son site d’origine est un problème car l’agrégateur tient son propre référencement de sa capacité à regrouper l’ensemble des flux des uns et des autres et de l’addition des fréquences de publication. Une situation dangereuse qu’il faut contrôler techniquement. Heureusement Google News se refuse à indexer les autres agrégateurs (on imagine sinon le tourbillon infernal…), d’ailleurs la tendance du moment est de privilégier les producteurs de contenus originaux, professionnels ou non, c’est une bonne chose. 

Pas de lien direct avec la signature de cet accord, quoique, mais j’en profite pour signaler l’expérimentation initiée entre lesechos.fr et Wikio.fr à l’occasion du lancement demain du site compagnon www.auditdelafrance.fr. Ce site reprend l’intégralité du supplément des Echos du 13 mars consacré au bilan économique de la France (voir la video de présentation). Wikio.fr y joue un rôle en fournissant un module destiné à afficher les articles de la blogosphère qui réagissent et commentent ces articles, à la manière de Technorati. Une interaction qu’on espère enrichissante en plein débat électoral. A vos plumes (le site sera ouvert en fin de journée demain)…

Fred Cavazza a craqué devant Second Life, malgré beaucoup de bonne volonté, il explique pourquoi c’est du flan… Ce garçon est décidemment trop honnête pour bosser dans la pub. Jusqu’à présent je me suis abstenu de parler du phénomène Second Life exactement pour les raisons qu’il expose. J’ajouterai simplement que techniquement Second Life est une machine à lag pratiquement inutilisable et que sur le fond cela s’apparente au décor d’une boîte de pub construite au dessus d’une maison de passe. Passons, les commentateurs ont jusqu’à présent été assez discrets sur certains aspects malsains de ses bas fonds.

Bien sûr comme tous les univers virtuels le caractère addictif joue à plein. Reste que les chiffres témoignent d’un succès en réalité tout à fait relatif (entre 20 et 30 000 utilisateurs simultanés, quelques centaines de milliers de visiteurs irréguliers par mois ceci pour le monde entier). Certains s’étonnent à juste titre de la couverture médiatique, toutes les télés et les radios sont tombées dans le panneau des chiffres, les "2 millions d’utilisateurs". Normal il faut bien justifier le sujet auprès de son redac chef, mais surtout parce qu’enfin Second Life offre des images. Depuis des années le gros problème des télés c’est qu’Internet passe mal à l’écran. Les univers virtuels offrent les images qui manquaient et sur lesquelles on peut broder à loisir et recycler fantasmes et poncifs. Bref un bon client.  

Petit cadeau pour les lecteurs du blog j’ai retrouvé un de mes papiers de 1997 (co-signé avec Pierre France maintenant journaliste aux Dernières Nouvelles d’Alsace – salut Pierre!), publié dans le magazine Planete Internet , à propos de l’ancêtre de Second Life: le Deuxième Monde, lancé par Cryo et Canal+. Son producteur: Alain Le Diberder qui lançait aux journalistes "Oui je sais, c’est mercantile et on n’y comprend rien" (on savait rigoler à l’époque). "Qui sait on y trouvera peut être un jour les partis politiques traditionnels" ironisait-il!  J’imagine sa tête aujourd’hui en voyant l’île Sarkozy…

J’ai scanné les deux pages ci-dessous, désolé il y a peu d’illustrations. Pour faire court je dirais que le Deuxième Monde véhiculait une utopie de démocratie virtuelle tandis que Second Life, plus décomplexé, se concentre sur la planche à billets.

Deuxieme Monde canalplus cryo Cliquez sur l’image pour élargir …

Ca prête à sourire mais au fond c’est assez pathétique. Le magazine Wired vient de mettre de l’animation dans le débat web 2.0 en jouant un petit jeu pervers: en achetant les votes de Digg via le service User/Submitter (dont on admirera au passage la superbe sobriété). Le principe: la journaliste de Wired Annalee Newitz a conçu un blog de photos au contenu volontairement inepte et a acheté les votes de nombreux utilisateurs de Digg pour promouvoir un article. L’objectif: tester le service et sa porosité au spam et au click bidon. Le résultat dépasse toutes les espérances comme on peut le lire ici.

L’article sans intérêt fait la Une de Digg déclanchant une belle polémique comme le remarque Pierre Chappaz et le raconte Margaret Kane sur News.com. Tout cela n’est pas bien dramatique et illustre les limites de Digg sans pour autant le remettre en cause. Reste qu’on peut s’interroger sur les conséquences à long terme sur la crédibilité du service qui n’a jamais vraiment convaincu hors du périmètre très caricatural de l’actu high-tech. Ce qui me paraît intéressant c’est qu’on touche la limite de l’exercice communautaire, après avoir découvert qu’il repose sur un petit pourcent d’utilisateurs réellement actifs, lesquels s’approprient souvent jalousement le media au point d’exclure  les nouveaux entrants.

Un constat qui conforte l’idée dune troisième voie, refusant le mythe d’un site autogéré. Recemment j’en discutais avec Emmanuel Davidenkoff, ex de Libé (décidemment!) et rédacteur en chef adjoint du magazine Phosphore, qui vient de lancer un site "participatif" sur les élections, pour les 15-25 ans. Son choix, très motivé, consiste à imposer la modération a priori des commentaires et des contributions au nom de la cohérence éditoriale et de la qualité. Du coup on perd sans doute en spontanéité et on doit aussi supporter le coût de l’opération. Pourquoi ne pas faire le pari de laisser ses contributeurs s’autogérer? Parce que, selon lui, derrière la communauté se crée un noyau dur qui tend à développer sa propre culture, ses codes,  s’approprie l’espace au point d’exclure rapidement les nouveaux arrivants. Bref en apparence le site gagne son pari en fidelisant un noyau dur mais passe à côté de sa mission fédératrice. C’est un peu l’histoire de Digg.

C’est l’estimation de l’analyste Robert Peck (Bear Stearns) à partir de la déclaration de revenus de Google. C’est à dire 100 fois au dessous de son prix d’acquisition en novembre dernier. C’est ce qu’on appelle un sacré potentiel de croissance …  

Maintenant on relit tranquillement les déclarations de Calacanis qui évaluait le CA de YouTube à 20M$ en septembre dernier quand d’autres l’estimaient à 150 M$…

Tic tac

Suite du Google News Report France pour le mois de février 2007 (le détail ici) qui classe les principales sources d’information selon leur positionnement, leur fréquence et durée d’apparition sur la Une de Google News. Après une interruption d’un mois en décembre le Google News Report est finalement réapparu en janvier (son auteur m’a avoué qu’il pensait que ça n’intéressait personne…).

Si l’on compare avec le dernier classement de novembre 2006  on note quelques changements notables. En particulier le grand gagnant est lexpress.fr qui a détroné son éternel rival Nouvelobs.com. Ce dernier paye probablement la refonte de son site et son changement de CMS  qui ont bouleversé l’organisation des contenus. La RTBF fait irruption dans le top 20 ainsi que 20minutes.fr, pour le reste les quotidiens et les sites des principales chaînes de TV trustent toujours les premières places. A noter la baisse du site lesechos.fr, lequel a été absent de l’index de Google News pendant une semaine en février pour des raisons techniques obscures qui m’ont donné quelques sueurs.   

Gros problème à mon avis, j’y reviendrai une prochaine fois mais l’analyse du top 100 des articles des principales sources d’actualité montre clairement qu’il s’agit essentiellement de dépêches d’agence de presse. Google News semble toujours sensible à la répétition des mêmes infos plus ou moins réécrites qu’il interprète à tort comme un critère d’importance à cause de la redondance. On dira ce qu’on voudra mais c’est la preuve que Google n’est pas si performant dans l’analyse des contenus et privilégie toujours la répétition et la fréquence de publication.

A suivre 

Top 50 des sources Google News France
rank Février 2007 Janvier 2007
1 L’Express L’Express
2 Le Figaro Le Figaro
3 Libération Libération
4 nouvelobs.com nouvelobs.com
5 Le Monde TF1
6 TF1 Le Monde
7 Boursorama Boursorama
8 France 2 Canoë
9 PC Inpact Boursier.com
10 Clubic France 2
11 Canoë Clubic
12 20minutes.fr PC Inpact
13 Boursier.com RTBF
14 l’Humanité 7sur7
15 RTBF XINHUA
16 Radio Suisse Romande Cyberpresse
17 AgoraVox 20minutes.fr
18 7sur7 l’Humanité
19 XINHUA Radio-Canada
20 Radio-Canada Radio Suisse Romande
21 L’Orient-Le Jour ZDNet
22 ZDNet Les Échos
23 Le Vif/L’Express L’Orient-Le Jour
24 Radin Rue Portage emploi
25 Référencement Internet-Web Référencement Internet-Web
26 24 heures Le Devoir (Abonnement)
27 Actualités News Environnement Sport365.fr
28 Jeune Afrique 01net
29 La Tribune.fr AgoraVox
30 Sport365.fr Football.fr
31 Europe 1 Actualités News Environnement
32 Journal Chrétien Europe 1
33 Armées.com 24 heures
34 01net Radin Rue
35 Tribune de Genève Armées.com
36 Football.fr La Tribune.fr
37 RFI Tribune de Genève
38 M6.fr Courrier International
39 Francebourse.com Jeune Afrique
40 Cyberpresse M6.fr
41 Eurosport – TF1 Le Vif/L’Express
42 RTL.fr Goal.com
43 Les Échos EuroNews
44 Portage emploi Eurosport – TF1
45 Sports.fr Marianne2007.info
46 Aujourd’hui Le Maroc Génération NT
47 Goal.com Le Temps (Abonnement)
48 Sport 24 Liberté-Algérie
49 L’équipe.fr RFI
50 Le Devoir (Abonnement) Aujourd’hui Le Maroc

 > source Private radio

Suivre

Recevez les nouvelles publications par mail.