RSS: Yahoo ne partage plus?

Bizarre, bizarre, certains des nouveaux sites éditoriaux lancés aux USA par Yahoo ne proposent aucun flux RSS. Alors que l’absence de flux RSS sur un site éditorial est devenue la marque de la plus absolue ringardise voilà que Yahoo crée la surprise en laissant de côté le Saint Graal du partage 2.0 sur ses trois derniers sites Yahoo! Food, Yahoo! Advertising et Yahoo! TV (j’ai vérifié partout, pas de RSS). 

Il n’en fallait pas plus pour lancer la polémique: Steve Rubel y voit la marque d’une stratégie média préhistorique où le RSS minimise les pages vues, réduit le temps de lecture et pousse à l’atrophie des sites éditoriaux.  Au passage je n’ose imaginer les réactions si un responsable de site de presse avait avancé ce type d’argument… Les canadiens du Blogue Marketing Interactif enfoncent le clou en y voyant un moyen d’optimiser les revenus publicitaires.

J’avoue qu’il est assez difficile de croire qu’il puisse s’agir d’un oubli. Techniquement les arguments de Steve Rubel sont tout à fait pertinents: le RSS est un moyen efficace de capter un lectorat mais il génère proportionnellement moins de pages vues par visite, laquelle dure moins longtemps que celle d’un visiteur en provenance d’un moteur et d’une lecture spontanée. En clair il favorise le zapping.

Au risque de me tromper je suis tenté de proposer une autre interprétation. Je pense aussi que l’objectif final est de maximiser l’impact publicitaire et l’approche média traditionnelle mais je ne crois pas que celà puisse se résumer à un compte d’apothicaire sur les pages vues. Le RSS a bien des effets collatéraux négatifs sur le trafic mais la démarche consistant à sélectionner un flux s’apparente à une souscription c’est à dire ue forme d’abonnement qui témoigne aussi d’un lien fort avec le média. En ce sens on peut le concevoir comme la marque d’un lien fort avec ce même média.

En revanche la prolifération des flux RSS a une conséquence qu’on peut juger plus discutable: elle favorise l’émergence d’une nuée d’infomédiaires parasites qui développent des services (agrégateurs, blogs verticaux, revue de presse) voire même de nouveaux sites éditoriaux. Sous prétexte d’offrir un service et de la visibilité ils n’en captent pas moins une petite fraction du marché publicitaire sans supporter le coût de production des contenus. On pense ce que l’on veut de ce débat ancien mais j’utilise volontairement le terme « parasite » non pour les stigmatiser mais pour désigner une forme d’exploitation dérivée des contenus rarement avec l’accord des éditeurs (ce qui ne veut pas dire qu’ils s’en plaignent, les blogs par exemple se satisfont généralement de cette visibilité gratuite). Reste que quand les sites en question produisent des contenus de « niche » il n’est pas forcément pertinent de nourrir sa propre concurrence, a fortiori quand on s’appelle Yahoo et que l’on dispose déjà d’un réservoir d’audience.

Pour cette raison je pense que Yahoo tente de construire des sites de destination, une petite révolution quand on s’est longtemps défini comme un service de passage (où l’on assume que le lecteur vient pour trouver des contenus et basculer in fine sur un autre site). J’imagine sans peine que cette stratégie de sites de destination vise à créer des zones à CPM élevés en concurrence directe avec les sites d’éditeurs traditionnels. Logique car, comme je le rappelais en août dernier, Yahoo est dirigé par des hommes issus de l’industrie des medias qui visent la manne du CPM, non les revenus à la performance trustés par Google.

Un petit pas de plus pour la stratégie média de Yahoo…  

Le New York Times lance ses pages d’accueil personnalisées

C’est parti! La version béta des pages d’accueil personnalisées du New York Times est accessible aux lecteurs enregistrés (c’est gratuit). Après la spectaculaire version perso du site de la chaîne d’infos sportive ESPN la course est ouverte pour l’adoption des pages personnalisables façon Ajax sur les sites médias. Concernant le NYTimes ma première impression est plutôt mitigée: le service est très lent, on hésite à déplacer les modules, la mise à jour des contenus laborieuse. Bref c’est une version béta et ça se voit terriblement.

mytimes.gif

L’ajout de nouveaux flux RSS est prévu, même si c’est plutôt rustique. Mais ce qui m’intéresse ici c’est plutôt la façon d’utiliser les contenus du NYtimes. La plupart des modules sont préchargés et la petite touche innovante vient de la possibilité de choisir des « environnements » différents, en fait des pages pré-configurées par les journalistes de la rédaction. Du coup l’utilisateur choisit les journalistes dont il apprécie les articles et visualise leur sélection de sources d’informations. Quoi de mieux pour susciter l’affinité avec son chroniqueur préféré! Je ne sais pas si cette fonction rencontrera le succés mais c’est bien vu et la présence des photos des principaux journalistes de la rédaction humanise considérablement l’environnement technoïde des flux RSS. Un bon point pour fidéliser…

mytimes-journalists.gif

Explorer 7 consacre le RSS et relance la bataille des moteurs de recherche

Je viens d’installer ce matin IE7: beaucoup d’innovations dans l’interface et une gestion des flux RSS semblable en tout point à celle de Firefox. A peine l’installation accomplie la petite guerre des moteurs de recherche fait irruption sur le bureau de Windows:

ie7-google.gif

 C’est une bonne chose, l’utilisateur peut conserver son moteur par défaut. L’impact sur le trafic de Live Search, le moteur de Microsoft, dépendra de ce choix…

Sinon j’aime assez la gestion des flux RSS. Comme Firefox le navigateur ie7 détecte automatiquement la présence de flux RSS sur la page et permet de les visualiser en format HTML (et non sous la forme brute XML qui effrayait les utilisateurs non initiés). Mieux, cette fonction de prévisualisation repère la présence de tags ou de mots clés dans le flux et permet de filtrer directement le contenu du flux par thèmes (voir ma capture sur le flux des Echos). Le navigateur propose ensuite de s’abonner en un clic au flux RSS . Bof bof en revanche le flux se retrouve affiché avec les favoris, un menu pas très ergonomique qui réclame 3 clics avant d’accéder à l’information.

1> Choisir le flux

 lesechos-rss-ie7.gif

2> prévisualiser et s’abonner

lesechos-rss-ie7-v2.gif

Interview de Peter Hirsberg, Chairman de Technorati

Dans le cahier Innovation des Echos ce matin: l’interview de Peter Hirsberg, président du conseil d’administration de Technorati (Chairman, pas CEO). Modèle économique toujours aussi brumeux : « Les annonceurs s’intéressent aux blogueurs parce qu’ils ont de l’influence. Si vous achetez un espace publicitaire sur Technorati, il est pratiquement couru d’avance que quelqu’un écrira sur votre publicité. »

Il annonce aussi que les blogs rameneraient aussi 1/3 du trafic du Washington Post… Impressionnant mais faux, il s’agit du tiers des liens référants pas le tiers de l’ensemble du trafic … Bien essayé ! Pas mal quand même. Technorati s’intéresse à la presse d’information, normal c’est là qu’on y trouve les principaux clients qui utilisent la technologie de Technorati pour identifier les sites qui commentent les articles. D’ailleurs ca m’intéresse

Netvibes met le souk dans la mesure des flux RSS

Depuis quelques temps il me semblait que le trafic de mon blog était sans rapport avec les 4393 abonnés à mon flux RSS affichés par l’outil de mesure interne de WordPress.com. Et depuis quelques jours,  patatrac, le nombre d’abonnés s’est effondré mais pas le trafic. L’explication se trouve sur le forum de WordPress.com.

En clair Netvibes (70% de mes abonnés) envoie des requêtes à partir d’un nombre toujours plus grand de serveurs à mesure que le service développe son infrastructure technique. WordPress identifie par erreur chaque serveur comme provenant de services (et d’utilisateurs) différents multipliant de façon exponentielle le nombre « d’abonnés ». Une fois corrigé, pouf, la baudruche se dégonfle et il ne reste même plus de quoi devenir un influenceur

Bon ce n’est pas très passionnant comme histoire mais cela prouve que la mesure des flux RSS est d’une fiabilité hasardeuse. Je crois me souvenir que Freddy (COO de Netvibes) m’avait expliqué qu’un phénomène similaire avait malmené les statistiques de Feedburner.com. Problème corrigé depuis mais qui oblige les services de mesure à identifier un par un (par IP) les serveurs des agrégateurs de flux RSS. La rançon du succès…

Presse belge et Google: victoire à la Pyrrhus

MAJ 22/09/06 : jugement confirmé en appel. Voir le texte et le détail ici 

La presse française l’avait annoncé, la presse belge l’a fait. Le droit des titres de presse à refuser de figurer dans Google News a été reconnu par la justice belge qui a condamné Google à retirer les articles de la presse belge de son index. A lire l’éditorial du Monde aujourd’hui « Apprivoiser Google » je mesure avec soulagement la distance qui sépare l’état d’esprit de la presse française à peine deux ans après avoir elle-même menacé Google (J’ai déjà raconté l’origine de l’épisode AFP sur le même sujet). A défaut de confiance la majorité des acteurs français agissent avec prudence.

Le temps est venu, je crois, de dire les choses clairement. Même s’il faut attendre le résultat de l’appel de Google auprès de la justice belge il n’y a jamais eu de doute que la position des éditeurs était juridiquement fondée. Je ne réexpliquerait pas par lassitude le méli-mélo de la législation sur les droits d’auteurs à l’origine de l’effet domino qui oblige nécessairement éditeurs et sociétés de droits d’auteurs à défendre ainsi leurs intérêts. Je ne souhaite pas non plus suivre le cirque de ceux qui répètent à envie que les éditeurs n’ont rien compris, que le monde est désormais « no evil ». Les petits malins du Web 2.0 ont truffé leurs pages de copyright et leurs CGV s’arrogent les droits d’exploitation des contenus des internautes. Il est temps d’arréter les singeries et de poser la balle au centre.

Des infomédiaires fragiles
Si Google News tombe, d’autres suivront, avec en première ligne la tripotée des Digg-like, les agrégateurs RSS et tous ceux qui s’instaurent intermédiaires de facto et tentent d’exploiter à leur compte, même modestement, même si leur action est « utile » aux éditeurs, ce statut d’infomédiaire sans l’accord des producteurs de contenus. La décision de justice belge nous rappelle simplement une chose: l’édifice est fragile. Ce que la raison ne doit pas ignorer: faut-il provoquer le suicide collectif au nom d’un droit légitime?

On le sait, la presse est malmenée et il est tentant de faire valoir ces droits pour freiner un mouvement inéluctable. Certains y ont un intérêt personnel direct, d’autres y chercheront un sursis. Ce sont des motivations puissantes qu’il ne faut pas sous-estimer. C’est aussi de toute évidence un efroyable calcul de court terme, le sursaut d’une industrie sans horizon, de capitaines sans ambitions ni vision. Oui il faut composer avec Google et apprivoiser le monstre. L’enjeu, c’est la reconstruction de la chaîne de valeur, l’apprentissage d’un nouveau mode de distribution.

L’impasse
Par delà la question des hommes il faudra bien reconsidérer une législation des droits d’auteur qui conduit à l’impasse. De l’autre côté il faudra bien apprendre à respecter le droit « de l’auteur », du producteur et abandonner le mirage d’un infomédiaire déresponsabilisé. Tous les hébergeurs, agrégateurs en tout genre et autres moteurs de recherche qui se réfugient hypocritement derrière la technologie pour s’affranchir de leurs responsabilités devront comprendre qu’ils sont eux aussi dans l’impasse. Leur modèle est basé un jour ou l’autre par l’exploitation directe ou indirecte de ces contenus. A l’instant où ils sortiront du bois, ils seront attendus. C’est une des leçons de ce jugement.

En vérité il n’y a pas d’autres solutions que de composer. Google est notre distributeur, d’autres viendront. Notre industrie a tout intérêt à laisser libre court à l’innovation car elle ne peut à elle seule supporter le poids économique de son réseau de distribution. c’est aussi ça la leçon de la crise de la presse. Il est en revanche légitime de contester le partage de la valeur. Légitime de revendiquer un équilibre de l’échange. Pour cela on ne peut concevoir l’existence d’infomédiaires autoproclamés qui s’affranchiraient d’une contractualisation des échanges.

Bizarrement la décision belge ne m’inquiète pas. Elle est tardive, presque anachronique, la tendance est plutôt aux accords. YouTube sait que sa survie ne passera que par des accords avec les producteurs de contenus, Yahoo aussi, Google suivra, c’est notre intérêt à tous. De notre côté il faudra bien redéfinir les vraies priorités: reconquérir le coeur des lecteurs et ne s’imposer que par la force de la légitimité.

MAJ 1 : l’article de Libé ce matin qui montre les nuances entre la position belge et française

MAJ 2: le saviez-vous, la PQR (Presse quotidienne régionale) française a également obtenu de Google de ne pas figurer dans son index. Une transaction réalisée discrètement avant de mener une procédure judiciaire. J’avoue que ça m’avait échappé.  

MAJ 3: précision, selon Copiepresse qui regroupe les éditeurs belges l’objectif « n’est pas de faire retirer nos articles, mais que nos contenus soient rétribués ». Ce qui me parait en effet plus cohérent.

Bilan du Web 2.0 au New York Times

Semaine faste pour le magazine Business 2.0, c’est aujourd’hui un article consacré au bilan économique (et d’audience) du NYTimes.com  qui a retenu mon attention. L’auteur a rencontré Martin Nisenholtz, Vice président en charge des activités numériques du groupe depuis un an et demi. L’occasion de dresser la liste des innovations technologiques qui ont vraiment connu un succès et celles qui ont fait flop, tout en gardant un oeil sur les courbes de progression des abonnements. Le genre de situation pour laquelle je me sens très concerné, allez savoir pourquoi…

Le NYtimes.com comme beaucoup d’autres quotidiens a adopté de nombreux dispositifs et innovations qui ne méritent peut être pas l’appellation Web 2.0 mais en ont le parfum. Une grosse partie de ses revenus en ligne proviennent du site About.com. Par ordre décroissant d’efficacité (selon Nisenholtz) on trouve les flux RSS, les liens « articles les plus envoyés », « les plus blogués » , « les plus recherchés ». Les blogs, innovation récente, semblent donner satisfaction sans pour autant peser encore sur l’évolution du trafic. L’usage des tags ou des nuages de tags est en revanche un four complet ce qui ne m’étonne pas du tout. Les nuages de tags sont une des marques des sites Web 2.0 mais sont aussi avant tout une friandise pour geek totalement incompréhensibles pour le commun des mortels. Et pour cause, à l’origine c’est surtout une forme d’optimisation des liens de navigation à destination de Google et des objectifs de référencement, pas vraiment ergonomique pour l’internaute moyen.

Tout ça peut paraître bien gentillet pour les habitués du Web 2.0 mais ces petites innovations représentent souvent de petites révolutions pour les rédactions des grands quotidiens. Des quotidiens dont l’audience souvent très mature et peu portée sur les technologies doivent avant tout être séduite par des fonctionnalités simples et utiles plutôt que tape à l’oeil. C’est souvent une bonne leçon de modestie et un vrai test pour mesurer le véritable degré d’adoption des technologies par le grand public. A ce propos je lis avec intérêt les propos sur les flux RSS, certes performants, mais toujours utilisés par une minorité de lecteurs. Difficile, en effet, d’en expliquer l’usage à un public non-averti. Il faut à mon avis limiter au maximum la manipulation des flux eux-mêmes et privilégier l’intégration en un clic dans les lecteurs d’emails et les pages personnalisées à la MyYahoo! ou Netvibes à mon avis. Un point qui m’occupe tout particulièrement en ce moment d’ailleurs.

Intéressant de voir que le NYtimes.com a vu augmenter ses abonnés en ligne (plus de 500 000) en partie grâce au programme Time Select donnant accès à des zones réservés. J’ai lu quelque part que ce programme avait tout de même bénéficié du transfert forcé d’une bonne part des abonnés aux anciennes formules… Au total 190 000 sont abonnés à la seule édition en ligne pour un chiffre d’affaire de 9,5 M$ par an.

J’ai eu l’occasion de converser il y a quelques mois avec Martin Nisenholtz de passage à Paris. Je l’avais interrogé sur la relative modestie du dispositif « web 2.0 » malgré certains communiqués de presse triomphants du quotidien et surtout sur l’absence de passerelles entre About.com et le site NYTimes.com. Il avait reconnu que la réalité était souvent laborieuse, en particulier quand il faut convaincre une organisation de plusieurs centaines de journalistes et des années d’habitudes et de reflexes acquis en matière de publication. Certains pourront le regretter mais c’est souvent le prix pour réformer une institution tout en préservant sa vraie valeur: sa crédibilité, sa légitimité, sa marque…

Lire l’article de Business 2.0 « The New York Times’ digital makeover« 

Et hop ! Les Echos sur Netvibes

J’évite en général de causer du boulot ici mais cette fois je fais une exception, ça permet de conforter la règle… Les Echos (que j’ai rejoint en juin dernier) est le premier quotidien à s’associer officiellement avec Netvibes.com pour promouvoir un module complet d’informations financières. Il ne s’agit pas de fournir un simple flux RSS, ceux des Echos figurent depuis le début sur Netvibes, mais d’offrir conformément à l’esprit de Netvibes un vrai service à valeur ajoutée. La promotion par et avec le contenu, j’en parlais récemment, et bien on le fait.

echos-netvibes-mini.gifLe principe c’est un module qui permet de consulter les cotations boursières, lire les comptes rendus de séance mis à jour plusieurs fois du matin au soir, surveiller les indices (j’aime bien celui du pétrole en ce moment…), lire les derniers articles (là l’article est parfois payant), les conseils … etc. Bref un tableau de bord miniature à surveiller du coin de l’oeil.  Le principe c’est aussi d’être là où son lecteur se trouve. S’il utilise Netvibes il y trouvera son quotidien économique. En quelques mois il ne fait aucun doute que Netvibes est devenu, en France, la principale plateforme de consultation des flux RSS. J’en suis persuadé c’est aussi l’occasion de coller à de nouveaux usages et d’aller chercher un nouveau lectorat, pas forcément enclin au départ à acheter un quotidien. Netvibes n’est pas seulement un agrégateur de flux RSS c’est aussi l’embryon d’un bureau virtuel. 80% de l’audience d’un site de presse quotidienne se fait la journée, au bureau, sur l’écran du PC. L’idée c’est d’être sur cet écran, à un clic de souris, prêt à l’emploi.

En ce moment le module est proposé à tous les nouveaux utilisateurs de Netvibes, ils peuvent le conserver, le supprimer, à nous de convaincre. L’accord porte sur la promotion de ce module. Si vous voulez voir ce que ça donne cliquez sur le bouton ci-dessous …

add2netvibes.gif
> en savoir plus et mode d’emploi

Il y a autre chose que j’aime bien dans cette histoire, c’est son déroulé. Pliée en moins de trois semaines. L’auteur du module: Ben, un jeune développeur talentueux qui enquille les modules Netvibes comme des dragées.  J’utilise depuis plusieurs mois son module de webradios, un samedi soir fin juin je tombe par hasard sur son module financier, je le contacte par mail et voilà… A ce jour je ne l’ai toujours pas rencontré! C’est aussi pour ça que j’aime ce métier et que j’ai l’absolue certitude que notre industrie de presse a tout à gagner du numérique.

Côté montage et modèle économique, les cinq derniers jours ont été l’occasion de comprendre le modèle de Netvibes avec Tariq et Freddy. Je ne partage pas l’avis de Tariq sur la « fin du modèle publicitaire », du moins pas en ce qui concerne les médias d’information (ceux qui la produisent), mais je conviens qu’il s’applique bien à Netvibes. Je n’en dirai pas plus pour l’instant, il tient la route et c’est déjà bien d’en être le beta testeur. En fait je pense que les modèles ne sont pas contradictoires nous sommes simplement en train de recréer, à tâtons, la chaîne de valeur de la distribution, chaque intermédiaire pouvant monétiser sa valeur ajoutée de façon différente. Je sais que beaucoup s’interrogent là dessus mais Netvibes devrait communiquer très bientôt sur le sujet. Donc … motus et NDA!  Pour ma part je jugerai sur les performances et les résultats.

Salutations au passage aux équipes de Netvibes, il paraît qu’il fait chaud dans leur 30 m² …

Personnalisation des sites d’information, le mirage communautaire

Apres plusieurs mois d’utilisation de Digg, Scoopeo, Fuzz, Newsvine ou Wikio, je n’arrive pas à m’y faire. je n’arrive décidemment pas à en faire ma page d’accueil du matin, celle où d’un coup d’oeil je balaye l’actualité du jour ou de la nuit. J’ai toujours un petit faible pour Newsvine pour la lisibilité de sa maquette ou Wikio pour en extraire des flux RSS ciblés mais non, rien à faire je n’accroche pas à la hiérarchie des actualités. Je préfère toujours Google News pour lequel j’ai délaissé petit à petit Yahoo News, suivi d’un balayage des principaux sites de quotidiens français. Au final je m’appuie de plus en plus sur Netvibes pour agréger MES choix.

La raison me paraît de plus en plus évidente. ces services sont supposés offrir une classification et une hiérarchisation des infos au plus prés du désir des lecteurs puisqu’elles sont justement optimisées à partir des votes des internautes eux-mêmes, à des degrés divers chacun ayant sa petite recette. C’est justement là que le bât blesse pour une raison évidente: le calcul est la résultante du plus petit dénominateur commun au sein d’une communauté d’utilisateurs. Il n’y a absolument aucune raison que la synthèse de ce choix collectif corresponde à l’aspiration de chaque individu. Au contraire ce processus engendre immanquablement de la frutration car à vouloir satisfaire tout le monde on n’en satisfait aucun.

Pire la prédominance de certaines communautés conduit à orienter de façon caricaturale le classement des infos. C’est par exemple le cas de façon flagrante sur Digg.com terriblement influencé par son audience massivement composée de geeks. Imposible d’échapper à un mix de gadgets high-tech, de développement informatique, de buzz immature etc… Au final on se plaît à apprécier le confort d’une ligne éditoriale imposée même si on en contestera ça et là les choix. Ce qui me conduit à penser que le bon compromis pour un média d’information consiste à assumer une ligne éditoriale tout en proposant des espaces de personnalisation (merci Ajax) mais de ne surtout pas céder aux sirènes du communautarisme à outrance.

Un étude récente (Tim O’Reilly?) sur laquelle je n’arrive pas à remettre la main démontrait justement qu’une trés large majorité d’internautes trouvait fastidieux cette démarche consistant à continuellement voter pour juger de la pertinence des informations et, pire, trouvait bien trop fastidieux cette idée de paramétrer continuellement des pages ou des portails personnalisés à rebours des préceptes du Web 2.0. Et si on se trompait…

Lancement de Wikio.fr sur fond de polémique

On ne va pas tourner autour du pot je dois dire que la vilaine affaire Wikio Newzadig est plutôt du genre à gâcher la fête. Quand j'ai découvert le strip-tease des copines de dernière minute j'ai d'abord souri et j'ai immédiatement tiqué en voyant Techcrunch cité. Ce n'est pas la première fois que ce site est accusé de mélange des genres et quand j'ai lu dimanche soir le petit échange venimeux avec l'auteur de Newszadig, comme d'autres j'ai eu une sorte de nausée. J'espère sincèrement qu'aucun accord avec Six Apart n'est prévu car la coupe serait pleine…

Toutefois je ne pense pas, sincèrement, qu'il y ait malhonneteté (d'ailleurs il n'y a rien d'illégal) mais cette péripétie est riche d'enseignement sur cette économie du buzz. Une polémique similaire a surgit aux Etats-unis à propos de FON quand on s'est aperçu que des blogueurs de renom soutenaient le projet tout en étant interessés sous des statuts divers. Au risque de me tromper elle m'encourage à penser que l'aventure Wikio est prévue pour ne pas durer et vise la revente. Cela ne doit pas compromettre notre appréciation du service lui-même mais cela nous encourage une nouvelle fois à l'extrème vigilance en ce qui concerne le modèle économique. Et pour le moment les digg-like sont surtout des jouets pour geeks et aucun n'a véritablement prouvé qu'il était une alternative durable, extensible dans le domaine de l'info généraliste pour venir troubler un Google News.

Pour se démarquer des nombreux services équivalents qui fleurissent ça et là il faut faire la preuve de sa différence et de préférence bénéficier d'u buzz particulièrement soutenu. C'est bien ce dernier point qui est malsain dans cette histoire et il nous rappelle que derrière les leçons de journalisme donnés par les uns ou les autres il y a surtout un marketing bien compris et les bonnes vieilles ficelles de la communication. Dommage car Wikio a bien quelques atouts pour se différencier, en particulier un moteur de recherche qui justement le rend totalement autonome pour générer une profusion de dépêches sans jamais dépendre de l'apport spontané des internautes (qui quoi qu'on en dise font preuve d'une fiabilité discutable pour produire avec constance de l'information).

J'aime aussi particulièrement la capacité de générer des flux RSS à partir de n'importe quel tag ou rubrique (d'ailleurs j'en ai place un plus bas à droite de mon blog) même si cette fonction n'est pas exclusive à Wikio. J'apprécie la souplesse d'emploi, le classement et le regroupement des articles, la réactivité des équipes chargées de la maintenance et le blog associé. J'aime moins l'incapacité de noter négativement ce qui laisse libre aux excès, la disposition en listes indigestes des articles. bref en l'état je vois dans Wikio un outil intéressant pour pister des sujets, un sorte de complément à Technorati et Digg destiné à délivrer des flux à consulter ailleurs, à la demande. En revanche je ne suis pas encore convaincu d'en faire ma lecture du matin contrairement à google News, mais c'est probablement une affaire d'ergonomie. A suivre …    

MAJ: la réponse de Pierre Chappaz.
Ces précisions de Pierre Chappaz ont le mérite de dégonfler la baudruche en particulier sur l'accusation d'espionnage à laquelle je ne crois pas de toute façon, Newzadig n'étant pas un concurrent sérieux en l'absence d'investisseur. Je ne suis pas pour autant convaincu de l'absence de conflit d'intérêt sur le fond et l'absolu mélange des genres. Le problème n'est pas dans le principe d'un tour de table d'investisseurs mais dans le fait qu'une publication spécialisée est à la fois juge et partie et que ce n'est pas la première fois que la situation se produit. Le billet sur le lancement de Wikio est tout de même un modèle en matière d'absence de regard critique et cela suffit à la gêne. Evidemment n'ayant jamais revendiqué la neutralité on pourra dire qu'on ne peut lui repprocher son parti pris… C'est bien là que les dés sont pipés et qu'on voit la limite du blog "discussion" qui veut flirter avec le métier d'informer alors qu'on fond il n'est question que d'argent. Aucun problème avec ça, mais qu'on se le dise les business angels ne sont pas des anges.

Note: au passage je note que Wikio a vraiment beaucoup mais alors beaucoup de mal à indexer Ecosphere, la plateforme WordPress.com serait-elle en cause?  

Ecosphere huitième blog francophone sur WordPress.com

Surprise ce soir, la plateforme WordPress.com vient de dévoiler le classement de ses blogs par groupe linguistique. Une bonne idée puisque ce classement évoluait peu depuis plusieurs mois, avec l'indétronable Scoble en première position. A ma grande surprise Ecosphère figure en huitième sixième position du groupe français ce qui prouve les points suivants:
– les blogs génèrent peu de trafic … 🙂
– la théorie d'Eric Kintz est juste (la fréquence de publication importe peu) 

Avec ça je ne peux pas vraiment en dire plus sur le trafic puisqu'on ne peut toujours pas marquer les pages de WordPress.com (et les stats internes sont très bof). En attendant je fais du buzz, comme Google …

Pourquoi la fréquence de publication d’un blog n’importe plus

Eric Kintz est un des VP marketing de Hewlett-Packard, il aborde de façon originale la question de la notoriété des blogs en minimisant l’impact de la fréquence de publication. Il est en effet communément admis que seuls les blogs bénéficiant d’un rythme de publication effréné peuvent prétendre à la notoriété et une large audience. Je ne suis pas très convaincu par la démonstration même si je reconnais bien volontiers que la notoriété n’est certainement pas une affaire de simple mécanique. Il se trouve que je pense que les voies de Google sont pénétrables…

Les 10 arguments (lire le détail aussi sur marketingProfs)
#1- Traffic is generated by participating in the community; not daily posting
#2 – Traffic is irrelevant to your blog’s success anyway
#3- Loyal readers coming back daily to check your posts is so web 1.0
#4 – Frequent posting is actually starting to have a negative impact on loyalty
#5: Frequent posting keeps key senior executives and thought leaders out of the blogosphere (j’aime bien celui là …)
#6: Frequent posting drives poor content quality
#7: Frequent posting threatens the credibility of the blogosphere
#8 – Frequent posting will push corporate bloggers into the hands of PR agencies
#9 – Frequent posting creates the equivalent of a blogging landfill
#10 – I love my family too much