On sait désormais les raisons de l’accord avec l’AFP et AP (ainsi qu’avec la Canadian Press et UK’s Press Association). Google News annonce aujourd’hui qu’il hébergera lui même les dépêches d’agences mettant ainsi fin aux polémiques. Mais derrière l’annonce se cache une petite bombe: en retour Google va filtrer les mêmes dépêches d’agences qu’il référencait jusqu’à présent sur les sites medias. En clair tous les sites qui doivent leur référencement aux flux continus de dépêches vont recevoir une vilaine claque.

MAJ 19h30 : visiblement c’est parti, premier exemple en Une de Google…
afp-google3.gif
J’ai peut être l’esprit tordu mais je sens dans le communiqué de Google une ironie mordante:

"Starting today, Google News users will be able to quickly and easily find original stories from news publishers and go directly to the original source, including stories from some of the top news agencies in the world. This new approach not only enhances the experience for users, it also gives proper recognition to journalists and publishers who work hard to break the news."

Je traduis pour les anglophobes: "Chers journalistes vous nous bassinez avec la qualité et bien on vous les coupe et on va voir ce que vous avez dans le ventre" (traduction approximative). Bien vu. En clair en nettoyant l’index des centaines de duplications de dépêches aspirées ça et là Google News affirme pouvoir mettre en valeur la production originale des différents medias. Mathématiquement ça se tient le contenu original se retrouvant moins "dilué" dans la profusion de dépêche mais cela pourrait provoquer une onde de choc inattendue.

Je publie ici tous les mois le Google News Report (sauf depuis juin pour cause de probleme technique sur l’outil de mesure) qui classe les sources d’information de Google News. J’ai plusieurs fois signalé le problème: beaucoup de sites medias doivent leurs positions dominantes sur Google News aux dépêches d’agence diffusées par centaines chaque jour. Le moteur interprète la récurrence de la même info comme une marque d’importance ce qui donne un bonus aux sources. Ce qu’ont aussi parfaitement compris de nombreux sites de référenceurs. Ce qu’on sait moins c’est qu’une très grosse partie des articles de sites medias ne sont pas accessibles à Google, une fois les dépêches filtrées le stock réellement pris en compte pourrait se réduire à la portion congrue. Bref les statistique du prochain mois pourraient être saignantes.

La grande inconnue : Google News va-t-il identifier les articles basés sur la réécriture partielle des dépêches (un vieux truc largement employé pour s’approprier l’information à peu de frais)? A priori Google explique que les dépêches filtrées resteront tout de même référencées mais apparaîtront dans un classement secondaire pour permettre aux lecteurs de "découvrir les enrichissements et infos supplémentaires apportés par les sites medias". Si Google ne parvient pas à identifier les simili-articles je parie sur une vague de réécriture de titres de dépêches…

"Users will also have the option to click to see all other copies of that article, wherever it has been published, giving them additional opportunities to click through to those publishers’ websites and see extra content, background, and analysis from publishers."

Google continuera bien entendu à référencer et afficher normalement les articles originaux des sites d’information. L’initiative est je dois dire salutaire mais à mon avis il reste encore à faire le nettoyage des sources d’information dans l’index de Google News et clarifier les critères d’intégration.

> Lire l’article tout frais sur Leschos.fr: "Google News élimine les articles de presse copiant les dépêches d’agences"
> L’article de Paidcontent sur le même sujet

L’explication ici à 19h because info sous embargo. Préparez le pop-corn…
Bing c’est l’heure …

Mon camarade blogueur consultant Joël Ronez (special copinage: on s’est connu il y a près de vingt ans, brrrr, dans JPresse une association de fous furieux qui défendait les droits de la presse à l’école) aime le risque et s’attaque à la formation à l’écriture sur le web. Il vient de publier "L’écrit Web, traitement de l’information sur internet" (leçon numéro 1: miam les backlinks…) aux éditions du CFPJ. L’exercice n’est pas facile parce que s’il existe beaucoup de conseils d’écriture sur le web il reste à accomplir la synthèse ultime avec le corpus déjà acquis de l’écriture journalistique.

couv-lecritweb-160.gifOn est encore loin de la somme universitaire, heureusement, il s’agit plutôt d’un guide pratique, synthétique, dans la tradition du CFPJ. On y retrouve d’ailleurs une bonne part des conseils éprouvés destinés aux journalistes débutants preuve qu’en matière d’efficacité les deux mondes se rejoignent assez naturellement. Les conseils de base sur l’organisation du contenu et l’écriture synthétique ne dépayseront personne, le guide y consacre prés d’une moitié de ses pages avant de passer à l’initiation aux tags, l’enrichissement et les indispensables conseils pour l’optimisation et le référencement qui constituent la vraie nouveauté pour ceux qui passent de la culture papier au web. Une bonne idée: les captures d’écran des outils de publication (CMS) pour se familiariser avec les interfaces qui accompagnent notre travail quotidien. Finalement Joël réalise un bon ouvrage d’initiation complémentaire d’une session de formation professionnelle.

Comme j’aime bien chipoter j’ai relevé un point sur lequel j’aurais une vision différente, en particulier pour affirmer une rupture avec l’approche traditionnelle d’un projet éditorial. Il s’agit de l’organisation des contenus. Dans son ouvrage, Joël prend soin, à juste titre d’insister sur la notion de navigation en profondeur afin de marquer la différence avec l’approche linéaire ou horizontale qui caractérise la lecture sur support papier. Mais d’un autre côté il passe rapidement sur l’élaboration du rubriquage finalement très comparable au découpage d’un magazine. Du coup, il n’aborde la question des tags et de la taxonomie qu’en fin d’ouvrage. Conséquence, il dissocie les deux: le découpage du site et la définition du périmètre sémantique du projet éditorial.

Ceux qui me connaissent savent que cette question est mon dada et c’est précisément là que j’enfoncerais le clou. Le projet éditorial ne commence pas par le choix des rubriques (pour faire court) mais justement sur le périmètre sémantique. Le reste en découle. Mon obsession personnelle c’est le site sans rubrique, entièrement structuré par la combinaison de mots clés. Une approche que j’ai pu expérimenter en une seule occasion sur Businessmobile.fr un site que j’ai lancé en 2005.

Quel est le principe? On élabore les grandes lignes du positionnement éditorial et on liste l’ensemble des mots clés qui désignent le champ thématique. A ce stade on peut lister des centaines de mots puis on sélectionne les mots clés pivots qui identifient les thématiques principales du moment. Ces mots serviront à créer ce qui apparaitra comme des "rubriques" sous la forme d’onglets ou de menus.

Quelle différence me direz-vous? C’est que le matériau de base qui servira à structurer les contenus n’est pas le rubriquage mais la liste de mots clés qui définit le champ sémantique. Ces mots seront tout simplement ceux qui seront utilisés pour marquer (les tags) des articles et les indexer, optimiser le référencement et pourquoi pas, plus tard, acheter des mots clés. La base de données qui est la véritable infrastucture du site n’est plus constituée d’une arborescence fixe mais d’une collection de contenus aux attributs nombreux choisis dans une liste fermée.

L’avantage est énorme: le site est consituée d’une arborescence virtuelle que l’on peut modifier à tout moment. Une rubrique n’est plus un tiroir dans lequel on "range" les contenus au risque de devoir tout défaire au prochain remaniement du site. Une rubrique est très exactement un mot clé qui filtre l’affichage des contenus par combinaison de plusieurs mots clés. Plus il y en a plus le filtre est précis. Mais surtout on gagne la possibilité de modifier à tout moment et quasi instantanément le nom des rubriques et leur contenu.

Bref le site est malléable à volonté, on crée autant de rubriques qu’on le souhaite (ou on les supprime) avec une réactivité optimale vis à vis de l’actualité et les tendances du moment. Ce n’est finalement rien d’autre que la technique popularisée par les nuages de tags et les plateformes de blogs (WordPress par exemple a fusionné la notion de rubrique avec celle de tags).

Cette approche à aussi un intérêt pédagogique majeur : le projet éditorial est conçu d’emblée en phase avec l’économie d’échange des contenus qui caractérise les sites de dernière génération. Une logique qui mène naturellement aux tags et au RSS (on génère une infinité de flux RSS à partir d’un volume fixe de contenus). Le journaliste considère ensuite naturellement le site comme un espace réorganisable à volonté et conçoit plus facilement la redéfinition de son rôle autour de l’animation des contenus et leur réexploitation toujours renouvellée.

Bref si je devais donner des cours je commencerais par les tags…

Terrible constat à lire sur Rough Type le blog de Nick Carr: l’effondrement implacable des effectifs de journalistes sur l’ensemble du territoire US. Les statistiques du gouvernement américain font état d’une baisse de 13% de 2001 à 2006. Une estimation semblable de l’American Society of Newspaper Editors faisait état d’une chute de 4% entre 2001 et 2004. En clair le phénomène s’accélère. Pire, on pourrait penser que l’on assiste à un déplacement des postes sur la presse en ligne, mais les effectifs y ont également baissé de 29% entre 2001 et 2006 (probablement dopés par l’effondrement de 2001-2002). Le web ne compense pas.

Nick Carr est connu pour son pessimisme brutal mais la question se pose ainsi: sommes-nous dans une phase de transition de plusieurs années ou assistons nous au déclin irrémédiable d’une industrie. Derrière ces chiffres je vois plusieurs facteurs possibles:

- Il faut le rappeler l’effondrement des revenus de la presse traditionnelle n’est toujours pas compensé par la montée des revenus de la presse en ligne. Malgré une croissance spectaculaire – à deux chiffres – des revenus du web, celui-ci pèse encore rarement plus de 10% de l’ensemble des revenus des groupes. Constat encore plus valable en France. La perte de valeur est réelle, l’ajustement se fait par les effectifs.

- Le web crée beaucoup d’emplois mais proportionnellement peu dans la production de contenus: paradoxe le traitement de la masse de contenus de la presse traditionnelle mobilise encore une grosse partie des ressources. Difficile dans ces conditions de justifier plus de production alors qu’on peine à adapter le "stock" existant.

- Corrolaire: les métiers du web sont majoritairement des métiers liés au développement informatique, l’animation, la gestion, le marketing hors du strict périmètre du journalisme (ce qui peut parfois certainement se discuter)

- Une profusion des nouveaux sites éditoriaux, du blog professionnel aux sites spécialisés, ne revendiquent pas le statut d’entreprise de presse. Je doute que les emplois qu’ils génèrent viennent contrebalancer la tendance mais ils participent au renouvellement des métiers de la presse sans faire partie du compte. Une des raisons pour laquelle je suis revenu sur l’initiative controversée d’un label de presse en ligne.

- Sur le fond je discerne aussi un phénomène beaucoup plus pervers: l’économie du web tolère mal une activité éditoriale qui serait entièrement basée sur la seule production d’information. Le ROI est difficilement envisageable dans ces conditions. Certes nous apprenons à concevoir l’information sous des formes nouvelles, multimédia, à privilégier les services et les bases de données. La quête de l’audience, la nécessité de retenir l’attention et de fidéliser ainsi que les règles impitoyables de l’optimisation pour les moteurs de recherche conduisent à diluer l’activité éditoriale dans des projets périphériques: services commerciaux, espaces communautaires, contenus à faible valeur ajoutée ciblant le loisir, la mode et les distraction ("l’entertainment").

Ce dernier phénomène n’est pas la marque d’une paresse de notre industrie mais le produit de l’optimisation: contenus à faible coût, optimisation du trafic en collant à la demande et aux lubies du moment. C’est aussi la leçon des premiers blogs commerciaux à la engadget: du prêt à consommer à faible coût pour s’adapter à un revenu incrémental faible. En clair je vois se dessiner une nouvelle génération de groupes de presse structurés comme les programmes d’une chaîne télévisé généraliste: douze heures de programmes sur mesure autour de 2 x trente minutes de journal télévisé. Sur lequel se construit, oui, l’image et la crédibilité. Un dispositif ou l’information conserve son importance stratégique mais ne représente qu’une fraction de l’activité.

Dans ces conditions ont peut parier sur un renouveau des médias et des métiers qui les animent mais le transfert ne s’effectuera pas nécessairement au coeur des rédactions. Pour cette raison la tentation d’abandonner le modèle payant en presse me paraît suicidaire si l’on conserve une quelconque ambition en matière de production d’informations. Un groupe de presse pour qui la production d’informations n’est plus qu’une activité secondaire en terme de revenus s’interrogera tôt ou tard, nécessairement, sur sa mission et la nécessité d’investir dans cette activité.

Je crains qu’à ce jeu il n’y ait peu de gagnants…  

Suite et fin d’une saga commencée il y a un an, l’accord entre Les Echos et Netvibes (Disclosure: j’ai pris part à la mise en place du projet) vient d’aboutir à la mise en place d’un service de page d’accueil personnalisée: mesechos.fr. Le service ne dépaysera pas les habitués des pages persos, il s’agit pourtant d’une première mondiale basée sur la toute dernière évolution de la technologie Netvibes. Visuellement c’est (presque) invisible mais le dispositif permet de créer des passerelles entre des pages personnelles existantes et les "univers" aux couleurs des partenaires.

Deux situations: soit vous disposez déja d’une page personnelle et la visite sur un univers comme mesechos.fr vous permet de "piocher" les modules et flux pour les ajouter à votre page, soit vous n’avez pas de page personnelle et mesechos.fr devient l’univers de départ de votre page personnelle. Un dispositif qui n’a pas d’équivalent sur le web actuellement et qui inaugure une nouvelle façon de partager l’information. Pour cette raison aussi il ne s’agit pas d’un dispositif de type marque blanche.

C’est un peu la suite de mon précédent billet sur l’économie du RSS et qui inaugure une nouvelle façon d’exploiter le RSS associé à la technologie des widgets. Comme je l’ai déjà dit, ce type de service vise aussi à démocratiser l’usage du RSS auprès d’un public plus large qui peut ainsi découvrir un mode de consultation alternatif de l’information tout en préservant l’exigence d’un contexte et d’une affinité propre à la marque.   

mesechos.gif

(Note : pour ceux que ça intéresse nous avons aussi créé sur Facebook un groupe des "amis des Echos" qui a eu la primeur de l’annonce du lancement , c’est ici).

C’est un débat ancien qui revient alors que la popularité des flux RSS laisse entrevoir l’opportunité d’une monétisation acceptable. La question est la suivante: pourquoi les éditeurs ne distribuent pas leurs articles au format intégral dans les flux RSS? Débat relancé par Freaknomics, un blog américain qui a l’occasion d’un partenariat avec le NYTimes a du abandonner la distribution de ses billets au format intégral, les publicités n’étant plus affichées que sur les pages web du site du quotidien (et non au sein des flux RSS).

Une contrainte qui ne ravit pas les lecteurs du blog qui doivent désormais cliquer sur les liens du flux RSS pour lire l’intégralité des articles sur le site web. Ce qui, il faut le rappeler, est tout de même une pratique largement majoritaire en ce qui concerne les flux RSS. Une situation qui provoque la colère de Scott Karp sur Publishing 2.0 qui reproche au NYTimes et aux annonceurs un raisonnement dépassé.

 Je comprends la frustration de certains lecteurs et des geeks férus de RSS (j’en suis) mais c’est aussi l’occasion de rappeler que le débat n’est pas aussi simple qu’il en a l’air. Le coeur du débat concerne moins le contenu que la délicate question de la monétisation. Je résume les arguments des deux bords et ajoute les miens:  

Côté pour: 
- Lecture efficace : débarrassé du support web on peut enfin lire les textes sur le support de son choix sans contrainte de navigation. 
- Gain de temps : on ne lit que le contenu voulu, sans distraction
- La monétisation est possible, pub a l’affichage ou à la performance par insertion de liens (popularisé par la régie Feedburner.com)
- Distribution en temps réel des contenus, visibilité normalisée pour chaque article (contre le web où la promotion des articles est inégalement répartie avec le risque d’échapper au lecteur)
- Lien fort avec le lecteur qui témoigne de son attachement à la marque éditrice par une acte d’"abonnement" aux flux.

Côté contre:
- Perte de maîtrise de la distribution de ses contenus (le RSS ne se résume pas à une consommation via des lecteurs de flux par des individus mais aussi la reprise sur d’autres sites web)
- Informations limitées sur les utilisateurs de flux: certes les outils de mesure à la Feedburner ou autres donnent quelques indications mais finalement assez imparfaites et très partielles.
- Pas de cookies ou scripts pour envisager le ciblage et l’analyse: volumes et taux de clics sont les seules données récupérables.
- Pas de "contexte" de lecture pour convaincre les annonceurs et justifier des tarifs spécifiques.
- Taux de clics médiocres: pour être honnête une étude de l’agence marketing Pheedo tend à nuancer ce constat et en particulier la proximité des taux de clics sur les pubs dans les deux types de format, RSS intégral contre RSS partiel. Des taux toutefois en retrait par rapport au web.
- Un point laissé de côté par les commentateurs: quid des revenus de publicités insérées par les éditeurs mais affichées sur les services comme My.Yahoo, My.Google, Netvibes et consorts. Situation identique à ce que l’on connait déja sur les video à la Youtube diffusées sur les plateformes de blogs. Combien de temps avant que celles-ci (qui peuvent bloquer l’intégration des videos ne revendiquent leur part du gateau publicitaire à Youtube?). En clair la situation serait très exactement la suivante: les éditeurs se retrouverait à générer des revenus sur les pages de Google et Yahoo. Celles-ci pouvant à tout moment être refusées par ces "hébergeurs". Ceux qui pensent que les plateformes de consultation des flux RSS ne renvendiqueront pas un jour ces revenus font preuve d’une étonnante naïveté.
- Enfin rappelons-le: l’usage du RSS contrairement à ce qui peut se dire est encore très peu répandu au delà d’une population d’internautes technophiles
- Monétisation encore très faible et CPM difficilement extensibles avec comme corollaire un impossible retour sur investissement sur le coût des articles à quelques exceptions près sur des niches (blogs à faible coûts de production par ex).
- En France l’éternel problème des droits d’auteur peut compromettre ce type de distribution ou sa rentabilité.
- A terme perte d’affinité avec la marque et dilution du media dont l’activité fini par se résumer à une activité d’agence de presse.

 En vérité je comprends tout a fait que du point de vue du lecteur, les éditeurs se privent de répondre à une véritable demande. Une situation paradoxale et dangereuse. Mais la passion des cercles technophiles cache une méconnaissance du contexte juridique de la publication. Pour un lecteur qui consulte un article sur My.Yahoo, il lit son journal autrement. En réalité pour l’éditeur on diffuse son article chez un tiers (je ne parle pas de publication car la consultation reste privée dasn ce cas). 

Il y a certainement une réponse juridique à ce problème mais elle conduit forcément à une négociation pouvant mener à un partage des revenus, difficilement imaginable compte tenu de la rentabilité  encore très aléatoire des activités d’édition en ligne. Elle conduirait de plus à renforcer encore plus le poids des portails lesquels, faut-ils le rappeler, sont totalement incapables de monétiser l’affichage publicitaire au niveau de celui des éditeurs. Pire ils sont responsables du nivellement par le bas des tarifs publicitaires. Ceux qui pensent que Feedbuner remboursera le coût de production de leurs articles n’ont visiblement testé l’engin (où ignorent qu’ils passent à côté d’un niveau de rémunération bien supérieure).

En clair les éditeurs sont parfaitement prêts, techniquement, à distribuer gratuitement des contenus intégraux dans leur flux RSS (apres tout ils le font déjà, ça s’appelle le XML et la syndication) mais les conditions économiques ne sont pas encore favorables à ce type de déploiement et les implications juridiques et commerciales relèvent du terrain miné.

J’ai certainement oublié un certain nombre d’arguments, à vous de compléter…

Beau coup du nouveau site d’information high-tech Intruders TV qui a rencontré  Biz Stone le fondateur de Twitter. Twitter c’est le service OVNI de micro-blogging qui perturbe depuis quelques mois les avis des analystes et qui connait une popularité hystérique. Les analystes resteront sur leur faim, Biz Stone confirme l’absence de modèle économique dans la plus pure tradition des startups et, je le regrette, ne donne aucune indication sur les coûts d’exploitation générés par l’envoi de millions de SMS (Twitter répercute automatiquement les messages aux "amis" de l’expéditeur).

Personnellement je n’éprouve aucune envie d’utiliser Twitter mais j’en reconnais volontiers l’intérêt dans un cercle restreint. La volonté de certains d’en faire une sorte de media alternatif, en particulier aux blogs, me laisse dubitatif. Comme pour Myspace on confond, je crois, les outils de communication interpersonnels (au fond tous dérivés des messageries intantanées) des outils de publication dont la particularité est de permettre la structuration de l’information. Et à terme son exploitation. C’est d’ailleurs la principale différence que je vois aussi entre Myspace et Facebook que l’on compare pourtant volontiers. Mais c’est une autre histoire.

> Video à voir ici

Beaucoup ont noté l’inquiétante médiocrité des annonces publicitaires qui circulent sur Facebook. Cette fois la régie (MAJ: en fait il s’agit d’une des plateformes de diffusion pub utilisée par Facebook et non LA régie) fait la preuve de sa nullité la plus crasse en permettant l’affichage de publicités soi-disant ciblées pour le Front National sur nos pages de profil. On peut en rigoler mais c’est bien la dure réalité des réseaux sociaux ouverts: après de si longs discours sur le ciblage publicitaire, la prise en compte de l’avis de l’utilisateur blabla et blabla, la réalité 2.0 c’est ça et ça ne vaut pas tripette:

 facebook-pub.jpg
Cliquez pour agrandir

Note : Charles Nouÿrit a dégainé sur le même sujet  et créé un groupe de protestation sur Facebook.

MAJ : contrairement à ce que certains sites ont publié, le FN n’est pas à l’origine de la publicité. Je ne donnerai pas ici l’URL du commanditaire mais d’apres mes recoupements j’arrive sur le site d’une société de marketing domiciliée en russie et spécialisée dans "l’optimisation du trafic". Elle diffuse sur Facebook d’autres publicités moins remarquées mais visant à promouvoir le téléchargement d’un logiciel type WebTV. Bref  du haut de gamme.
On a les clients qu’on mérite…

Impensable? C’est pourtant très sérieux et ce n’est pas n’importe où: dans les colonnes du Los Angeles Times! Pour les éditeurs Google, l’aspirateur de news, serait une menace plus effrayante que Ben Laden. Evidemment c’est très exagéré, Ben Laden ne menace pas encore nos données personnelles…

L’article, une tribune non signée, réagit à la décision de Google de susciter les commentaires de personnalités sur Google News, ce qui semble rendre nerveux beaucoup de monde. Elle suscite une réponse assez cinglante du rédacteur en chef de l’Online Journalism Review, Robert Niles, pas content de l’absence de commentaires sur le LATimes et qui renvoit la balle. Un débat qui résume assez bien, quoique de façon caricaturale, la nouvelle querelle des anciens et des modernes en matière de journalisme.

Question: Google News va-t-il solliciter Ben Laden pour commenter l’affront?
Ok j’arrête… 

Skype dans les choux

août 16, 2007

Skype planté depuis ce matin. Ce serait comique si cela ne touchait pas plusieurs millions d’utilisateurs. Le plus drôle c’est que j’ai soupçonné l’équipe technique de mon entreprise d’avoir profité de l’été pour bloquer Skype sur les PC de bureau, désolé les gars…

C’est un couac énorme mais le plus curieux c’est qu’il se déroule dans l’indifférence des medias. Ce soir à 20h30 pratiquement rien sur Google News (du coup personne à contacter pour le droit de réponse … héhé) alors que les blogs mondiaux sonnent le tocsin, merci Technorati! Peut-on imaginer les lignes de France Telecom coupées pendant 24h sans couverture médiatique? Bon c’est vrai qu’aujourd’hui on s’occupe de célébrer Elvis… 

On s’absente quelques jours et l’actualité vient de là où on ne l’attend pas. Google annonce via le blog de l’équipe de Google News la mise en place d’un dispositif permettant aux personnes citées dans les articles repris par Google News de réagir en ligne. Google se chargera de contacter les personnes concernées et publiera les commentaires sans les rééditer.
J’adore la précision sur l’absence de "réédition". On y sent comme une revanche sur certaines pratiques de la presse traditionnelle. D’ailleurs l’initiative a été comprise par beaucoup comme une déclaration de guerre contre la presse. Je ne commenterai pas les inepties de ceux qui voient dans l’initiative un renouveau de la démocratie. J’y vois surtout l’émergence d’une arrogance d’un nouveau genre. Devenu l’intermédiaire ultime (distribution, pub, recherche) Google ne résiste pas à la tentation d’utiliser son nouveau pouvoir. Nous voilà prévenus.

L’initiative a une conséquence non négligeable: en prenant en charge la collecte d’informations et leur mise en ligne Google vient très exactement de franchir la ligne qui sépare l’hébergeur/prestataire technique de l’éditeur. A vrai dire la ligne est franchie depuis longtemps de mon point de vue avec le rachat de Youtube et pour ceux qui en douteraient l’organisation récente du débat sur la présidentielle américaine avec CNN. En devenant éditeur Google va connaitre les affres des éditeurs: sur quels critères choisir les heureux élus, quelle responsabilité sur les contenus de ces "droits de réponse", peut-on répondre aux commentateurs etc, etc … 

Deuxième conséquence: Google News ne pourra plus étre considéré comme un espace neutre. Un fantasme qui ne tenait plus beaucoup tant Google ne parvenait plus à justifier le choix des sources d’information de son portail. Sur le plan éditorial tout ça n’a pas beaucoup de conséquences, n’oublions pas que Google News n’archive pas ses contenus, mais sur le plan juridique Google se lance dans une partie risquée. Il n’est pas impossible que derriere cette initiative se cache une des raisons pour lesquelles Google a entrepris de devenir client des principales agences de presse. Ce sont les dépêches d’agence qui pourraient servir de base au nouveau service (simple hypothèse de ma part).

Dans tous les cas je ne pense pas un instant que cela constitue une menace pour la presse qui dans sa très grande majorité autorise les commentaires. Google News deviendra au mieux un nouvel instrument de RP. En revanche l’initiative pourrait concurrencer la myriade d’agrégateurs de news et autres infomédiaires qui tentent de gagner une légitimité face à un Google News qui a trés peu évolué depuis sa création. Pour ma part je n’attend pas grand chose de ce projet mais je continue à espérer que Google se décidera enfin à prendre ses responsabilités pour filtrer les sources d’informations de son portail sur des critères sérieux et transparents.

Pour en savoir plus:
> Le débat sur Techmeme
> Une analyse sur Ars Technica
> La critique de Techcrunch

Suivre

Recevez les nouvelles publications par mail.