OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Photos de Kadhafi à Paris: l’Elysée s’est trompé http://owni.fr/2011/02/22/photo-de-kadhafi-a-paris-lelysee-a-menti/ http://owni.fr/2011/02/22/photo-de-kadhafi-a-paris-lelysee-a-menti/#comments Tue, 22 Feb 2011 15:26:07 +0000 Jean Marc Manach http://owni.fr/?p=47989 L’Elysée aurait-il censuré les photos de la visite de Khadafi à Paris, et de sa poignée de main avec Nicolas Sarkozy, en décembre 2007 ? C’est en tout cas ce que certains laissaient entendre sur Twitter, relayés en cela par plusieurs articles de presse.

Interrogé par LeMonde.fr, le service Internet de l’Elysée a démenti avoir dépublié des photos de la visite de Mouammar Kadhafi à Paris, tout en déclarant que ces photographies, que personne ne retrouvait plus, n’avaient donc jamais été publiées sur le site : “Tout ce qui est produit n’est pas diffusé en ligne“.

Répondant aux Inrocks, l’Elysée est encore plus catégorique : “C’est totalement faux! Aucune photo de Kadhafi ou de qui que ce soit n’a jamais été enlevée du site de l’Elysée! C’est un mensonge. C’est une information fausse reprise sur Twitter“, l’information y ayant été partagée par @valeriomotta, le responsable web du PS.

On retrouve de fait la trace du reportage photo qu’avait à l’époque consacré Elysee.fr à la visite du colonel dictateur libyen sur le site de la Dépêche, mais, de fait, nulle trace dans la photothèque d’Elysee.fr d’un reportage sur la visite de Kadhafi à Paris.

Or, le moteur de recherche Yahoo montre que trois photos au moins avaient à l’époque été publiées dans une galerie qui, depuis, a effectivement disparu des serveurs d’Elysee.fr. Pour la retrouver, il fallait chercher Qaddafi, et non Kadhafi, l’Élysée ayant pris grand soin d’orthographier le nom du “Guide de la Révolution” libyenne sous sa graphie arabisante :

Et, via Exalead, on retrouve bien la trace d’une photo, encore présente sur Elysee.fr :

Comme le remarque Charles Dufresnes (@rocknrobot) sur Twitter, on retrouve en fait ces photos dans une galerie consacrée au sommet Union Européenne/ Afrique à Lisbonne, qui se tint les 8-9 décembre, juste avant la visite de Kadhafi à Paris.

Les photographies datent bien du 11 décembre 2007, et donc de la visite à Paris, comme l’attestent les propriétés de la petite photo repérée sur Elysee.fr :

Sur la photo, en grand format, on reconnaît même, au fond, Boris Boillon, le nouvel ambassadeur de France en Tunisie, qui était à l’époque conseiller technique pour le Maghreb et le Moyen-Orient.

L’Élysée ne peut donc pas prétendre qu’elles n’ont jamais été publiées sur son site web, mais il ne s’agit pas non plus d’un cas de censure. De fait, on retrouve ainsi sur Elysee.fr un reportage photographique consacré au voyage en Libye de Nicolas Sarkozy, en juillet 2007.

Les photos soi-disant censurées avaient donc juste été importées, dans une autre galerie, lors du lancement de la nouvelle version d’Elysee.fr en mars 2010… Certains ont crié à la censure, et l’Elysee, infoutu -tout comme les journalistes- de les retrouver, peinait à faire accepter le fait qu’il n’avait rien censuré.

Tout le monde s’étant aujourd’hui excité autour de cette non-affaire -et au cas où elles “redisparaîtraient” de nouveau-, les revoilà donc, en grand format :




]]>
http://owni.fr/2011/02/22/photo-de-kadhafi-a-paris-lelysee-a-menti/feed/ 0
Les journalistes papier ne sont pas allergiques au web ! http://owni.fr/2010/07/13/les-journalistes-papier-ne-sont-pas-allergiques-au-web/ http://owni.fr/2010/07/13/les-journalistes-papier-ne-sont-pas-allergiques-au-web/#comments Tue, 13 Jul 2010 14:33:36 +0000 Cedric Motte http://owni.fr/?p=21856 En une année et demie, via la WAN-Ifra, j’ai eu la chance de discuter, préparer, concevoir, et former au web les rédactions de L’Express, de L’Expansion, du Temps, du Télégramme, et dans une moindre mesure celles du Courrier Picard, de L’Equipe, du Progrès.

Autant de journalistes, de rythmes de parution, d’organisations, de cultures et de connaissances d’internet différentes.

Partout, un constat : contrairement à ce que l’on peut entendre de-ci, de-là, les journalistes ne sont pas contre le web.

Il y en a bien quelques-uns, souvent grandes gueules, qui expriment violemment leur mépris du support. Ceux-là sont les plus intéressants à convertir. La tâche est ardue, l’évangélisation parfois fatigante, et l’échec parfois cuisant. Quand on arrive à les faire basculer, ils deviennent d’excellents ambassadeurs.

Il y en a d’autres, parfois proches d’une retraite bien méritée ou au contraire jeunes sortis de l’école, qui ne se sentent pas d’entrer dans une nouvelle ère où c’est l’actualité qui impose son rythme. Effectivement, il est loin le confort de bouclages décidés à l’avance…

Mais il y a surtout une grande majorité – environ 80% – qui est prête à comprendre, essayer, tester. Quel que soit leur niveau de départ, ces journalistes sentent qu’il y a un potentiel.

Dès qu’on leur parle d’autre chose que de course à la vitesse,
qu’on leur explique l’intérêt des réseaux sociaux,
qu’ils mesurent la puissance du journalisme de données,
qu’ils vibrent à l’adrénaline du direct,
ou qu’ils imaginent le plaisir à faire du web-documentaire,
alors ils sont psychologiquement prêts à faire du web.

Pourtant, en interne, ils râlent et traînent des pieds. Quels sont les freins à leur participation au site ?

1. Un manque notable de stratégie globale

C’est, en tout cas, comme ça que le vive la plupart des journalistes. Souvent à raison, parfois à tort. Dans ce cas, le manque de suivi dans la communication de la part des dirigeants est un drame.

Quelle qu’en soit la raison, c’est sans aucun doute le frein principal. “Si au moins on savait un peu où on va, ce serait plus simple de s’investir” ; “De toute façon, ils font tout au doigt mouillé“.

2. Une organisation pas adaptée

De ce manque de stratégie découle un manque d’organisation. Fatalement, quand vous ne savez pas où aller, vous tirez un peu tout azimut en essayant de maintenir un semblant de certitudes. Pourtant, personne n’est vraiment dupe. Il y a un moment où il faudra *vraiment* réfléchir.

Jusqu’ici les états-majors se sont posé une unique question : “bon, comment faire rentrer un peu de web là dedans ?”. Pas de bol, c’est la mauvaise ; la bonne est bien plus large et mérite un billet à part entière.

3. L’existence de castes savamment entretenues par les rédactions papier

Le web, c’est un peu une feuille de chou numérique” ; “Les p’tits jeunes, ils sont sympas hein, mais franchement, ils ne font pas du journalisme“. Effectivement, il ne font pas *que* du journalisme. Ils inventent un nouveau média. C’est peut être le fait d’avoir raté le train qui rend les old school journalistes parfois aigris.

Ces réflexions, dispensées allègrement de-ci, de-là, amènent à découper la rédaction en castes. Il y a les “vrais”, et les autres.

4. Les équipes web développent un sentiment d’infériorité

Face à ce rabaissement permanent, les *effectivement plus* jeunes journalistes numériques osent à peine “demander” à leurs aînés. Il faut du courage pour aller expliquer à un grand reporter de 52 ans que “oui, ce serait bien que son papier pour le web soit rendu avant midi, parce qu’après il est un peu trop tard.

Pour faire court, les équipes web sont faiblement armées pour imposer ce qui doit l’être.

5. L’absence d’explication sur l’audience du site

Contrairement à toute attente, c’est aussi par les chiffres que l’on peut convaincre. L’idéal serait d’avoir des chiffres comptables positifs à présenter, afin de montrer la capacité du web à générer des revenus, mais c’est encore un peu tôt…

En attendant, savoir ce qui marche, pourquoi, avec quel temps passé, quelle organisation, voilà des explications qui ne sont jamais – et là pour le coup je pèse mes mots – données. Sans doute pour ne pas vexer les uns et les autres.

Un obscurantisme que l’on trouve aussi parfois dans le papier. Certains journaux font des vus-lus qu’ils ne montrent pas à la rédaction. La raison est simple : certaines rubriques, considérées comme nobles au sein du journal – comme l’international dans un quotidien régional – ont des taux de lecture proches de zéro. Quand les journalistes pensent participer à la défense de la démocratie, comment leur expliquer que leur travail quotidien ne participe de pas grand chose…

Tout est là, pourtant. Les outils de stats permettent d’avoir une multitude de données, mais cela ne suffit évidemment pas.

Les moyens d’accès sont si multiples sur le web qu’il est indispensable d’expliquer le contexte. Il ne faut *jamais* envoyer un simple “Top 10 des articles les plus lus”. Mise en avant sur la page d’accueil pendant telle durée, présence dans la newsletter, dans le flux RSS, liens depuis d’autres sites, etc. Autant de facteurs qui expliquent le succès ou l’échec d’un dossier.

Pour faire cela, le temps est colossal. Vraiment. Et il n’est pas à la portée de tout le monde. Se plonger dans les chiffres n’est pas franchement dans l’ADN des journalistes. Pourtant, c’est indispensable pour comprendre le média.

6. La sensation que le plaisir n’est pas possible

Un frein qui peut paraître étonnant. Après tout, on est au boulot.

Pourtant, ne levez que celui-ci, et tous les autres freins disparaissent par enchantement. Le plaisir est un message que j’essaie de faire passer lors de mes interventions. On peut s’éclater sur le web, les formats sont magiques, le rapport au lecteur est quelque chose d’étonnant et travailler en équipe (avec des graphistes, des designers, etc) est, en fait, rafraîchissant.

D’ailleurs, ceux qui y ont goûté deviennent accro.

Le web, par son aspect technique, est un apprentissage ingrat, proche de la musique. Oui, il faut faire un effort, oui il faut répéter, rater, se concentrer. Mais quand cela fonctionne, que vous recevez des messages de félicitations, que vous avez la sensation de participer à un débat intelligible, alors le plaisir est décuplé par rapport à l’onanisme dérisoire de voir son article placé en Une. C’est… autre chose.

__

Billet originellement publié sur Chouing Media sous le titre “Oui, les journalistes papier sont motivés par le web“.

Crédit Photo CC Flickr : Plasmonyc, transformée en #lolcat par Martin sur une idée de Sabine.

]]>
http://owni.fr/2010/07/13/les-journalistes-papier-ne-sont-pas-allergiques-au-web/feed/ 19
Journalistes, vous avez une opinion, ne la cachez pas! http://owni.fr/2010/07/12/journalistes-vous-avez-une-opinion-ne-la-cachez-pas/ http://owni.fr/2010/07/12/journalistes-vous-avez-une-opinion-ne-la-cachez-pas/#comments Mon, 12 Jul 2010 07:52:18 +0000 Michael Arrington http://owni.fr/?p=21706 Je suis choqué de voir que les journalistes continuent à être punis, voire renvoyés, pour avoir exprimé leur opinion sur les sujets qu’ils couvrent. CNN a très récemment mis fin au contrat d’Octavia Nasr sur la base d’un tweet faisant l’éloge d’un ancien leader du Hezbollah. Le mois dernier, Helen Thomas a été obligée de démissionner à cause de ses déclarations sur Israël.

L’année dernière, le Washington Post a contraint ses journalistes à ne pas exprimer leurs opinions sur les médias sociaux : “cela pourrait être perçu comme reflétant des partis pris politiques, raciaux, sexistes, religieux ou autres qui pourraient ternir notre crédibilité journalistique.” Et la liste continue.

Un moyen détourné de me mentir

Je pense que les journalistes devraient avoir le droit de donner leur point de vue sur les sujets qu’ils traitent. Plus important encore, je pense que les lecteurs ont le droit de savoir quelles sont ces opinions. Franchement, je préfèrerais savoir à l’avance à quel point les gens de CNN ou de Fox News sont fous. Les empêcher de me fournir cette information est simplement un moyen détourné de me mentir.

Il y a quelques années, j’ai assisté à un diner à New York, en compagnie d’un journaliste très connu qui couvrait les informations nationales importantes, et particulièrement la politique. Il était dans le secteur depuis un long moment (le début des années 70) et nous avons eu une conversation édifiante autour de la collecte et de la conception de l’information, et sur la manière dont la technologie transforme l’industrie.

À un moment donné, je lui ai demandé avec désinvolture ce qu’il pensait du président Bush comme leader. Il est devenu très sérieux et m’a répondu qu’il ne commenterait pas. Curieux, je lui ai alors demandé quel parti politique emportait sa préférence. Là encore, il n’a pas répondu. Il m’a dit qu’il était important pour lui de garder cela secret pour que personne ne puisse lui reprocher un quelconque parti pris dans sa couverture des évènements.

Voilà qui  a pimenté la conversation.
Il a admis qu’il soutenait certains hommes politiques et pas d’autres et qu’il avait tendance à voter pour un seul et même parti. Il ne voulait simplement pas donner de noms. Et c’est le moment où je suis devenu sérieusement perplexe. Et je le reste. En tant que journaliste expérimenté, il voyait son métier comme le fait de présenter l’information de façon équilibrée et impartiale. Exprimer publiquement ses tendances politiques pourrait mener les gens à voir son travail différemment.

Le noyau dur de la formation

Je voulais lui démontrer que ses lecteurs avaient besoin de connaitre ses a priori politiques pour replacer le contenu qu’il leur propose dans son contexte. Il me semble presque impossible de ne pas intégrer ce type de parti pris dans ses articles. Il n’était pas d’accord et m’a fait remarquer que le noyau dur de sa formation était justement de parvenir à l’objectivité. Bien évidemment, son penchant était assez clair : il détestait Bush avec passion. Mais je ne suis pas parvenu à lui faire dire.

Il a tort. Un adjectif placé par ici, un paragraphe ajouté là, la bonne citation d’une source au bon endroit et voilà, vous êtes en présence d’un article exprimant une opinion mais avance sous le masque de l’objectivité pure.

J’ai été témoin de ce genre d’articles plus souvent qu’à mon tour, ce qui fait que j’ai tendance à ne pas accorder d’interview aux journalistes que je ne connais pas ou en qui je n’ai pas confiance. Il suffit d’un lapsus et tout l’article tourne autour, même si c’est hors-contexte. Le message d’ensemble est alors noyé sous la petite phrase qui donne au journaliste l’angle dont il a besoin.

Dans un article qui date de l’année dernière, je défendais l’idée que le journalisme collaboratif [NDT : "Process Journalism" en anglais] n’était pas une mauvaise chose, et qui bien au contraire il s’agissait là de la meilleure manière de développer ses articles :

Je frissonne toujours quand j’entends des journalistes dire “ne dites rien, trouvez une source pour le dire et citez-la”. Cela conduit à de terribles situations. Prétendre que l’on écrit sur un sujet alors qu’en fait on s’intéresse à tout autre chose pour ensuite tordre ce que vous disent vos sources pour cadrer avec ce que votre rédacteur en chef vous a demandé d’écrire n’est pas du journalisme éthique. Ces pratiques sont peut-être en accord avec ce que vous avez appris en école de journalisme, mais il s’agit en réalité de tribunes [NDT: "op-ed" en anglais ne connaît pas d'équivalent en français] sans faits réels pour appuyer l’argument.

Vous pensez qu’il est insensé de dire que les journalistes traquent les citations dont ils ont besoin pour raconter l’histoire qu’ils ont envie de raconter ? Et bien Tim O’Reilly avoue que cela a eu lieu très récemment :

Frustré par le reportage du New York Times sur Microsoft, j’ai été plutôt surpris de trouver des citations qui émanent de moi dans l’article d’Ashlee Vance. L’auteur a écrit une tribune comme si elle ne faisait que rapporter mes commentaires.

Nous sommes beaucoup critiqués chez Techcrunch pour produire des articles clairement biaisés. Et cela malgré le fait que nous exprimons nos opinions très clairement, parfois même dans le foutu titre.

Une combine à laquelle les journalistes sont habitués pour gagner en crédibilité

Ce n’est pas du journalisme, selon certains. Bien, je suis d’accord avec ça. Mais on ne peut pas être accusés d’être malhonnêtes avec nos lecteurs. Nous décrivons les choses comme nous les voyons. Nous ne manipulons pas les faits et n’inventons pas d’histoires. Nous ne partons pas à la recherche de citations pour les retravailler et les placer en soutien à l’article que nous voulons écrire, nous ne faisons que l’écrire. D’autres personnes peuvent écrire des articles différents présentant d’autres opinions. Et le lecteur peut tous les lire et en faire son propre billet de blog avec une tout autre opinion. Chacun dispose d’une imprimerie aujourd’hui, et l’encre est gratuite. Cela a changé le monde, et le journalisme a besoin de changer avec lui.

Le fait est qu’il est impossible pour un être humain d’écrire quelque chose qui ne soit pas subjectif. Nous ne sommes pas des robots, nous sommes humains. Au moment même où vous avez choisi le sujet de votre article, vous avez fait le choix subjectif de passer du temps à traiter ce sujet au lieu d’un autre. Tout découle de cela. Lisez attentivement l’article sur Microsoft vers lequel Tim O’Reilly renvoie et vous verrez surgir le parti pris de l’auteur entre les lignes.

Cela n’était pas si clair pour moi jusqu’à ce que je me mette réellement à produire de l’information. Je peux à présent lire n’importe quel article et vous dire en un clin d’œil quel est le parti pris de l’auteur, subtil ou pas. Toutes ces conneries sur l’objectivité dans le journalisme peuvent être analysées comme une combine à laquelle les journalistes sont habitués pour gagner en crédibilité auprès du public, qui y croit.  Il va falloir que j’écrive un autre article, ou un peut être bien un libre, pour étayer cet argument.

Voilà de quoi commencer diffuser ces idées au plus grand nombre, que chacun puisse en juger.

Billet initialement publié sur Techcrunch

Illustration CC FlickR par TarikB

]]>
http://owni.fr/2010/07/12/journalistes-vous-avez-une-opinion-ne-la-cachez-pas/feed/ 9
Jeff Jarvis: repenser l’écosystème de l’information http://owni.fr/2010/07/06/jeff-jarvis-repenser-lecosysteme-de-linformation/ http://owni.fr/2010/07/06/jeff-jarvis-repenser-lecosysteme-de-linformation/#comments Tue, 06 Jul 2010 16:39:59 +0000 Guillaume Ledit http://owni.fr/?p=21274 Cela fait un moment que Jeff Jarvis, sur son blog et ailleurs, essaye de redéfinir l’avenir des médias en ligne. Il revient au cours d’une conférence à la Columbia Business School sur certains des aspects qui l’intéressent le plus.

Optimiste de nature, Jeff Jarvis estime qu’il existe de nombreux nouveaux business models pour l’information, et que le discours déprimant et fataliste traditionnel peut être remise en cause. Notamment celui qui vise à accuser Internet de tous les maux.

Cliquer ici pour voir la vidéo.

De la gestion de la rareté à l’offre de service

Aujourd’hui, nous n’en sommes pas au moment où une nouvelle grosse entreprise maligne remplace les anciennes grosses entreprises. Nous sommes déjà dans un écosystème où plusieurs acteurs opèrent de différentes manières, et ce avec des business models variés.

L’hyperlocal est un des éléments de ce nouvel écosystème, bien qu’il faille maîtriser les techniques du marketing pour pouvoir en vivre. Là où il y a une immense marge de progression, c’est dans les relations entre les blogueurs “hyperlocaux” et  les commerçants. Ceux-ci ne veulent pas de bannières ou de publicités qui clignotent, ils veulent du service.

Jarvis propose donc d’aller de la gestion de la rareté à l’offre de service.

Si les entreprises de presse doivent s’adapter aux mutations en cours, ce n’est pas une raison de supprimer le journalisme d’investigation, qui créé une image de marque et positionne le journal.

Éloge de la petite entreprise en réseau

Pour qu’une entreprise qui produit de l’information soit bénéficiaire, il faut qu’elle soit de petite taille. Ainsi, le Washington Post et sa rédaction de 750 employés aura énormément de mal à être rentable en ligne, alors que pour un entrepreneur qui démarre, c’est faisable. Pour autant, personne n’a envie de voir disparaître le Washington Post. L’une des solutions pourraient être de créer une multitude de blogs qui seraient autant de micro-entreprises fondées sur la confiance construite au cours des ans.

Nous allons donc vers une ère de réseau, dans laquelle différents agents indépendants participent au même projet.

Ces réseaux peuvent être créés dans une optique “non-profit”, mais ce n’est pas forcément l’idéal, tant il est difficile de savoir si le marché  supportera cela.

D’un point de vue de la pratique journalistique, ils se passent des choses intéressantes au sein de ces écosystèmes. Les journalistes participant à un projet en réseau le font souvent au sein de leur propre entreprise, et développent des relations plus étroites avec leurs lecteurs.

La valeur est dans la relation

Douze pages sont consultées en moyenne par utilisateur et par mois sur les sites des grands médias d’information.

C’est “honteusement” faible, selon Jarvis, qui rappelle que Facebook a le même taux, mais par jour. L’importance de la communauté est ici une nouvelle fois soulignée.

Il s’agit de transformer la manière dont on considère l’information. Chez Google, Marissa Mayer (vice-présidente de Google, en charge des produits de recherche et des services aux  utilisateurs) pense que l’on s’oriente vers un flux d’information hyper-personnalisé. Organiser la sérendipité inhérente au web grâce à un algorithme est une idée étrange pour Jarvis.

La question est donc de savoir comment on accède aux informations. Auparavant, on le faisait uniquement par l’intermédiaire des marques-médias. On s’est ensuite mis à rechercher l’information, ce qui inverse la relation. Les algorithmes ont tenté quant à eux de gérer le flux d’information. Les liens établis par des êtres humains sont aujourd’hui au centre de l’accès à l’information.

Dans son ensemble, Google génère 4 milliards de visiteurs vers les sites d’information. C’est ensuite à eux de développer une relation avec les personnes que Google leur envoie. Et comme le dit Jeff Jarvis dans une invective directe à Rupert Murdoch :

S’ils ne le font pas Monsieur Murdoch, c’est leur putain de faute.

Jeff Jarvis enjoint ainsi de repenser l’ensemble de l’architecture de l’information, afin de comprendre comment valoriser la relation avec les lecteurs : les paywalls sont pour lui une aberration, il faut pouvoir faire ce qu’on fait de mieux, pour renvoyer au reste (“Publish the best, link to the rest”).

]]>
http://owni.fr/2010/07/06/jeff-jarvis-repenser-lecosysteme-de-linformation/feed/ 25
Comment les grands de la presse font leurs liens? http://owni.fr/2010/07/05/comment-les-grands-de-la-presse-font-leurs-liens/ http://owni.fr/2010/07/05/comment-les-grands-de-la-presse-font-leurs-liens/#comments Mon, 05 Jul 2010 17:33:57 +0000 Jonathan Stray http://owni.fr/?p=20588 Les liens peuvent ajouter beaucoup de valeur aux articles, mais la profession de journaliste dans son ensemble a pris du temps pour les prendre au sérieux. C’est ma conclusion après plusieurs mois de discussion avec les journalistes et leurs employeurs sur les pratiques en matière de liens. J’ai également effectué un relevé du  nombre et du type de liens de centaines d’articles.

Wikipedia dispose d’un guide sur les styles de liens contenant près de 5.000 mots. C’est peut-être excessif, mais au moins c’est détaillé. Je me suis demandé ce que les professionnels des rédactions pensaient des liens, j’en ai donc contacté un certain nombre et leur ai demandé s’il existait des instructions données aux journalistes dans ce domaine. J’ai eu des réponses, mais parfois des réponses vagues.

Dans ce billet, je reproduis ces réponses, et dans le prochain, je discuterai les résultats de mon enquête sur la façon dont les liens sont en fait utilisés sur les sites d’une douzaine de médias d’information.

Jeff Jarvis a raison: "Si vous ne voyez pas pourquoi les gens feraient un lien vers ce que vous écrivez, ne l'écrivez pas"

La BBC a rendu public ses intentions en matière de liens dans un billet du 19 mars du responsable du site Steve Herrmann.

Les liens relatifs ont de l’importance : ils font partie de la valeur que vous ajoutez à votre article – prenez-les au sérieux et faites-les avec soin ; proposez toujours le lien vers la source de votre article quand vous le pouvez ; si vous mentionnez ou citez une autre publication – journal, site – faites un lien vers eux : vous pouvez, si c’est approprié, faire des liens profonds [deep link NDT] ; c’est-à-dire un lien vers la page spécifique d’un site, celle qui correspond au sujet.

J’avais déjà demandé à Herrmann des détails et rapporté ses réponses. Puis j’ai envoyé ce paragraphe à d’autres médias d’information et leur ai demandé leur politique en matière de lien. Un porte-parole du New York Times a écrit :

Oui, le conseils que nous proposons à nos journalistes sont très proches de ceux de la BBC, en ce que nous les encourageons à inclure des liens, quand c’est approprié, vers les sources et d’autres informations pertinentes

La personne en charge du Washington Post, Raju Narisetti, fait des remarques semblables mais souligne que le Post encourage les liens profonds.

Alors que nous n’avons pas encore de guide formel sur les liens, nous encourageons activement les reporters, en particulier nos blogueurs, à linker vers des sources en ligne pertinentes et fiables, en dehors du site du Washington Post. Ce faisant, nous les encourageons à être contextuel, en établissant des liens  vers un contenu spécifique plutôt que vers un site générique afin que nos lecteurs atteignent l’information dont ils ont besoin rapidement.

Pourquoi une personne ne ferait-elle pas un lien vers la page exacte ? Dans le monde de la publication d’informations, le lien profond est un vieux sujet à controverse, qui a commencé avec l’affaire Shetland Times vs. Shetland News en 1996.

The Wall Street Journal et Dow Jones Newswires ne communiquent pas autour de leur politique de lien, comme un porte-parole me l’a expliqué :

Comme vous pouvez le constater sur le site, nous faisons des liens vers de nombreux sites de news et des sources extérieurs. Mais malheureusement, nous ne discutons pas publiquement de nos politiques, nous n’avons donc personne pour développer le sujet.

À partir de ces remarques, j’ai confirmé que Dow Jones Newswires ne faisait pas de liens vers des sources fiables même si elles étaient disponibles en ligne. J’ai trouvé un article qui révélait une information sur une entreprise, recherché la source de cette info sur le site de la Bourse et appelé le journaliste pour savoir si c’était bien la source de son article, ce qu’il a confirmé. Il serait pourtant injuste de désigner Dow Jones comme l’unique mauvais élève, parce que les fils d’informations et agences de presse ne pratiquent pas beaucoup le lien. 

L’Associated press n’inclut pas de liens dans ses articles, bien qu’ils ajoutent parfois des liens dans la rubrique “Sur le Net” en bas des articles. Un porte-parole nous explique :

Pour faire court, c’est une contrainte technique. Nous avons expérimenté l’inclusion de liens depuis une année environ mais nous avions des difficultés étant donné la grande variété de systèmes, en amont et en aval, qui se servent de nos articles. L’AP compte beaucoup d’abonnés, dont 1500 journaux et des milliers de sites commerciaux.

Reuters a différentes manière de faire des liens  à partir d’articles issus de la production de son bureau professionnel, incluant des liens vers des documents et des articles anciens de Reuters, bien que ces liens ne soient pas toujours des URL standards. Leurs dépêches n’incluent pas de liens. Un porte-parole, en off, m’a expliqué que, comme AP, beaucoup de leurs clients ne pourraient pas traiter les liens inclus – et aucun éditeur  ne veut être forcé à retirer manuellement le HTLM embeddé. Elle a aussi dit que Reuters se considère comme une source d’information faisant autorité qui peut être utilisée sans faire de plus amples vérifications. Je comprends son point de vue mais je ne le considère pas comme une raison de ne pas pointer vers des sources publiques.

Les fils d’informations et agences de presse sont dans une situation délicate. Non seulement beaucoup de leurs clients sont incapables de traiter du HTML mais il est souvent impossible d’inclure des liens dans des dépêches – soit parce qu’ils ne sont pas en ligne, soit parce qu’ils sont repris sur plusieurs sites d’abonnés.

Cela souligne un problème non résolu avec l’abonnement et le lien en général : si chaque abonné au flux publie les articles  sur son propre site, il n’y a pas d’URL de référence qui peut être utilisée par le créateur du contenu pour se référer à un article en particulier. (AP réfléchit à cela.)

Ce genre de problème technique constitue définitivement une barrière, et des personnels de plusieurs rédactions m’ont dit que leur CMS développé pour le print ne gère pas bien les liens. Il n’y a pas non plus de standards pour classer les articles avec des liens – une copie peut être faite en word mais il est improbable que les liens survivent en étant plusieurs fois envoyés par mail, coupés et collés, et passés à travers plusieurs systèmes différents.

Mais les obstacles techniques n’ont pas beaucoup d’importance si les journalistes n’accordent pas assez de valeur aux liens pour les inclure dans leurs articles. Dans la discussion avec les membres de différentes rédactions, j’ai fréquemment entendu que les enjeux culturels sont un obstacle. Quand le papier est considéré comme ce qui prime, ajouter des liens est ressenti comme du travail supplémentaire pour le journaliste, plutôt que comme un aspect essentiel de la mise en forme du storytelling. Certains éditeurs suspectent aussi les liens d’“envoyer les lecteurs vers d’autres sites”.

En lisant entre les lignes, il semble que la plupart des rédactions ont encore à s’engager fortement à faire des liens. Cela expliquerait le caractère flou de certaines des réponses que j’ai reçues, où les médias d’information “encouragent” leurs journalistes ou propose un “guide” sur le lien. Si, comme je le crois, les liens sont une partie essentielle du journalisme en ligne, alors la profession a un boulevard pour exploiter le medium digital. Dans mon prochain post, j’analyserai quelques chiffres sur la façon dont différents médias d’information utilisent les liens actuellement.

Article initialement publié sur le Nieman Lab ; les liens sont en anglais ; traduction Sabine Blanc et Guillaume Ledit.

Crédits photos CC Flickr …-Wink-…

]]>
http://owni.fr/2010/07/05/comment-les-grands-de-la-presse-font-leurs-liens/feed/ 5
Bienvenue dans la newsroom des géants du web http://owni.fr/2010/06/07/bienvenue-dans-la-newsroom-des-geants-du-web/ http://owni.fr/2010/06/07/bienvenue-dans-la-newsroom-des-geants-du-web/#comments Mon, 07 Jun 2010 15:13:33 +0000 JCFeraud http://owni.fr/?p=17651

Ton vaisseau-mère Gutenberg a fait naufrage ou divague déboussolé en attendant le coup de grâce final du grand orage digital ? Viens à moi pauvre petit journaliste perdu dans l’immensité du cyberspace comme un astronaute bientôt à court d’oxygène…

C’est ce que j’ai cru entendre ce week-end, lorsqu’au hasard de mes divagations sur le Web, je suis tombé sur plusieurs indices informationnels laissant à penser que les Titans de l’ère numérique seront bientôt les seuls employeurs à bien vouloir recruter et payer des journalistes pour pisser de la copie sur tous les écrans de notre vie. Mon rédac chef s’appelle Yahoo! ou AOL… ce n’est plus de la Science-Fiction. C’est déjà demain !

Yahoo! en pince pour les blogs du HuffPo

Voyez ce papier de TechCrunch, le site d’info biztech du toujours bien informé Michael Arrington. Le truc dit en substance que Yahoo! veut croquer tout rond le gentil Huffington Post dont je vous parlais dans mon précédent billet. Pour moi le HuffPo était censé montrer la voie à la vieille presse : marier le meilleur des blogs à de l’info sérieuse (avec un zeste de people et de sexe) pour proposer le tout gratuitement aux internautes avides de scoops et d’humeur… on avait enfin trouvé la recette miracle pour exploser les chiffres d’audience et obliger ces radins d’annonceurs à sortir enfin leur chéquier !

De fait ce site fondé il y a tout juste cinq ans cartonne aujourd’hui au point de talonner la version online du prestigieux “New-York Times” avec 13 millions de visiteurs uniques aux US et 22 millions au niveau mondial. Sa trajectoire semblait toute tracée : l’enthousiaste Henry Blodget de Business Insider voyant même le Huffington Post rivaliser un jour en toute indépendance avec CNN !

Pwnd

Et Patatra voilà que TechCrunch assure que Yahoo ! et Ariana Huffington la taulière du HuffPo en sont à parler gros sous : le site d’info le plus “trendy” du moment serait valorisé entre 125…et 360 millions de dollars sur la base de son chiffre d’affaires qui double tous les ans (30 millions cette année, 60 millions prévus pour l’an prochain).

Bien plus en tout cas que ce que vaut un vieux journal papier comme “Le Monde”. Tout prestigieux soit-il, le grand quotidien du soir s’apprête à se vendre pour à peine 60 à 80 millions d’euros à l’étrange attelage constitué par le “mécène” Pierre Bergé, le banquier “rock’n roll” Mathieu Pigasse et le fondateur de Free “il à tout compris” Xavier Niel. A moins que ce soit à Claude “SFA” Perdriel, le patron du “Nouvel Obs”…mais c’est une autre histoire.

Agrégateur plus que producteur

Revenons à nos géants du Net en plein trip Citizen Kane. Yahoo!, qui en pince aujourd’hui pour les blogs du HuffPo, a une longue expérience en matière d’agrégation de contenus: le portail a toujours proposé à ses visiteurs de l’info (actualités générales, sports, entertainment…) grâce à des partenariats avec des agences de presse et des journaux. Et il n’en est pas à son coup d’essai en matière d’incursion journalistique : en 2003, Yahoo ! avait même envoyé quelques reporters “embedded” couvrir l’invasion de l’Irak, la chute de Saddam et la traque aux armes de destruction massive qui n’existaient pas.

Mais à l’époque la chute des icônes high-tech à Wall Street avait mis fin à l’expérience. Aujourd’hui, le groupe californien semble donc tenté de constituer autour de lui un petit empire de médias susceptible de lui fournir de l’info prête à consommer.

Mais il pourrait miser plus sur le journalisme participatif que sur les professionnels de la profession: Yahoo! a racheté pour 100 millions de dollars Associated Content, un agrégateur de news syndiquant des milliers contributeurs non professionnels qui écrivent des articles, prennent des photos, proposent des contenus vidéos…

Selon TechCrunch, le groupe de Carol Bartz est bel et bien décidé à satisfaire lui-même ses énormes besoins en contenus. Reste à savoir si Yahoo! France suivra demain sa maison-mère dans cette stratégie médiatique. Pour l’heure, cela ne semble pas à l’ordre du jour.

AOL construit son usine à produire de l’info

Yahoo! n’est pas la seule firme Internet à vouloir devenir auto-suffisante en infos. Fraîchement divorcé du géant américain des médias Time Warner, le concurrent AOL a carrément entrepris d’embaucher une armée de journalistes dans le cadre de son programme Seed : 500 rédacteurs salariés travaillent d’ores et déjà pour la compagnie dirigée par Tim Amstrong (sur la photo, il est en cravate:  regardez comme il est content).

AOL employerait par ailleurs près de 3500 journalistes à la pige. Pas besoin d’aller chercher loin pour recruter : aux Etats-Unis, 10.000 journalistes se sont retrouvés au chômage entre 2007 et 2009… AOL alignerait donc au total 4000 plumitifs, soit le nombre de salariés actuellement employés par le “New-York Times” et le “Herald tribune” réunis. Tout ce joli monde écrit de la news à la chaine pour alimenter les 80 sites thématiques (actualité, finance, automobile, loisirs, famille, culture etc…) agrégés par AOL pour 30 à 300 dollars le feuillet en fonction du statut (petite main ou grande signature). Avec un seul mot d’ordre : “satisfaire la curiosité des internautes”. Mais AOL France, qui a licencié la plupart de ses salariés et ressemble de plus en plus à un agrégateur fantôme, n’a aucun projet en ce sens chez nous.

Tim Amstrong définit Seed comme une “content powerhouse”, autrement dit une “usine à contenus”. Ça a le mérite d’être clair. Et la firme internet basée à Dulles près de Washington fait elle aussi son marché. AOL a récemment racheté le site de news “hyperlocales” Patch pour 50 millions de dollars. L’info de proximité et les petites annonces qui vont avec sont furieusement tendance ces temps-ci. Et puis aussi StudioNow qui produit des contenus vidéo…

Google engrange : pourquoi s’emmerder avec des journalistes ?

En revanche, Google, qui a plutôt mauvaise presse en ce moment dans la profession, n’envisage toujours pas, à ce jour, de devenir un producteur de news. Un cadre dirigeant de la filiale française me l’a encore redit l’autre jour.

“Pourquoi s’emmerder avec des journalistes fort en gueule ou geignards quand on se fait des “golden balls” sans bouger le petit doigt ?”.

Bon c’est sûr c’était plutôt formulé comme ça :

“Notre mission, c’est d’organiser le monde de l’information pour les internautes et non de produire de l’information”.

Mais l’idée était là. Au tournant des années 2000, la plupart des journaux ont naïvement abandonné leurs contenus à Google News en pensant bâtir un business-modèle internet viable à partir de l’audience que leur apportait le “gentil” géant de l’internet.

On connaît la suite de l’histoire : l’idée que l’info était gratuite sur le web s’est installée dans l’esprit des internautes et la presse n’a jamais vu la couleur du grisbi qu’elle attendait de la publicité en ligne. La pub ? Elle a fait la fortune de Google qui a engrangé l’an dernier près de 25 milliards de dollars de chiffre d’affaires : le géant de Mountain View truste aujourd’hui 90 % du marché des liens sponsorisés, quand les bannières des sites de journaux sont achetées par les annonceurs à un coût pour mille d’usurier.

... mais pour combien de temps?

Et Rupert Murdoch a beau traiter Google de “vampire” et menacer de lui interdire de référencer ses journaux (entre autres le “Wall Street Journal” et le “Times” de Londres) pour aller dealer avec Microsoft et son moteur Bing…il ne l’a toujours pas fait six mois après ses déclarations va-t-en guerre.

Alors pourquoi changer une formule gagnante : je pompe ton info gratos, je fais mon beurre dessus tout en faisant mine de t’offrir des “solutions” pour monétiser tes contenus. Début avril, le boss de Google Eric Schmidt se disait encore “confiant” sur la manière dont les journaux allaient “se sauver par eux-mêmes” en utilisant les fantastiques possibilités du web. Sacré farceur ! Il faut voir comment la culture internet a du mal à pénétrer les vieilles rédactions papier et le peu d’enthousiasme des lecteurs à payer pour lire des articles auxquels ils avaient jusque-là accès gratuitement…Et ce n’est pas l’iPad d’Apple qui devrait changer la donne d’un coup de sainte tablette magique.

Gaffe la source des news fraîches se tarit

Mais contrairement à Google, d’autres grands dévoreurs de “contenus” gratuits comme Yahoo!, AOL et quelques autres (Microsoft bientôt ? Après tout le géant du logiciel a bien lancé Slate.com dans les années 90 avant de le revendre en 2004) ont bien compris qu’à force de saper l’économie sub-claquante des journaux de l’ère Gutenberg, ils risquaient bien de tarir la source où ils viennent siphonner de la “news” fraîche ! Car au train où vont les choses, il n’y aura bientôt (dans 3 ans ? 5 ans ?) plus de grands quotidiens ni de bons journalistes en état de produire de l’actualité “à l’ancienne”. Or le consommateur, tout comme la nature, a horreur des rayonnages vides, surtout dans l’univers informationnel en perpétuelle expansion du cyberspace…

Les géants de l’Internet se mettant à produire de l’info pour leur propre compte, on en parlait déjà il y a dix ans. Mais quand la bulle a éclaté, la plupart des stars du Web ont enterré l’idée de faire du journalisme maison au fond d’un serveur et on n’en a plus parlé. Aujourd’hui elle revient en force vu l’état de décomposition avancé dans lequel se retrouve la vieille presse. Histoire centenaire ou non, des centaines de journaux à travers le monde ont du stopper leurs antiques rotatives ces deux ou trois dernières années, envoyant pointer au chômage des milliers de journalistes… ceux là même qui rêvent aujourd’hui de se faire embaucher par Yahoo! ou AOL !

Pour eux tout n’est pas perdu si la réponse est négative. Car voilà que nos amis communicants se mettent eux aussi en tête d’ “embedder” des journalistes. Prenez ce récent papier de “The Independent” qui révélait la récente embauche de l’ancien patron de BBC News Richard Sambrook par le cabinet de relations publiques américain Edelman…Le titre de la nouvelle recrue est très parlant : “Chief content officer”. Sa mission : produire des messages Canada Dry qui puissent passer aux yeux du public pour de la bonne information millésimée !

“Le nouveau mantra c’est que chaque entreprise doit devenir un media de son propre chef, raconter ses propres histoires non plus à travers de simples sites Internet, mais via des contenus vidéos, du divertissement, sur l’iPad et les téléphones mobiles”,

expliquait récemment ce cher Mister Sambrook avec l’enthousiasme des nouveaux convertis ! C’est ce qui s’appelle passer du côté obscur de la force… Et vous chers confrères, seriez-vous prêts à vous servir de ce que vous avez appris dans la grande presse, à renier tout ce à quoi vous avez cru pendant des années (Tintin, Albert Londres, Hunter Thompson…), à enterrer vos rêves de gosse en treillis de grand reporter pour aller vous vendre à la première agence de pub venue ?

Conseil d’ami aux confrères

Well, et bien à choisir, si je pointais au chômage (évitons, il fait vraiment froid dehors même si c’est bientôt l’été), je préférerais peut-être aller bosser pour Yahoo ! et AOL… Après tout les journaux sont déjà devenus “des entreprises comme les autres” (argh c’est un fait).

Alors quitte à bosser pour une entreprise, autant choisir un secteur d’avenir : l’Internet of course. C’est là qu’on recrutera demain ceux qui ne savent rien faire d’autre que raconter l’histoire au jour le jour. Et tant pis si l’on y perd au passage ses sept semaines de vacances, ses RTT, sa carte de presse, la réduction d’impôts et l’entrée libre dans les musées qui vont avec…Quand à se faire des “golden balls”, il ne faut pas trop en demander quand même.

La bulle Internet c’était il y a dix ans déjà. Les salaires de misère actuellement pratiqués dans les rédactions Web sembleront donc tout à fait indiqués à vos futurs employeurs. Alors conseil d’ami : si vous êtes journaliste en poste dans un “vrai” journal, estimez vous heureux d’avoir encore un boulot par les temps qui courent et essayez de le garder le plus longtemps possible avant d’aller toquer à la porte de nos amis Yahoo ! et AOL. Sans parler de celle des communiquants.

Illustrations CC Flickr > Thomas Hawk, RogueSun Media , Somewhat Frank, sonicbloom

Article initialement publié sur Sur Mon Écran Radar

]]>
http://owni.fr/2010/06/07/bienvenue-dans-la-newsroom-des-geants-du-web/feed/ 4
Sites de presse magazine: la vitesse contre la qualité http://owni.fr/2010/04/12/sites-de-presse-magazine-la-vitesse-contre-la-qualite/ http://owni.fr/2010/04/12/sites-de-presse-magazine-la-vitesse-contre-la-qualite/#comments Mon, 12 Apr 2010 17:44:07 +0000 Marc Mentré http://owni.fr/?p=12099

Photo CC Flickr Felipe_Barreto

Aujourd’hui, la plupart des groupes de presse en France sont engagés dans une réflexion —et engagent de profondes réformes— sur l’organisation de leurs rédactions. Celles-ci doivent-elles être « bimédia », la rédaction « papier » doit-elle alimenter le site web et dans ce cas dans quelles conditions ? Qui doit avoir le final cut ? Est-ce la rédaction en chef du papier, celle du web, ou encore une rédaction en chef arbitre ? Quelle place doit avoir le secrétariat de rédaction ? Etc. Autant de questions étudiées dans une enquête inédite réalisée par la Columbia Journalism Review, et publiée en mars 2010.

Menée par sondage (auquel répondirent 665 journalistes ou responsables de rédaction), cette étude ne concerne pas les quotidiens, mais exclusivement, comme son titre l’indique, les « Magazines and Their Web Sites » américains [l'enquête ici - Pdf - payant: 25 $].

L’un des principaux enseignements de l’enquête est la profondeur du « gouffre », selon le mot de l’une des personnes interviewées, qui existe encore entre les journalistes « papier » et ceux du web. « Tous les jours, on répète à chaque employé ‘soyez au service de vos fans, soyez au service de vos fans, soyez au service de vos fans‘, jusqu’à ce qu’ils en soient imprégnés », explique un ancien rédacteur en chef du site d’EPSN. Les journalistes « papier » ne peuvent pas se retrouver dans ce type de propos, expliquent Victor Navasky et Evan Lerner, dans leur article d’analyse, Tangled Web, publié dans la Columbia Journalism Review.

En fait, expliquent-ils, les gens du web, même « s’ils ne favorisent pas toujours  la vitesse [c'est la règle du jeu sur le web, insistent les deux auteurs] sur la précision ou l’élégance du style, l’intègrent en fait dans l’équation, et ils le font d’une manière qui tend à saper les standards journalistiques traditionnels ». À l’inverse, les journalistes « papier » regardent le site « comme un produit inférieur », et considèrent parfois les gens du web « comme des citoyens de seconde-classe ».

Une position qui ne pourra guère être tenue longtemps, car maintenant de plus en plus de contenus sont d’abord développés pour le site avant d’être réutilisés par le magazine papier.

Voici les 6 points principaux :

1 – La qualité de l’information est dégradée sur le web

Le principal est le plus spectaculaire enseignement de l’étude est sans doute la diminution de la qualité de la production. Dit autrement, l’information sur les sites web est moins vérifiée [moins "fact-checkée"], moins éditée qu’elle ne l’est sur le papier, ce quelle que soit la taille du site web et du magazine et que le site soit rentable ou non.

Certes, on peut se féliciter que 89% des sites (de magazine) étudiés aient adopté un système d’édition [a contrario, 11% n'en ont pas], mais si 41% ont la même procédure d’édition pour le papier et le web, près de la moitié (48%) des groupes de presse a adopté un système moins rigoureux pour le web que pour le papier.

Ce premier résultat doit être affiné : il apparaît que ce sont les sites « importants » —c’est-à-dire ayant plus de 50.000 visiteurs uniques par mois—, qui sont les moins rigoureux dans l’édition ainsi que ceux qui sont « rentables » [par opposition aux sites "non rentables"]. Un résultat totalement contre-intuitif. La différence est du même ordre lorsqu’un site est dirigé par un rédacteur en chef « indépendant » [comprendre "indépendant" du papier] : il est nettement moins édité que lorsqu’il l’est par un rédacteur en chef papier, ce qui n’est pas le cas lorsque c’est l’éditeur [publisher] qui a la main, comme l’illustre le graphique ci-dessous :

Source : Magazines and Their Web Site – CJR

Les blogs associés au site souffrent d’une même déshérence, puisque seule la moitié est éditée et seulement un quart « fact-checké », ce qui est peu selon les normes éditoriales américaines.

Pour ce qui concerne la correction des erreurs « après publication », le bilan n’est guère plus brillant :

  • près de 9 fautes mineures  (coquilles, fautes de typo, fautes d’orthographe) sur 10 sont corrigées sans que le lecteur en soit informé ;
  • près de la moitié (45%) des erreurs factuelles (erreurs de date, de lieu, etc.) sont corrigées sans que le lecteur en ait connaissance ;
  • un tiers environ (37%) des erreurs factuelles sont corrigées et font l’objet d’une note détaillant la nature de l’erreur ;
  • 6% laissent l’erreur telle quelle sur le site, mais rédige une note corrective ;
  • 1% regroupe toutes les erreurs dans une section spéciale du site.

2 – Le « papier » dirige le web

Ici, très clairement les sites web n’ont pas acquis leur « indépendance », puisque dans les domaines de décision aussi important que le budget, le contenu et la conception [look and feel] du site, les rédacteurs en chef web ne sont respectivement que 11%, 19% et 33% à avoir la main. Inversement, près des trois quarts des rédacteurs en chef papier (72%) décident du contenu du site web. Le graphique ci-dessous montre très clairement que le « papier » conserve la haute main sur le web, en particulier pour ce qui concerne le contenu et le « ton » adoptés sur le site.

Source : Magazines and Their Web Sites – CJR

Or, cette situation semble être contre-productive, puisque les sites web dont le budget est contrôlé par des rédacteurs en chef « papier » ont pratiquement deux fois plus de chance d’être en déficit (40%) que bénéficiaires (21%). Ce constat se vérifie par le fait que les sites « rentables » ont dans la majorité des cas (67%) leur budget contrôlé soit par un rédacteur en chef web, soit directement par l’éditeur [publisher].

3 – Inutile d’avoir une expérience préalable pour travailler sur le web

Naïvement, on pourrait penser que pour travailler sur le web, il faut avoir été formé pour ce type de travail, ou du moins avoir une expérience dans ce domaine. L’enquête fait l’effet d’une douche froide. En effet, 59% des personnes « apprennent à travailler pour le web lorsqu’elles sont en poste », autrement dit « sur le tas », et seulement 29% sont embauchées avec une expérience web préalable.

En revanche, la coordination « papier » et web semble être une notion qui progresse, mais là encore il faut nuancer :

  • 63% des magazines étudiés ont un « groupe éditorial » qui supervise à la fois les contenus papier et web, dans le sens de contenus « exclusivement produits pour le web ».
  • 20% ont des rédactions séparées « papier » et web, sachant que 6% n’ont pas de relations régulières, alors que 14% discutent du contenu et ont une forme de partage de la charge de travail ;
  • 16% n’ont pas de contenu web spécifique, ce qui signifie que le contenu provient exclusivement du « papier ».

4 – Une forte présence sur les réseaux sociaux

Les magazines américains (du moins leurs sites) ont pris la mesure de l’importance des blogs, puisque 64% d’entre eux ont une plateforme de blogs, et des réseaux sociaux, sur lesquels près de la moitié (47%) ont une présence active, 28% une pratique irrégulière et 23% en sont absents. Twitter et Facebook sont les deux outils plébiscités, tandis que Myspace, Reddit, Delicious et dans une moindre mesure LinkedIn ou Digg sont considérés comme moins efficaces.

Les blogs sont essentiellement alimentés (à 84%) par les rédacteurs du site ou du « papier », mais un gros tiers des sites (39%) utilisent aussi des pigistes ou des auteurs sous contrat. La décision de créer des blogs est facilitée lorsque ce sont des rédacteurs en chef web qui ont la main sur le budget. Ces derniers laissent d’ailleurs plus facilement la bride sur le cou à leurs blogueurs. En effet, lorsqu’ils sont les décideurs, le contenu de près de 4 blogs sur 10 peut-être considéré comme étant plus ou moins indépendant du système de contrôle éditorial du magazine. Ce n’est pas le cas lorsque la décision revient à un rédacteur en chef « papier » : seul 2 blogs sur 10 peut alors avoir un contenu « plus ou moins indépendant ».

5 – Des statistiques sous-exploitées

Près de la moitié des responsables de magazines (43%) n’utilisent pas les statistiques de trafic. Ils ne sont que 39% « à avoir une bonne compréhension des contenus qui ‘marchent bien‘, et à posséder cette information lorsqu’ils prennent leurs décisions éditoriales », et seuls 8% suivent réellement de très près ces statistiques, considérant « que c’est un de leurs principaux facteurs de décision ».

6 – La publicité clé de la rentabilité

Pas de miracle : seul un tiers des sites de magazine étudiés dans cette enquête sont rentables (32%), avec une tendance caractéristique : plus la périodicité du journal « papier » s’allonge, moins le site a de chance d’être rentable, à la seule exception des sites de bimensuel [cet "accident" est peut-être dû à la faiblesse de l'échantillon observé], comme le montre le graphique ci-dessous :

Source : Magazines and Their Web SItes – CJR

Par ailleurs, il est préférable que le magazine « papier » ait une diffusion supérieure à 2 millions d’exemplaires, car c’est à partir de ce seuil que la proportion de sites rentables augmente, puisque dans cette catégorie 42% des sites le sont. La règle du « plus on est gros, plus on a de chances d’être rentable » s’applique aussi en terme de trafic, puisque seuls 21% des sites ayant moins de 50.000 visiteurs uniques par mois s’avèrent rentables, contre 62% de ceux qui ont plus de 2 millions de visiteurs uniques par mois.

Sous-jacente à la question de la rentabilité, se pose celle de la gratuité du contenu. L’enquête  montre que 65% des sites qui dégagent un bénéfice sont gratuits. Un résultat qui se comprend : la publicité sur le site est de très loin la principale source de ressources, distançant toutes les autres ressources comme la vente de produits, les dons, les abonnements au site ou au papier, ou encore l’accès aux archives ; chacun de ces postes représente quelques pour cents des ressources des sites. Pour les sites rentables cette distorsion s’accroît encore. Pour 83% d’entre eux, la publicité représente la principale source de revenus.

Billet initialement publié sur Mediatrend

]]>
http://owni.fr/2010/04/12/sites-de-presse-magazine-la-vitesse-contre-la-qualite/feed/ 4
I wanna be a Gonzo journalist! http://owni.fr/2010/03/21/i-wanna-be-a-gonzo-journalist/ http://owni.fr/2010/03/21/i-wanna-be-a-gonzo-journalist/#comments Sun, 21 Mar 2010 10:41:39 +0000 JCFeraud http://owni.fr/?p=10542

hunter

Hunter S. Thompson était au journalisme ce que Kerouac, Burroughs et Bukowski furent à la littérature et aux excès en tous genres. Comme son imposante biographie signée William McKeen sort ces jours-ci en français sous le titre “Journaliste et Hors la Loi” (critique à venir sur ce blog), je devrais en parler au présent.  Mais j’en parle au passé. Car Hunter Stockton Thompson est mort un peu oublié, à 68 ans, le 20 février 2005 à Aspen Colorado. Mais aussi parce que la conception du métier qu’il incarnait et a inventé- le “gonzo journalism” – ce journalisme de récit littéraire, subjectif, sauvage et halluciné (pour en savoir plus allez faire un tour sur Gonzo.org) - est aujourd’hui en voie de disparition. Tout comme le journalisme d’investigation. Et en bonne partie pour les mêmes raisons.

Quel quotidien, quel magazine “sérieux” publierait un article commençant par ces lignes aujourd’hui ?

“Étranges souvenirs par cette nerveuse nuit à Las Vegas. Cinq ans après ? Six ? Ça fait l’effet d’une vie entière, ou au moins d’une Grande Époque — le genre de point culminant qui ne revient jamais. San Francisco autour de 1965 constituait un espace-temps tout à fait particulier où se trouver. Peut-être que ça signifiait quelque chose. Peut-être pas, à longue échéance… mais aucune explication, aucun mélange de mots ou de musique ou de souvenirs ne peut restituer le sens qu’on avait de se savoir là et vivant dans ce coin du temps et de l’univers. Quel qu’en ait été le sens…”

(“Las Vegas Parano”)

Hyperformatage

Dans la plupart des médias, la narration écrite, sonore et visuelle est désormais hyper-formatée. Accroche, déroulé, chute… tous les sujets sont traités à la même moulinette normative. Chaque article, chaque lancement radio ou télé doit rentrer dans le même cadre préétabli. Surtout ne pas surprendre, ne pas déstabiliser le lecteur, l’auditeur, le téléspectateur…

Le journaliste français, notamment, s’aventure de plus en plus rarement en dehors des techniques journalistiques et des clôtures stylistiques acquises lors du fameux double cursus “idéal” Sciences Po + CFJ. Cela tombe bien : les journaux sont de moins en moins demandeurs de reporters, enquêteurs, chroniqueurs et autres aventuriers plumitifs qui sortent du cadre. Ils n’en ont plus ni l’envie ni les moyens. Place à l’info standardisée et aux économies d’échelle rédactionnelles. Envoyer un Gus faire le gonzo journaliste dans le désert du Nevada au moment où la presse coule à pic comme le Titanic ? Vous n’y pensez pas !

Incapable de s’adapter à la révolution internet, d’inventer de nouveaux modèles pour faire payer l’information dans un monde où la gratuité est la règle, la vieille presse est en déroute. Les grands quotidiens, les grands magazines, sont paniqués comme des “Newsososaures” devant le raz-de marée numérique qui balaie leur monde. Leurs ventes au numéro s’effondrent, leurs recettes publicitaires fondent comme neige au soleil sous l’effet du grand réchauffement digital. Et la nourriture nécessaire à leur survie se fait rare : il n’y a pas ou peu de nouveaux revenus sur le Web. Les annonceurs tirent les prix de la pub toujours plus bas et les internautes ne veulent pas payer pour l’info comme l’a encore démontré récemment une étude du Pew Research Center.

Leur débandade aurait fait ricaner Hunter S. Thompson, lui qui, par nature, adorait le chaos porteur de processus créatif . Ses articles et ses récits qui sont devenus des livres comme “Hells Angels” (une formidable enquête de terrain qui le conduira à l’hôpital après ce qu’il qualifia de “querelle éthylique spontanée”) ou encore “Las Vegas Parano” (un reportage sur une course de motos dans le désert qui se transformera en quête mythique du rêve américain sous LSD) en sont les meilleurs témoignages.

J’entends d’ici le rire sardonique de ce véritable émeutier du journalisme qui dans les Sixtie’s publia les meilleurs articles du moment sur le mouvement hippie dans le “New York Times”, avant de travailler pour “Esquire” ou “Rolling Stone”, puis de signer un contrat d’auteur dont les agents de Random House se souviennent encore. Plutôt que de se lamenter avec les pleureuses de la “Mediapocalypse”, rions un peu avec Hunter et cette petite vidéo compilant les meilleures scènes du film adapté de “Las vegas Parano” (avec Johnny Depp méconnaissable dans le rôle de Thompson).

Mais c’est vrai, un peu de sérieux, car dans la débandade de ces dinosaures de l’info, c’est tout un écosystème professionnel et démocratique qui est aujourd’hui menacé.

En route vers l’info-burger


Le processus se déroule sous nos yeux :

- Dans un premier temps,
les rédactions des journaux sont décimées par les plans sociaux. Et désincarnées par la rationalisation quasi-Tayloriste du travail à coup de nouveaux systèmes informatiques et de production “online” en batterie. Les journalistes survivants – majoritairement les plus jeunes et les moins expérimentés, les plus souples et les moins forcenés – sont alors soumis au diktat du “marketing éditorial” et de concepts venus d’outre-Atlantique dont le principal avantage est de pallier le manque de moyens humains (le “data journalisme”auquel j’ai consacré ce billet à charge en est un bon exemple). C’est ce que nous vivons depuis déjà plus d’une décennie dans le métier.

- Conséquence mécanique de cette logique 100 % comptable qui veut que les journaux deviennent “des entreprises” (et rien que cela) déclinant leur “marque” (sic), et l’information “un produit” (et rien que cela), c’est le nivellement par le bas des exigences morales et professionnelles qui menace, la perte de sens et des repères déontologiques qui guette. Nous sommes en plein dedans.

- Au stade final, on assiste au dépôt de bilan et à la fermeture des journaux, puis à la disparition progressive du pluralisme de l’information écrite au profit des mêmes dépêches dupliquées à l’infini sur Google News et des médias audiovisuels qui privilégient de plus en plus la forme sur le fond…quand ils ne sont pas au journalisme ce que le fast-food est à la restauration.
journaliste-et-hors-la-loi

C’est sûr, Hunter S. Thompson n’aurait pas du tout aimé cela. Il partirait dans de folles diatribes, cracherait par terre en soufflant la fumée de son éternel fume-cigarette par les oreilles, agonirait d’injures les responsables de ce désastre : le Kapital, les patrons de journaux, les journalistes, les lecteurs, la technologie, Internet, les internautes, la consommation, le prêt à consommer, l’inculture et la culture du vide… bref collectivement NOUS.

Mais dans le désastre qui fait aujourd’hui de la presse une Siderurgie 2.0 (j’emprunte le concept à Pierre Chappaznous sommes encore quelques uns, journalistes professionnels, a essayer des chemins de traverse, faute de pouvoir prendre le maquis. On nous accuse d’être réactionnaires, rétifs au changement, aux “réformes” (le mot a tellement été “retourné” comme un gant sur le plan sémantique). Parce que nous n’adhérons pas à la logique du flux pour le flux, du toujours plus avec moins, du journalisme “Shiva” multitâches, du rédiger toujours plus court, toujours plus vite, toujours plus mal… Parce que nous moquons les nouvelles modes et refusons l’illusion que le tout-technologique sera la Panacée de la crise des médias. Ce scientisme est parfois poussé jusqu’à l’absurde : avez-vous déjà entendu parler du “robot-journalisme” auquel j’ai consacré ce billet ?


Aux avant-postes du front numérique


Mais dans les faits, ceux qui restent attachés à la mission première du métier (la recherche d’une information originale, sa vérification, sa narration dans les règles de l’art pour le plaisir d’écrire et de lire) sont souvent aux avant-postes du front numérique. Au coeur de l’expérimentation journalistique ET technologique. Dans le partage communautaire de l’info avec les confrères ET les lecteurs. Sur les blogs, sur Twitter, ou ailleurs
Nous sommes mêmes quelques uns, quadras et quinquas élevés au lait quotidien des “A la” et des bouclages à l’ancienne, à avoir faire notre mue 2.0 voire 3.0. Bref à être débarrassés de tout sentimentalisme pour l’ancien monde de l’ imprimé. Celui de Gutenberg, des rotatives, des grèves du Livre CGT et des liasses de journaux livrés aux kiosques aux premières lueurs de l’aube. Laissons le mourir ce vieux monde puisque les lecteurs d’aujourd’hui n’en veulent plus (… mais pas trop vite quand même car il nous fait encore bouffer ;-).

Regardez autour de vous dans les métro parisien : il y a certes encore des gratuits entre les mains des voyageurs (puisque ce sont des gratuits), mais “Libé”, “Le Monde” et les autres quotidiens payants sont des espèces en voie de disparition. Les moins de 35 ans consomment désormais  l’info sur l’écran de leurs smartphones, leurs ordis et bientôt leurs tablettes. C’est irrémédiable.
Qu’il meure donc ce vieux monde du papier puisqu’ il va forcément renaître sur le Web sous d’autres formes (la nature a horreur du vide et savoir ce qui se passe dans le monde ou en bas de chez soi est l’un des grands besoins essentiels de l’humanité), en donnant naissance à de nouvelles expériences journalistiques individuelles, collectives et communautaires. [A ce propos spéciale dédicace à tous ceux qui tentent de réinventer le journalisme en le mettant à l'heure du web participatif, chez Rue89, Owni.fr Electron Libre, j'en oublie...et à ceux qui remettent au goût du jour le journalisme de récit comme les gens de la revue "XXI"].

Et puisqu’il faut savoir terminer un billet, je parlerai donc d’Hunter S. Thompson au présent : “I wanna be a gonzo journalist” ! Je l’ai exprimé d’une autre manière dans d’autres billets. Je le redis ici. L’époque n’est pas porteuse pour le journalisme de récit, d’enquête et de reportage avec du panache, du nerf et des tripes .Ce journalisme engagé qui revendique l’honnêteté subjective plutôt que de s’abriter derrière une fausse objectivité bien hypocrite est pourtant à mon sens l’un des meilleurs moyens de ramener le lecteur à s’intéresser à la presse.
Car le lecteur est sans doute moins con qu’on ne le croit : quand on lui sert autre chose que de l’info-burger et de l’eau tiède, il en redemande. Et si on le surprend, on l’interpelle, il est prêt payer pour voir, lire, apprendre, voyager et s’aventurer hors des frontières de  l’actualité pré-machée. C’est en tout cas ma conviction. L’époque est peut-être aux OS de l’info et au “temps de cerveau disponible”.

Mais il n’est pas trop tard pour changer l’époque. Cela tombe bien la révolution numérique va nous y aider.
Jean-Christophe Féraud
]]>
http://owni.fr/2010/03/21/i-wanna-be-a-gonzo-journalist/feed/ 7
Data journalism : pourquoi les médias français ne s’y mettent pas ? http://owni.fr/2010/03/08/data-journalism-pourquoi-les-medias-francais-ne-s%e2%80%99y-mettent-pas/ http://owni.fr/2010/03/08/data-journalism-pourquoi-les-medias-francais-ne-s%e2%80%99y-mettent-pas/#comments Mon, 08 Mar 2010 10:39:24 +0000 Caroline Goulard http://owni.fr/?p=9630

Pourquoi les médias français se sont-ils si peu saisis du data journalism, à la différence des médias anglo-saxons ? Quelques éléments de réponses ont déjà été apportés : par Valérie Peugeot sur www.lavoixdudodo.info et par Elodie Castelli sur www.journalismes.info. Après les études de cas, je vous livre ici ma synthèse. L’occasion de vous faire partager les enseignements tirés de cinq entretiens, réalisés en janvier dernier avec Hubert Guillaud, Jean-Marc Manach et Charles Népote de la Fing, avec Fabrice Epelboin de RWW France et avec Nicolas Voisin de Owni.fr.

Comment expliquer le peu d’empressement des rédactions françaises à s’emparer du journalisme de données ? Plusieurs facteurs se combinent, certains relèvent des rédactions, d’autres de leur environnement

Côté rédactions :

Des rédactions en manque de moyens financiers…

Tout d’abord, côté rédactions traditionnelles, la plupart consacrent très peu de ressources à la R&D, et donc à du journalisme d’expérimentation, comme de la visualisation de données. La presse quotidienne n’en a tout simplement pas les moyens, les pure players difficilement. La presse magazine ou le secteur audiovisuel pourraient peut-être parier sur le journalisme de données, mais la crise économique ne les incite pas à de tels investissements.

Quelques exceptions néanmoins : l’Express.fr a recruté deux documentalistes pour réfléchir sur la structuration de données (plus d’info sur le blog d’Eric Mettout) ; France 24 mène un gros travail autour du Web sémantique au sein de son Lab (plus d’info sur le blog de Mikiane)

… en manque de moyens humains

Les rédactions ne sont pas seulement appauvries sur le plan financier, elles manquent aussi de ressources humaines. Car le data journalism nécessite du temps et des compétences : en datamining, en statistiques, en développement, en web-design, en interaction design, en sémiologie visuelle…

Actuellement, personne en France n’a réussi à réunir le bon mix de compétences. Pourtant, c’est sans doute ce qui fait le succès des visualisations du nytimes.com depuis deux ans : le titre fait travailler ensemble des ingénieurs, des infographistes et des journalistes, tous payés le même salaire et sur un même pied d’égalité. Rien à voir avec l’état d’esprit des rédactions françaises, dans lesquelles les « informaticiens » sont déconsidérés.

Ce cloisonnement des rédactions est sans doute un peu moins prégnant lorsqu’on s’intéresse aux rédactions web, mais il n’en reste pas moins un frein au développement du data journalism en France.

… en manque de culture web

Tout simplement, les rédactions traditionnelles n’ont souvent pas l’intuition du data journalism. La plupart du temps, elles ont un train de retard par rapport aux développements du web. Les écoles de journalisme commencent juste à intégrer le journalisme d’innovation et le web dans leurs enseignements. Pour beaucoup des acteurs de ce secteur, cela reste encore un truc de « geek ».

… en manque d’approche statistique

Ce manque d’intuition n’est pas sans rapport avec une culture journalistique très française. Une certaine hagiographie du journalisme made in France prend racine dans l’opposition « facts vs fiction » : opposition entre le journalisme de faits à l’anglo-saxonne et le journalisme littéraire et d’opinion du pays d’Albert Londres. La mythologie journalistique française sacralise la belle plume et le subjectivisme. Sur ce terreau pousse la défiance de nombreux journalistes envers tout ce qui pourrait paraître trop rationaliste, trop technophile ou trop américain.

A ceci s’ajoute la faible culture mathématique, statistique et scientifique de bien des rédacteurs de presse généraliste.

Aversion à mettre les mains dans les données brutes, malaisance avec les valeurs chiffrées, crainte de voir les techniciens commander les rédactions : autant de sensations diffuses qui ne facilitent pas la reconnaissance du data journalism en France.

Pour trouver quelques affinités entre la visualisation de données et l’histoire française, il faut sortir du champ journalistique et se pencher sur celui de la sémiologie. En particulier, la sémiologie graphique, inventée en France par Jacques Bertin, aborde les problématiques de visualisation d’informations géographiques.

Des journalistes américains au service des communautés locales ?

Enfin, une dernière hypothèse pourrait expliquer l’affinité des médias anglosaxons avec le data journalism. Les journalistes américains se considèrent peut-être plus comme étant au service d’une communauté.

Aux États-Unis, les journalisme de données s’est beaucoup développé à l’échelon local avec du crimemapping et des services pratiques (les horaires d’ouvertures des magasins, par exemple). La référence en la matière reste EveryBlock d’Adrian Holovaty : un « agrégateur-visualiseur » de données micro-locales (critiques de restaurants, prix de l’immobilier, etc.).

Les données jouent un rôle important dans la valorisation des territoires. Le journalisme de données, au niveau hyperlocal, peut ainsi être utilisé par les rédactions pour générer de la proximité avec les communauté d’habitants pour lesquelles elles travaillent.

Côté environnement :

Une autre dimension doit être prise en compte : le journalisme de données ne dépend pas uniquement des journalistes, mais également des données à leur disposition.

Une culture de la transparence différente entre la France et les pays anglo-saxons

Et, là aussi, la France est à la traine par rapport aux Anglo-Saxons. Les États-Unis et la Grande Bretagne se sont illustrés par leurs mouvements d’ouverture des données : avec les sites gouvernementaux data.gov et data.gov.uk, mais aussi avec de puissants militants de la cause de l’opendata, la Sunlight Foundation aux États-Unis, et le datablog du Guardian en Grande Bretagne.

Ici encore, on pourrait invoquer un fossé culturel : la culture anglo-saxonne de la transparence dans la gestion publique n’a pas d’équivalent en France. La campagne « Give us back our crown jewels », portée par le Guardian en 2006, ne pourrait pas avoir d’écho sur nos terres républicaines. Pourtant elle a joué un rôle important dans la libération des données publiques en Grande Bretagne. Le Guardian a ainsi activement milité pour que les données collectées grâce à l’argent du contribuable britannique soient accessibles gratuitement, afin de stimuler l’innovation. Il a joué un rôle d’exemplarité en ouvrant ses propres bases de données (DataStore) et en organisant un concours d’applications basées sur ces données libérées. (Voir à ce sujet l’article de Jean Marc Manach « Les joyaux de la couronne n’appartiennent à personne »)

Pas de consensus sur la valeur économique de l’ouverture des données en France

Dans son plaidoyer pour l’ouverture des données, le Guardian insistait sur l’enjeu économique de l’ouverture des données publiques : une meilleure valorisation des données stratégiques, plus de services, plus d’opportunités commerciales, plus d’innovation, moins d’asymétrie informationnelle et donc des marchés plus efficients, et au final, un plus grand dynamisme économique.

En France, il n’y a pas de consensus sur la valeur économique des données publiques. Les entreprises dont l’activité repose sur la privatisation de données n’ont pas intérêt à leur ouverture. L’avantage économique de la libération des données ne s’est pas imposé face aux gains espérés de leur monétisation via la vente de licences. C’est ainsi, par exemple, que l’IGN continue à faire payer l’accès à une importante partie de ses bases de données. (voir ce précédent post pour plus d’info)

Les conditions juridiques de la réutilisation des bases de données

Sans aller jusqu’à dire que l’appareil juridique français est un frein à l’ouverture des données, il faut garder en tête certaines particularités de notre doit des bases de données.

Premier point : le droit d’auteur. Les données brutes ne sont pas, en elles-mêmes, soumises au droit d’auteur mais une base de données peut-être protégée par le droit d’auteur si elle découle d’un acte de création intellectuelle, c’est à dire si elle témoigne d’une originalité caractérisée. L’auteur de la base de données jouit alors d’un monopole d’exploitation de son œuvre (droits patrimoniaux) ainsi que de droits au respect de l’intégrité de son œuvre et au respect de sa paternité sur l’œuvre (droits moraux).

Deuxième point : le droit des producteurs de bases de données. Lorsque que la création d’une base de données nécessite un investissement financier, humain et matériel substantiel, le droit des producteurs reconnaît au créateur un droit de protection analogue à celui de l’auteur sur son œuvre. Cette disposition est destinée à protéger l’investissement des personnes qui prennent l’initiative et le risque économique de créer une base de données. Cette protection garantie au producteur de la base de données un monopole d’exploitation, il peut interdire toute extraction substantielle de données de sa base.

Pour plus de détails voir la très bonne synthèse de Didier Frochot sur les-infostratèges.com et l’étude de la jurisprudence par Bernard Lamon.

Troisième point : la CNIL et les dispositions relatives à la protection de la vie privée. Toute base de données impliquant des données nominatives et/ou personnelles doit faire l’objet d’une déclaration à la CNIL. La collecte et la conservation des données d’une telle base sont également soumises à conditions (voire le site de la CNIL pour plus d’info). De même, doit être soumis à la CNIL tout croisement de bases de données qui aboutirait à qualifier des données personnelles.

L’enjeu de la structuration des données

Enfin, l’ouverture des données repose avant tout sur un enjeu d’accessibilité. Certes, on trouve aujourd’hui de nombreuses données chiffrées sur des organismes publics ou privés. Mais bien souvent ces données sont perdues au milieu de fichiers pdf, éparpillées entre des masses de texte, scannées en format image… et lorsqu’il s’agit de croiser de bases de données, on se retrouve face à des formats disparates et peu malléables… bref, les données sont rarement structurées.

D’accord, la loi du 17 juillet 1978 reconnaît à tout citoyen français le droit d’obtenir communication des documents détenus par une administration.

D’accord, une autorité administrative dédiée, la CADA (commission d’accès aux documents administratifs), veille au bon respect de ce droit d’accès aux documents administratifs.

Mais rien n’oblige les administrations à communiquer leurs données sous format numérique, encore moins de façon structurée.

Sur ce sujet, l’expérience de Nicolas Kayser-Bril est édifiante (voir l’article « On l’a pas en format ordinateur »).

Billet initialement paru sur Database journalism

Illustration : http://www.sxc.hu/

]]>
http://owni.fr/2010/03/08/data-journalism-pourquoi-les-medias-francais-ne-s%e2%80%99y-mettent-pas/feed/ 10
Hadopi, Loppsi2: la revanche des anti-Internet http://owni.fr/2010/02/09/hadopi-loppsi2-la-revanche-des-anti-internet/ http://owni.fr/2010/02/09/hadopi-loppsi2-la-revanche-des-anti-internet/#comments Tue, 09 Feb 2010 08:48:47 +0000 Benoit Raphaël http://owni.fr/?p=7852 Titre original :

“Les effroyables imposteurs” sur Arte, Hadopi, Loppsi2: la revanche des anti-Internet

Dans la série “Internet est une poubelle qu’il faut contrôler”, Arte diffuse ce mardi soir un nouveau documentaire consacré aux… dangers du web: “Les effroyables imposteurs”. Coïncidence: cette diffusion intervient le jour du débat sur la loi Loppsi2 qui vise à instaurer des nouvelles techniques de contrôle des contenus sur le Net (lire aussi ici).

A travers une compilation un peu fouillis sur les conspirationnistes de tous bords, l’auteur du documentaire nous ressert le discours du “Web-poubelle-de-l’info”, peuplé de dangereux “non-professionnels” qui font circuler les pires rumeurs.

On connait la chanson. En ces temps de médiapocalypse, elle sonne comme la vaine tentative d’un système figé de sortir d’un lectorat/électorat qui lui échappe.

La rengaine ressurgit de temps à autre chez quelques représentants encore vaillants de cette vieille presse (pour preuve ce débat hallucinant de non-experts sur le web, chez Franz Olivier Giesbert), comme chez les politiques (voir la polémique, tout aussi hallucinante, autour de l’affaire Hortefeux).
Etrange miroir, d’un monde se contemple du haut de ses vieilles tours sans comprendre cette révolution qui a innondé ses terres.

Dans le docu d’Arte, le journaliste conclut son propos en s’attaquant évidemment au web participatif.
Pour appuyer sa thèse, il a déniché un article publié sur la page personnelle d’un internaute sur LePost.fr (dont je suis le co-fondateur) qui avait échappé à l’équipe de modération.
Je passe sur la méthode (le journaliste me contacte en me mentant sur l’objet de son reportage).
L’article détecté a naturellement été modéré à la suite de l’interview. Fin de l’histoire.

Comme de nombreux sites d’infos (Le Monde, Le Nouvel Obs, 20 Minutes etc), Le Post permet aux internautes de se créer un blog sur leur page personnelle. Et comme pour toute plateforme de blogs, le site ne censure pas a priori des contenus publiés sur ces pages personnelles.
Il ne le fait pas parce qu’il n’est pas éditeur de ces contenus amateurs, mais hébergeur. La modération se fait a posteriori, sur alerte des internautes (Sur LePost.fr, comme sur LeMonde.fr, nous allons cependant plus loin: les contenus sont 24h/24 par une société de modération, qui supprime les posts contraires à leur charte).

C’est la loi. Qui défend par là même la liberté d’expression. Les blogueurs sont responsables de leurs contenus et peuvent être évidemment poursuivis si leurs propos sont diffamatoires ou portent atteinte à la vie privée. Mais la loi n’impose pas aux hébergeurs un contrôle a priori des contenus. Pourquoi ?

Parce que, premièrement, c’est techniquement impossible. La France compte plusieurs millions de blogs. Sans compter les twitter et Facebook dont le nombre de membres a explosé ces derniers mois.
Imposer un contrôle a priori reviendrait à obliger ces médias sociaux à mettre la clef sous la porte.

Deuxièmement, vouloir imposer un contrôle a priori sur tous les contenus diffusés sur la toile, c’est commencer à mettre un verrou sur l’expression citoyenne. Un verrou imposé par le seul hébergeur (sur ordre de qui?) sur ce fameux “contenu généré par l’utilisateur” qui fait si peur aux politiques et à un certain nombre de mes confrères.

En témoigne l’article surprenant de Xavier Ternisien, dans le Monde daté du dimanche 7 et lundi 8 février, à propos de ce documentaire. Pour ce journaliste, régulièrement attaqué par la blogosphère (ou par ses confrères du web), aucun article rédigé par un non-professionnel ne doit être mis en ligne “sans avoir été validé par un journaliste”.

Les journalistes ne se trompent jamais, c’est bien connu.

De quoi ont-ils peur ?
D’une remise en question ?

Car de cette “poubelle” qu’est Internet, de cette poubelle que serait finalement la blogosphère (parce que c’est bien la blogosphère dans son ensemble qui est attaquée dans ce docu), émergent de vrais talents, des analystes pertinents, des militants féroces. On y trouve même des “amateurs” qui, parfois, enquêtent et dénoncent les erreurs des journalistes professionnels. Inconcevable!

De cette poubelle émergent des Maître Eloas… Quand cet avocat-blogueur, qui refuse d’être assimilé à un journaliste, commente, analyse l’actualité du droit, fait témoigner des professionnels de la justice, et sort de temps à autre des infos exclusives, il concurrence effectivement les journalistes dans leur coeur de métier.
Il est rigoureux, il vérifie ses informations. Il participe à l’effort d’information du citoyen.
L’information, ce maillon fragile entre le citoyen et la démocratie.

De cette poubelle émergent des opinions qui dérangent, des vidéos que l’on aurait préférées laisser sous le sceau du “off”, des infos qui ne passent jamais au 20h, des remises en question des médias traditionnels qui, pendant longtemps, ont vécu dans le confort du surveillant jamais surveillé…

Evidemment, tous ces nouveaux contenus ne sont pas de qualité. Certains sont mêmes illégaux. Mais ils n’échappent pas ni à la loi, ni à la vigilance des communautés sur Internet, qui savent aussi s’organiser pour débusquer les fausses informations.

Surtout: toutes ces masses d’”effroyables” amateurs qui se passent des infos, les commentent, les éclairent, les détournent, échappent non seulement au filtre des médias et des politiques, mais ils remettent également en cause modèle économique. Crime ultime !

C’est le nerf de la guerre de la loi Hadopi, poussée par des lobbies du disque en mal d’esprit d’entreprise: on préfère aller contre les usages pour punir et contrôler. Aberration économique.

C’est l’argument massue de la prochaine loi Loppsi2: on exploite la peur du pédophile ou du nazi pour justifier un contrôle d’Internet.

Oui, il y a n’importe quoi sur le Net.
Oui, il y a de très belles choses aussi.
Oui, il y a des contenus et des auteurs devenus aujourd’hui indispensables.
Et cet indispensable n’aurait jamais émergé dans cet environnement contrôlé a priori par les médias traditionnels.

Les journalistes seraient plus inspirés de trouver leur place dans ce nouvel écosystème plutôt que de faire perdre l’argent à la télévision publique à tenter de démontrer avec des ficelles aussi grosses que des gazoducs que le web est dangereux.
Ils devraient la jouer “Journalistes+amateurs” plutôt que “journalistes contre amateurs”.
Se battre contre l’effroyable amateur en brandissant le sceau divin de sa carte de presse, ce n’est pas à l’honneur d’une profession qui, au fil du temps, a toujours sur prouver qu’elle était capable de s’adapter au bouleversement permanent du monde et des usages.

» Article initialement publié sur Demain, tous journalistes ?

» Photo d’illustration en page d’accueil par Stian Eikeland sur Flickr

]]>
http://owni.fr/2010/02/09/hadopi-loppsi2-la-revanche-des-anti-internet/feed/ 3