OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Les algorithmes prédictifs sont-ils un risque pour notre libre-arbitre? http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/ http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/#comments Wed, 01 Dec 2010 15:00:29 +0000 Hubert Guillaud http://owni.fr/?p=37595

Nous sommes apparemment aujourd’hui dans une situation où la technologie moderne change la façon dont les gens se comportent, parlent, réagissent, pensent et se souviennent.

Nous dépendons de plus en plus de nos gadgets pour nous souvenirs des choses : comme le disait Daniel Dennet, nous connaissons une explosion démographique des idées que le cerveau n’arrive pas à couvrir.

L’information est alimentée par l’attention : si nous n’avons pas assez d’attention, nous n’avons pas assez de nourriture pour retenir tout ces renseignements.

Or, à l’âge de l’explosion de l’information que faut-il retenir ? Que faut-il oublier ? Pendant des siècles, explique Frank Shirrmacher, ce qui était important pour nous était décidé par notre cerveau : désormais, il sera décidé ailleurs, par nos objets, par le réseau, par le nuage d’information dont nous dépendons. “Ce n’est pas un hasard si nous connaissons une crise de tous les systèmes qui sont liés soit à la pensée soit à la connaissance” : édition, journaux, médias, télévision, mais également université comme tout le système scolaire. Ce n’est pas une crise de croissance, mais bien une crise de sens :

la question est de savoir ce qu’il faut enseigner, ce qu’il faut apprendre et comment. Même les universités et les écoles sont tout à coup confrontées à la question de savoir comment enseigner.

Quelles informations retenir ? Qui va les retenir pour nous ?

À la fin du XIXe siècle, rappelle l’essayiste, “à la rubrique nouvelles technologies, les discussions étaient vives autour du moteur humain. Les nouvelles machines de la fin du XIXe siècle exigeaient que les muscles de l’être humain s’y adaptent. En Autriche et en Allemagne notamment, un courant philosophique réfléchissait à comment changer la musculature ! Le concept de calories a été inventé à cette époque afin d’optimiser la force de travail humain. Au XXIe siècle, on retrouve le même type de question avec le cerveau. Le muscle que nous avons dans la tête, le cerveau, doit s’adapter. Or, ce que nous savons des études récentes montre qu’il est difficile pour le cerveau de s’adapter au multitâche.”

Nous passons de l’adaptation des muscles aux machines à celui de l’adaptation du cerveau aux machines à travers les questions du multitâche ou de l’infobésité qu’adressent à nous les technologies de l’information et de la communication. “Le concept d’informavore qui conçoit l’être humain comme un dévoreur d’information a beaucoup à voir avec nos anciennes chaines alimentaires”, avec la nourriture que vous prenez ou pas, avec les calories qui sont bonnes ou mauvaises pour vous ou votre santé.

L’outil n’est pas seulement un outil, il façonne l’humain qui l’utilise. Du moment que les neuroscientifiques et d’autres se sont mis à utiliser l’ordinateur pour analyser la façon de penser des hommes, quelque chose de nouveau à commencé. Quelque chose qui pose la question du libre arbitre, comme le disait déjà Jaron Lanier, le gourou de la réalité virtuelle. “À l’heure de l’internet en temps réel, la question de la recherche prédictive et du déterminisme devient plus importante.”

Les algorithmes prédictifs vont-ils décider pour nous ?

Frank Schirrmacher imagine que la question de la prédiction – comme la prévisibilité des tendances de recherches que réalise déjà les outils de Google sur la grippe et dans bien d’autres domaines – va avoir un impact important sur la notion de libre arbitre. Google saura avant nous si le concert que nous nous apprêtons à regarder ce soir va nous intéresser, parce qu’il sait comment les gens en parlent, qu’il calcule et analyse non seulement les comportements de la société, mais aussi les nôtres permettant de situer nos comportements dans l’univers social, explique Schirrmacher.

En recueillant de plus en plus de données comportementales et en y appliquant des algorithmes prédictifs de plus ne plus sophistiqués, notre perception de nous-même va se modifier. Alors que pour certains psychologues – comme John Bargh – clament que rien n’est plus important que le libre arbitre, nous sommes confrontés à un avenir où tout va être prévisible par les autres, via le nuage informatique et la façon dont nous sommes liés via l’internet. Les nouvelles technologies, qui sont en fait des technologies cognitives, s’adressent à notre intelligence, à notre pensée et s’opposent désormais à nos façons de penser traditionnelles.

Et Schirrmacher d’en appeler à mieux comprendre les transformations qui se font jours :

Qu’est-ce que Shakespeare et Kafka, et tous ces grands écrivains, ont réellement faits ? Ils ont traduit la société dans la littérature. Ils ont traduit la modernisation dans la littérature… Maintenant, nous devons trouver des personnes qui traduisent ce qui se passe dans la société au niveau des logiciels. Les textes vraiment importants, qui écrivent notre vie aujourd’hui et qui sont, en quelque sorte, les histoires de notre vie sont désormais les logiciels – or ces textes ne sont pas examinés. Nous devrions avoir trouvé les moyens de transcrire ce qui se passe au niveau des logiciels depuis longtemps – comme Patty Maes ou d’autres l’ont fait : juste l’écrire et le réécrire de manière à ce que les gens comprennent ce que cela signifie réellement. Je pense que c’est aujourd’hui une grande lacune. Vous ne pourrez jamais vraiment comprendre en détail comment Google fonctionne, car vous n’avez pas accès au code. On ne nous donne pas l’information pour comprendre.

Notre fonctionnement personnel est-il tant dépendant de notre environnement social?

Parmi les nombreuses réponses que cet article a suscité, signalons, celle de John Bargh, psychologue et directeur du Laboratoire de l’automatisme pour la cognition, la motivation et l’évaluation à l’université de Yale, qui abonde dans le sens de Schirrmacher.

J’ai tendance à moins m’inquiéter de la surcharge d’information sur le plan personnel et individuel qu’au niveau sociétal et gouvernemental. Voilà longtemps que le cerveau humain a l’habitude d’être surchargé d’informations sensorielles (…). Le cerveau est habitué à traiter avec des messages contradictoires aussi, ainsi qu’à gérer et intégrer l’activité de nombreux sous-systèmes tant physiologiques que nerveux – mais comme le montre les travaux de Ezequiel Morsella, cela tout en conservant cette gestion hors de notre vue de manière qu’il nous semble ne pas en faire l’expérience.

Nous sommes déjà et depuis longtemps multitâches. Mais nous le faisons (plutôt bien) inconsciemment, non consciemment. Nous sommes moins doués pour le multitâche conscient (comme parler au téléphone quand nous conduisons) en raison des limites de l’attention consciente. À mesure que nous acquérons des compétences, ces compétences requièrent de moins en moins d’attention consciente (…). Conduire un véhicule nécessite de fortes capacités à être multitâche de prime abord, mais cela devient beaucoup moins difficile parce que notre capacité à être multitâche se déplace avec le temps.

Mais Schirrmacher a bien raison de s’inquiéter des conséquences d’une base de connaissances numérisées universellement disponibles, surtout si elle concerne les prévisions de ce que les gens vont faire. (…) La découverte de l’omniprésence des influences situationnelles pour tous les principaux processus mentaux de l’homme nous dit quelque chose de fondamentalement nouveau sur la nature humaine (par exemple comment notre fonctionnement est étroitement lié et adapté à notre environnement physique et social notamment). Il supprime le libre arbitre qui génère les choix et les pulsions comportementales, les replaçant dans le monde physique et social, sources de ces impulsions.

La découverte qu’il est facile d’influencer et de prédire le comportement des gens est désormais exploité comme un outil de recherche parce que nous savons que nous pouvons activer et étudier des systèmes psychologiques humains complexes avec des manipulations très simples. (…) C’est parce que ces études sont relativement faciles à réaliser que cette méthode a ouvert la recherche sur la prédiction et le contrôle du jugement et du comportement humain, et l’a démocratisé (…). Cela a produit une explosion de la connaissance des contingences des réponses humaines à l’environnement physique et social. Et je m’inquiète comme Schirrmacher, parce que nous construisons si rapidement un atlas de nos influences inconscientes que nous pourrons bien les exploiter via des dispositifs de calculs toujours plus rapides alors que les connaissances s’accumulent à un rythme exponentiel.

Je me connais donc je suis… et c’est tout !

Plus le Web – cette vaste “base de données des intentions”, comme l’a brillamment appelé John Battelle – croît, plus il est difficile de discerner si ces intentions sont les nôtres ou pas, conclut avec raison Nicholas Carr.

Heureusement, tout le monde ne partage pas ce pessimisme. Nick Bilton, professeur à l’université de New York, designer pour le New York Times, répond :

Je suis profondément perplexe devant les penseurs intelligents et novateurs qui pensent qu’un monde connecté est nécessairement un monde négatif. (…) Ce n’est pas notre peur de la surcharge d’informations que fait tergiverser nos égos, mais la crainte que nous soyons en train de manquer quelque chose.

Qu’est-il important ou pas de savoir demande Frank Schirrmacher ?

La réponse est claire et pour la première fois dans nos existences, l’internet et la technologie la rendent possible, estime Bilton : c’est l’importance de l’individualisme. Ce qui est important pour moi ne l’est pas pour vous, et vice-versa. Et l’individualisme est l’incarnation du libre arbitre. Le libre arbitre n’est pas un moteur de recommandation, n’est pas un algorithme de Google ou d’Amazon : c’est la capacité de partager nos pensées et nos histoires avec qui souhaite les utiliser pour que nous puissions en retour utiliser les leurs. Ce qui importe c’est notre capacité à discuter et présenter nos points et de vue et écouter les pensées des autres.

La réponse est forte… mais peut-être un peu courte. En enregistrant toujours plus nos données, en nous permettant de nous documenter plus avant, ces systèmes renforcent certes notre individualisme, mais ils nous rendent aussi plus perméables aux autres, plus conscients de nos influences. Peut-être que cela permettra à certains de mieux y réagir… Mais est-ce que ce sera le cas de tous ?

Crédits photos cc FlickR : splorp, opensourceway, *n3wjack’s world in pixels.

Article initialement publié sur InternetActu sous le titre : “La capacité prédictive de nos systèmes socio-techniques va-t-elle tuer notre libre arbitre ?

]]>
http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/feed/ 17
Le « journalisme augmenté » en 10 points http://owni.fr/2010/11/07/le-%c2%ab-journalisme-augmente-%c2%bb-en-10-points/ http://owni.fr/2010/11/07/le-%c2%ab-journalisme-augmente-%c2%bb-en-10-points/#comments Sun, 07 Nov 2010 19:34:40 +0000 Eric Scherer http://owni.fr/?p=33769 1 – Le journalisme augmenté de l’audience

Les insurgés ont pris la parole ! La prise de contrôle des moyens de production et de distribution des médias traditionnels par ceux qui en étaient privés (seule révolution marxiste réussie à ce jour !) entraîne la démocratisation de l’écriture et met fin au journalisme de surplomb, au journalisme de magistère. Elle permet aussi le « crowdsourcing » (collecte d’informations et témoignage sont partagés avec le public) et le « crowdfunding » (le financement aussi). Les médias parlent aux médias !

2 – Le journalisme augmenté de ses pairs

Lâcher prise sur ses contenus et laisser les contenus extérieurs entrer. Les rédactions, souvent conservatrices, ont de moins en moins une mentalité de bunker et s’ouvrent davantage au reste du monde, voire à leurs concurrents. Les collaborations entre médias se multiplient. Le journalisme en réseau et le journalisme mutualisé ont un bel avenir.

3 – Le journalisme augmenté des liens

Les métadonnées et l’hypertexte permettent le journalisme de liens, le journalisme de tri sélectif, le journalisme dépollueur, le news jockey ! Celui qui choisit, guide, réduit l’infobésité, trouve le signal dans le bruit.

4 – Le journalisme augmenté des autres corps de métiers

Visualisation de données, journalisme de données, journalisme visuel, web documentaires, web reportage, etc. Autant de nouvelles formes de narration qui associent le travail des designers, des développeurs et des journalistes. Ceux qui réussiront à faire travailler ensemble ces corps de métiers prendront de l’avance.

5 – Le journalisme augmenté d’innovation et de nouvelles technologies

Le journalisme web n’est pas la mise en ligne des contenus des journaux ou des télévisions. Une écriture différente est indispensable pour être en prise avec les nouveaux usages de la révolution de l’information. La chance est aussi d’y pouvoir profiter des nouveaux outils. Pour ce mode de représentation du réel, le digital storytelling de demain, le récit numérique, comprend déjà la géolocalisation, la cartographie animée, la réalité augmentée, la 3D, etc.

6 – Le journalisme augmenté de valeur ajoutée

Context is King ! Savoir relier les faits : face à la banalisation croissante de l’information, la valeur est dans la mise en perspective rapide des faits. Non seulement, collecter, éditer, hiérarchiser et distribuer ne suffit plus, mais il faut désormais aussi analyser les informations avec un degré de vitesse, jusqu’ici réservé aux seuls factuels. Les journalistes traditionnels font une erreur s’ils croient que leur capacité à collecter et à organiser les faits continuera à les rendre indispensables.

Pour rester pertinent, il ne suffit plus en outre de donner les informations de la veille ou du jour même, connus de tous, mais d’offrir du contexte, de la perspective, de l’analyse pour aider le public à saisir l’importance des événements, pour lui et la société, à regarder de l’avant, à anticiper la suite.

Il faut enrichir l’information, de manière éditoriale et technologique.

7 – Le journalisme augmenté du packaging

Les beaux médias ! La forme, c’est le fond qui remonte à la surface ! (Victor Hugo). C’est aussi la qualité de l’accès au contenu qui fera la différence.

Dans une économie de l’attention, où l’abondance des contenus a remplacé leur rareté, le temps de cerveau disponible sera de plus en plus dur à capter et à conserver ! Soigner le design de l’information devient crucial. D’autant que se multiplient aussi les nouveaux supports et plateformes de distribution (smartphones, tablettes, encre électronique …).

8 – Le journalisme augmenté de formations, de nouveaux métiers et d’entrepreneuriat

Pas facile d’apprendre à faire du vélo à 50 ans ! Mais il faut s’y mettre et se former. La révolution de l’information n’attend pas. D’autant que de nouveaux profils sont apparus ces dernières années dans les petites annonces : les journaux, magazines ou télévisions recherchent aussi désormais des éditeurs de métadonnées, des éditeurs spécialisés en moteur de recherche, des community managers, des journalistes visuels, des agrégateurs, des remixeurs, des facilitateurs, etc.

La facilité de créer une unité éditorial pour un coût initial presque nul (plus besoin d’imprimerie, de camions pour livrer les journaux ou de stations de TV) incite déjà ceux qui ont de bonnes idées à passer à l’acte et à monter leur média, seul ou en petit groupe.

9 – Le journalisme augmenté d’expérimentations

Difficile de faire désormais sans une cellule de R&D, un médialab, pour répondre à la vitesse des changements dans la profession et profiter des opportunités offertes par les nouvelles technologies. Restera à tester les nouvelles idées et à prendre des risques sans être tétanisé par la crainte de l’échec. Vive le bêta !

10 – Le journalisme augmenté de la confiance

C’est la mission la plus difficile, mais la plus importante dans une société où la défiance envers les corps constitués croît à toute vitesse.

Images CC Elsa Secco et Flickr Matthew Clark Photography & Design

]]>
http://owni.fr/2010/11/07/le-%c2%ab-journalisme-augmente-%c2%bb-en-10-points/feed/ 28
Infobésité: arrêtez avec ce non-sens http://owni.fr/2010/08/31/infobesite-arretez-avec-ce-non-sens/ http://owni.fr/2010/08/31/infobesite-arretez-avec-ce-non-sens/#comments Tue, 31 Aug 2010 08:53:40 +0000 Aref Jdey http://owni.fr/?p=26583

J’ai déjà abordé le sujet de l’infobésité (appelée également information overload) à plusieurs reprises sur ce blog, et récemment à travers l’article « Death by information overload ». J’expliquais en effet que cette situation de surabondance d’information était déjà présente avant même l’ère de Gutenberg.

Aujourd’hui je reviens à la charge en affirmant encore une fois que l’infobésité relève plutôt du non-sens puisque c’est une caractéristique intrinsèque de l’évolution de l’Homme et de son rapport à la connaissance. Récemment, le New York Times a publié un article invitant ses lecteurs à faire des pauses régulières dans l’utilisation des terminaux électroniques : iPad, smartphone, laptop… Selon le journal, le cerveau a besoin d’un temps de repos, (ah bon ! Je le savais pas !) et ce de manière régulière, pour éviter le burnout, et lui préserver toutes ses capacités de « calcul ».

At the University of Michigan, a study found that people learned significantly better after a walk in nature than after a walk in a dense urban environment, suggesting that processing a barrage of information leaves people fatigued. Even though people feel entertained, even relaxed, when they multitask while exercising, or pass a moment at the bus stop by catching a quick video clip, they might be taxing their brains, scientists say.

Cette utopie d’atteindre une situation d’équilibre entre « offre et demande » de l’information, fait le bonheur de plusieurs acteurs, à commencer par les éditeurs logiciels (search, veille, GED…) qui surfent sur la vague « la bonne information à la bonne personne au bon moment ».

Or, il faut savoir que déjà, à l’ère des livres, les mêmes problèmes se posaient aux utilisateurs et lecteurs : comment éviter les maux de tête et la fatigue pour trouver, lire et exploiter les bonnes ressources documentaires ? Robert Burton, dès 1621, soulevait ces problématiques de manière pertinente :

What a glut of books ! Who can read them ? As already, we shall have a vast Chaos and confusion of Books, we are oppressed with them, our eyes ache with reading, our fingers with turning. For my part I am one of the number–one of the many–I do not deny it…

Son ouvrage The Anatomy of Melancholy détaille dans tous les sens les symptômes et les difficultés de ce malaise général, de sur-information.

Cette thèse a été par ailleurs appuyée dans l’article Reading strategies for coping with information overload, ca.1550-1700, par Ann Blair. Cette production édifiante, démontre par exemple que les techniques du copier-coller sont déjà présentes à l’époque de l’imprimerie, et que les scientifiques et enseignants au 17e siècle, ont développé des techniques de lecture nouvelles basées sur l’index alphabétique, la prise de note, les abréviations pour éviter de « tout lire » puisque la capacité humaine de lecture était dépassée par le volume des productions.

Tout ça pour dire que aborder la problématique de gestion stratégique de l’information (et non gestion de l’information stratégique) par l’angle de la sur-information revient à tourner en rond, puisque le taux de production de contenus sera toujours plus élevé que le taux d’absorption humain et d’assimilation des données.

La même situation, une sorte de digression, se trouve sur le plan alimentaire entre les MacDo, et autres services de consommation, est-on pour autant « submergé » par la bouffe ? C’est plutôt la conscience du fait qu’on a une capacité limitée de consommation qui nous « oblige » à s’organiser pour éviter de tomber dans l’excès (sauf exception bien sûr).

De ce fait, et impérativement, de nouvelles formes de lectures vont se développer, avec de nouveaux supports, de nouveaux canaux et de nouvelles difficultés et limites. L’adaptation humaine ne fait que se poursuivre.

Billet initialement publié sur Demain la veille

Crédits photo :  Kees van Mansom

]]>
http://owni.fr/2010/08/31/infobesite-arretez-avec-ce-non-sens/feed/ 25
#huisclosnet ou la théorie du serpent qui se mord la quéquette http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/ http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/#comments Thu, 04 Feb 2010 15:27:41 +0000 Emgenius http://owni.fr/?p=7666

Ainsi donc, la crème, le gratin, le überpanier de la presse francophone vient de rentrer dans un loft africain situé au beau milieu du Périgord. Ceci afin de prouver que ces oies blanches numériques…. ben pour prouver quoi en fait….

1) option 1: Prouver que la vie c’est trop bien avec Twitter et Facebook et qu’on n’est vraiment que des gens trop négatifs à encore acheter des magazines et des journaux quand il suffirait de quelques réseaux sociaux super informés pour qu’on satisfasse notre boulimie informative…. Mouais j’ai un doute quant à penser que les radios francophones jouent à se tirer une balle dans le pied

2) option 2: Prouver que la vie avec Twitter et facebook c’est super bien, mais que rien ne vaut quand même un bon journaliste qui trie l’info valide ses sources et est capable de fournir une information de qualité LUI. AAAh là je crois que je peux comprendre qui finance cette expérience.

3) Option 3: Nour-Eddine Zidane ça faisait super longtemps qu’il avait envie de voir son pote belge alors il a monté un gros pipeau avec quelques potes pour s’enfermer dans un gîte à la cambrousse à fumer des clopes et boire des glutes. Et même tiens chiche, qu’on est capables de se faire rembourser le TGV de David Abiker…. Moi c’est le postulat qui me convainc le plus.

Parce que sérieusement…. Comme l’a très bien résumé Damien Van Achter (que je léchouille langoureusement ici) on ne peut pas parler de “Twitter” et “Facebook” comme de médias à part entière. Ce sont des vecteurs de médias. C’est ce constat de base, compris de tout twittonaute, qui semble avoir fait défaut aux promoteurs de l’émission très très médiatisée (en gros c’est la ferme de TF1 à la sauce Radio francophone)

Je ne comprends pas à quoi sert ce genre d’expérience. Finir la semaine au pays des oies  en déduisant “le net c’est bien mais c’est brouillon, heureusement qu’il y a des journalistes pour dépiauter l’actualité” a un côté “rétro” qui me choque. (quoique si on me paie une semaine à Péta avec ma famille je dois pouvoir arriver à la même conclusion). C’est le genre d’analyse qui conduit à la duplication perpétuelle des mêmes modèles de communication, motive le pré-carré de la presse payante dite “sérieuse” face aux internautes tocards, et permet d’éviter de se poser n’importe quelle question liée à la valeur du travail du journaliste dans le monde futur ou de l’intérêt même de l’organe de presse face à une montée éventuelle des “identités référentes et crédibles”. Quoi? tu doutes lecteur? tu penses que les journalistes enfermés n’ont pas ces “basses” motivations? Je te le prouve. Avec l’esprit provoc qui me caractérise, j’ai balancé à Nour-Eddine  en réponse à une question qu’il se posait suite au bruit consécutif au BOUM de Lille qu’il suffisait de relayer un bruit et que de toutes façons les journaleux, qui sont avertis par le même bruit, font ensuite le tri… pour me retrouver cité dans la chronique du journaliste, que par ailleurs je salue. C’était trop trop simple de manipuler un journaliste… il suffit de lui dire ce qu’il veut entendre ;-)

Alors oui c bien mais il en pense quoi l’Emgenius.

Ben plusieurs choses:

- 1/ que tout le monde entend parler de Twitter et facebook grâce à ce genre d’initiative.

Maintenant, avec le battage sur ces deux noms, genre même les têtes grises qui écoutent Stéphane Bern associeront nouvel internet à Twitter et Facebook. Quelque part c’est bien. Et c’est pas bien. C’est bien parce que maintenant tu peux dire en entretien d’embauche “oui je maîtrise les techniques de la gestion de communauté et d’information sur les réseaux facebook et Twitter” et comme il n’y a encore ni école, ni métrique; pour peu que tu te touches le menton en même temps avec un air salace, tu peux attraper un poste de community manager chez Areva. Qu’importe si tu es bon ou mauvais, efficace ou pas. Personne ne comprend encore vraiment le bénéfice qu’il y a à en retirer, tout le monde comprend qu’il “faut y être” ne fut-ce que pour pas apparaître plus ringard que les radios francophones ou que son voisin et pour avoir l’air d’une marque de jeune.

- 2/ qu’il y a encore un sacré boulot de pédagogie à faire dans les rédacs.

a) Euh les gars… personne ne se contente de Twitter et facebook pour l’analyse de l’info. A ce compte, Johnny Depp serait mort plusieurs années consécutives dans un accident de la route, parallèle à une explosion de Lille provoquée par Sim qui n’est pas mort lui dans l’incident; puisqu’il a été vu bras dessus bras dessous avec Michael Jackson dans une ruelle de Nancy.

b) Oui pourtant, au vu notamment des chroniques que j’entend de vous 5 sur les chaînes partenaires, vous arrivez à avoir une vue plus ou moins identique à nous autres, lambdas, qui arpentons le web et mangeons vos JT… ou qui lisons 20minutes dans le métro et regardons Morandini sur Direct8 (citer Morandini c’est bien, parce que ça énerve un journaliste en général). En fait on aurait du vous priver de smartphone, de journaux et de potes sur Twitter… Là ils auraient vu les internautes que c’est dur de trier une information…)

=> Monsieur Michu à la limite… il s’en tamponne de savoir si L’INFO elle provient d’un torchon pondu par des non journalistes sous payés, des blogueurs asservis, des lobbyistes patentés ou du cerveau d’un SciencePo maniaque de la plume. Et comme vous venez de le constater, ils arrivent à suivre “le fil d’info du monde”

=> La mission des médias dits “sérieux” avec pignon sur avenue ne devrait du coup plus être l’iINFORMATION (pour ça on peut s’en sortir tout seul ou avec des publireportages) mais bien le traitement de l’information, son ANALYSE, son déchiffrement, ses dossiers de fond, ses arcanes, ses coulisses se méandres. Or et c’est là un débat qu’on évoque assez peu dans vos expériences… les médias n’ont plus ou pas le temps de se prêter à ce genre d’analyse. Oui je sais ça fait mal à entendre. N’ont plus le temps, l’économie ou l’envie de garder un langage expert qui épaterait les bouffeurs de dépêches sous payés par les “Gratuits” autant que le Retwitter fou d’info au kilomètre. Quoi? #Merilestfou es-tu prêt à te dire… Pourtant j’affirme ce que je dis. Je me souviens avoir lu que la reine Fabiola était décédée, parce que l’agence Belga l’avait dit dans les dépêches… CQFD. Non? Essaye encore. Il est un domaine que je connais bien, puisqu’il m’emploie depuis près de 10 ans: la téléphonie mobile. Quand il m’arrive de lire un journal officiel évoquant une nouvelle technologie mobile ou high tech… je me surprend souvent à me dire que franchement le journaliste derrière n’a pas du avoir beaucoup de temps pour pondre son papier, pour se documenter, vulgariser. Et que pour un Walt Mossberg ou une Marie-Christine Beuth, il y a un paquet de gratte-papier qui sont eclipsés par des billets de qualité, spécialisés, produits par des blogueurs émérites, sur le sujet. A titre d’illustration on pourrait citer les multiples articles pro-Ipad lus récemment dans la presse (prompte à bénir un appareil qui propose un modèle économique pour la presse) écrits par des journalistes adeptes du POMME Q. Sérieusement j’ai lu bien plus d’analyse, de prospective, de réflexion pondérée sur moult blogs sérieux.

c) vous opposez perpétuellement Internet vs Journalistes comme s’il s’agissait de deux mondes imperméables… Or… C’est loin d’être le cas. Je n’ai pas encore lu d’étude qui en parle, mais je suis prêt à parier que dans la portion congrue de personnes qui produisent du contenu pour “le web” à destination de cette masse consommatrice que représente le reste du monde connecté: il y a un paquet de pigistes, de red chefs, de spécialistes des médias. Pour un Henry Michel combien d’Alex Hervaud?  On ne se refait pas. Quand on a décidé d’écrire pour vivre, c’est en général une passion qui devient un métier. On est d’abord communiquant avant de devenir journaliste. Du coup, à moins d’interdire à tout journaliste en exercice de produire des blogs persos, de travailler sous un pseudo sur le net… Il y aura toujours de Internautes infiltrés dans le monde des Journalistes (ça fait très CIA ma démonstration). Berk c’est sale.

Et que plutôt que de lutter, il vaut mieux non seulement s’en servir mais utiliser à la fois comme source à vérifier pour la remontée de dépèche avant la dépèche mais aussi comme méthode, technologie, outil de médias plus’ en prise avec le monde dans lequel ils vivent, plus globaux, plus réactifs et proches des “jeunes”. Pour illustrer mon propos par un a contrario je me permets de citer en me gaussant de l’expérience Fillon vs Twitter menée récemment par Europe 1 où le premier ministre n’a pas répondu à une seule question remontée par le hashtag # spontané des internautes et à privilégié un Twitter en mode cénacle fermé (arf un comble) de Twitterers influents > Pour la compréhension et la logique de l’outil participatif on repassera.

- 3/ Que les journalistes n’ont pas encore compris qu’ils n’ont pas forcément besoin de rédaction

Pour ne froisser personne… prenons un exemple à l’étranger et recitons Walt Mossberg. Depuis ‘91 il tient un deux colonnes dans le très sérieux Wall Street journal. Il est le geek de la boîte. Celui qu’on envoie faire du bisou à Sergeï Brin et avec qui Steve Jobs fait des paris sur le prix de l’iPad. Il est vieux, dégarni barbu et pertinent. Quand il apparaît quelque part, pas besoin de carte de presse: c’est Walt Mossberg. Pas Walt Mossberg du Wall Street Journal. Non. Juste Walt Mossberg. Le Walt Mossberg. Tu doutes? Tu penses que son affiliation à WSJ l’aide énormément. Ok je sors mon atout Robert Scoble l’évangeliste. Idem que Walt. Mais lui en plus il part avec le handicap d’avoir commencé en qualité d’employé de Microsoft… CQFD.

Si demain Walt Mossberg se mettait à bosser rémunéré par une boisson gazeuse ou si sa casquette se retrouvait typée d’un Swoosh… son avis serait-il moins pertinent sur la technologie? Colette Braeckman parlerait-elle moins bien de l’Afrique si elle quittait le Soir pour un portail citoyen payé par la publicité? Si elle vivait de conférences?

Puisqu’aujourd’hui le monde moderne a porté la people-isation à l’outrance, puisque les journaux sont devenus des “marques” et qu’on lit le Monde parce que c’est un gage de sérieux comme on lit Libération pour éviter de porter la même écharpe que Barbier qui nous va moins bien au teint (l’écharpe, pas Barbier), il est temps peut-être de penser à “people-iser” les spécialistes. De les transformer en marques personnelles communicantes sur un de leurs sujets de prédilection. De renverser les modèles économiques. C’est le Soir qui achèterait du Braeckman pour s’assurer un lectorat, c’est Loïc le Meur qui payerait une prestation à Presse-citron.net qui fait l’honneur de sa présence à Le Web. etc. etc.

Ne m’avancez pas l’argument du “oui mais alors ils seront à la solde des gens qui les paient” je vous répondrais qu’entre suvbvention publique et page de pub dans les Inrocks… jusque là personne ne s’est plaint. Puis je crois qu’un article sponsorisé se découvrira plus rapidement (cf. l’affaire Gonzague Dambricourt à la sortie de la websérie je sais plus quoi) qu’une personne sponsorisée pour faire l’article qu’il veut. Et si tu me crois pas…c’est le même prix.  On ne paierait plus un journaliste pour son papier dans un journal ou sur un média. Mais on paierait un journaliste pour son papier dans n’importe quel support + son image d’expert d’un sujet ou d’une façon de faire + sa présence qui apporte une valeur ajoutée à un produit ou un événement + la communication qu’il fait autour de son commanditaire ou du support pour lequel il travaille.

Oui certes, tous les journalistes n’auront pas valeur d’expert. Toutes les niches ne paieront pas. L’ancien modèle économique lectorat acheteur+publicité+subventions publiques sera encore l’usage pour les sujets à moins forte valeur marchande…

Il n’empêche qu’en tant que journaliste, je m’efforcerais de devenir spécialiste de mon sujet, et de mon image de marque sur le sujet. Pour qu’on dépasse la question du “journaliste = mieux qu’internet” pour arriver à “journaliste = se sert d’internet en source et en source de revenu personnel”. Le débat deviendra plutôt alors

“groupes Médias vs Journalistes, qui est le plus fort” ou “Vincent Glad vs Henry Michel, c’est qui qui fait le plus de pages vues? Lequel des deux nous garantit le meilleur lectorat et de vente d’encart pub dans la version papier?”

J’arrête. je vous épuise comme d’hab… Et je suis épuisé

Denis – Emgenius

» Article initialement publié sur emgenius.owni.fr

» Illustration de page d’accueil par tantek sur Flickr

]]>
http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/feed/ 2
Typologie des superflu(x). Et autres considérations … http://owni.fr/2009/11/29/typologie-des-superflux-et-autres-considerations/ http://owni.fr/2009/11/29/typologie-des-superflux-et-autres-considerations/#comments Sun, 29 Nov 2009 21:22:39 +0000 Olivier Ertzscheid http://owni.fr/?p=5792 Monde du flux ou du superflu(x) ?

Perdu (mais pas complètement) entre mon agrégateur RSS, les innombrables signalements qui circulent sur mon compte Twitter, l’archive des signets delicious … Besoin de clarification dans un monde ou tout est “flux” pour éviter qu’à terme tout ne nous semble “superflu(x)”.

» Les médias de flux : TV, Internet. Broadband. Modèle connu.
» Les “nouveaux” médias de flux, ceux du micro et du méso-net : comment s’y retrouver ?<

Des flux et des médias. Dans l’immédiat, des im-médias.

Côté flux (liste naturellement non-exhaustive). Besoin de distinguer entre :

  1. des flux “identitaires” : ce que je dis de moi
  2. des flux “profilaires” : ce que les autres disent de moi, et/ou ce qu’il est permis – pour un individu ou pour un moteur ou un système de recommandation – d’inférer à partir de ce que je fais ou de ce que je dis de/sur moi.
  3. des flux “grégaires” : ceux que “je” sélectionne en fonction de leur intérêt. Ces flux peuvent eux-mêmes être des flux identitiaires, profilaires, etc …
  4. des flux “prioritaires” : ceux que “les autres” jugent incontournables sur un sujet, un “objet”, une thématique.
  5. des flux “aléatoires” : qui incarnent “l’effet rebond”, la part de plus en plus importante qu’occupe la sérendipité dans nos processus de recherche d’information et plus globalement d’interaction en ligne.

Côté médias (liste tout aussi peu exhaustive que la précédente)

  • des médias d’agrégation. Dialectique de la digue et du tamis. Par “média d’agrégation”, j’entends ici principalement (mais pas exclusivement) les agrégateurs RSS, version “en-ligne” ou cliente. Netvibes, GoogleReader en sont quelques exemples types. Leur fonction est une fonction de digue. Ils ont pour objet de “contenir” plus que de “retenir” (au sens mémoriel du terme). Plus précisément, ils circonscrivent sans rien inscrire, sans véritablement garder et faire “trace”. Des digues donc. Mais qui virent inexorablement au “tamis” avec un maillage de plus en plus grossier (si l’on se place du point de vue amont des médias et flux qui devront passer par ces tamis) ou de plus en plus fin (si l’on se place du point de vue de l’utilisateur qui “met en place” ces tamis)
  • des fonctions de dissémination : leur enjeu est d’abord d’amplifier l’effet rebond, par sérendipité. L’exemple type est la fonction RT (retweet) de Twitter. Mais cela concerne également l’ensemble des fonctionalités “virales” proposées sur Facebook ou sur les plateformes de blog. L’objet de ces fonctionalités est d’amplifier les occurences d’un item (vidéo, texte, marque … individu). Particularité des médias numériques de dissémination, l’amplification n’entraîne pas automatiquement et nécessairement une perte de traçabilité. Le maillage des réseaux sociaux, les fonctionalités de rebond (RT chez Twitter, “share this” chez Facebook), et plus globalement la puissance d’indexation et de ‘mémoire” des moteurs et outils de recherche facilite grandement le rétablissement d’une autorité (= la recherche de l’auteur/diffuseur original du texte, de la vidéo) a posteriori.

Une cybernétique observable. Cette articulation entre médias d’agrégation et fonctions de dissémination me semble essentielle. Elle illustre l’extraordinaire force centrifuge des premiers, qui mettent “sous nos yeux” un ensemble de flux, et la non moins extraordinaire force centripète des seconds qui redistribuent en permanence les mêmes flux, parfois légèrement altérés ou recombinés (méta-flux de Yahoo-pipes, Rss personnalisés et autres méta-flux générés ou attachés à des services particuliers). Bref, des usagers à la barre, une cybernétique à l’oeuvre, avec son feedback.

Voilà aujourd’hui, à mon sens, les deux grandes logiques du web contributif. Naturellement et comme dans les “anciens” systèmes médiatiques (moins “contributifs”, moins “distribués” et sans l’échelle fractale qui est un marqueur spécifique du web 2.0), les deux sont liées. C’est à dire que le média ou la fonction de dissémination sera d’autant plus efficace et amplifiée qu’elle s’appuiera ou sera supportée par un média à forte capacité d’agrégation. Inversement, on agrègera toujours davantage les items les plus “disséminés”.

Le troisième âge de la navigation. Ces phénomènes illustrent ce que je décrivais ainsi dans un ancien billet :

  • les développements du (web 2.0 + Social software + RSS) nous emmèneraient vers un “troisième âge” de la navigation : après le browsing et le searching voici venu le temps du “subscribing”. On ne navigue plus, on ne recherche plus, on s’abonne, on “souscrit”. Notons d’ailleurs que l’étymologie de ce dernier vocable est intéressante : “souscrire”, “sub-scribere”, littéralement “écrire en dessous”, à moins qu’il ne s’agisse d’écriture “sous autorité” : en agrégeant les discours écrits ou postés par d’autres, on est, de facto, placé “sous” une “autorité” qui n’est plus nôtre.

La souscription est et demeure une dépendance. Telle qu’organisée et disponible initialement (à l’époque des premiers agrégaterus et flux RSS), elle était également potentiellement une aliénation. La possibilité aujourd’hui offerte de recombiner et/ou d’altérer des flux diminue significativement sa force d’aliénation, mais augmente considérablement l’effet de dépendance.
Keep control. Pour que nous puissions nous y retrouver dans l’ensemble de ces médias de flux, pour que nous puissions en garder le contrôle ou tout au moins avoir l’impression que nous en gardons le contrôle, il faut – et c’est déjà le cas – que les principales fonctionalités et innovations portent sur 3 points :

la synchronisation
les périphéries reconfigurables
la gestion de l’asymétrie des relations para-sociales.

Petites explications …

  • la synchronisation.


  • Elle est la dernière étape de la dérive des continents documentaires. Nos modes de consultation sont nomades mais nos dispositifs (terminaux) d’accès au web sont encore hétérogènes. Nos temporalités d’accès sont elles aussi pour l’instant encore asynchrones (lecture des mails le matin sur l’ordinateur “de bureau”, consultation de vidéos le soir sur l’ordinateur “familial”, etc …)

    • les périphéries reconfigurables.




































    La périphérie est une notion clé pour comprendre les logiques aujourd’hui à l’oeuvre dans la machinerie contributive du web (et pas seulement du web 2.0). Le meilleur ouvrage sur la question a été publié à une époque ou Serguei Brin et Larry Page n’étaient encore qu’en première année de faculté. Il s’appelle “Situated Learning : Legitimate Peripheral Participation“. C’est Jo Link-Pezet, ma directrice de thèse qui me l’avait fait découvrir à l’époque, comme tant d’autres des ouvrages, notions et concepts qui font que je ne me sens aujourd’hui pas trop démuni pour aborder l’étude et l’analyse des objets informationnels qui m’intéressent … (un jour quand j’aurai le temps, je vous raconterai pourquoi j’ai eu la chance de bosser avec LA directrice de thèse idéale …). Mais revenons au centre de nos périphéries. Les périphéries de ces communautés contributives disposent, grâce à cette ingénierie de la sérendipité, de plastiques de plus en plus souples et étendues. Périphéries à la fois théoriquement globales, et toujours possiblement ciblées. Le genre de périphéries “sociales” que les moteurs, Google en tête, commencent à intégrer au coeur de la présentation de leur résultats, en fonction de leurs vertus – supposées pour certains, avérées pour d’autres – de recommandation “sur-mesure” (sur Google Social Search puisque c’est de cela qu’il s’agit, voir égalementici et )

    • la gestion de l’asymétrie des relations sociales.



































    C’est à dire en fait la gestion des relations para-sociales. Dans l’une de ses dernières interventions, Danah Boyd revient sur cette notion en indiquant : “But the information ecology we live in today has twisted this whole thing upside down. Just because I can follow the details of Angelina Jolie’s life doesn’t mean she knows that I exist. This is what scholars talk about as parasocial relations. With Facebook, you can turn your closest friends into celebrities, characters you gawk at and obsess over without actually gaining the benefits of social intimacy and bonding.” Ce seul et dernier critère permet d’expliciter nombre des phénomènes de viralité, de propagation, de “buzz”, mais il porte également trace de la nature profonde des dynamiques contributives et du sentiment d’appartenance à une communauté (et des phénomènes de reconnaissance liés, à l’intérieur des mêmes communautés).
    A regarder aujourd’hui le déploiement, l’essor et les configurations chaque fois nouvelles et dans le même temps si peu souvent inattendues des sites emblématiques du web contributif, à regarder aujourd’hui tout cela sous l’angle des trois notions sus-citées, il me semble que l’on doit pouvoir comprendre un peu mieux à la fois les raisons de l’engouement qu’ils suscitent et le devenir dont ils sont porteurs.

    L’indexation du temps réel. Naturellement, il reste encore des grands médias d’agrégation dont ce billet n’a pas traité : je pense bien sûr aux moteurs de recherche. Ces moteurs qui sont déjà capables de remonter le temps de diverses manières (ici ou ), capables également d’inférences (moteurs de divination et web implicite), et qui ont intégré progressivement (avec les news, puis les blogs) la question aujourd’hui si cruciale de l’indexation en temps réel pour en arriver finalement et plus précisément à l’ambition d’indexation du temps réel. <Parenthèse> Hallucinant vertige linguistique c’est désormais la traduction automatique qui se fait également en temps réel</Parenthèse>

    MMM. Moteurs méta-médias. Du point de vue de l’angle choisi pour ce billet, ces moteurs peuvent être décrits comme des “méta-médias d’agrégation”. Ils ne se contentent en effet pas seulement d’agréger de manière cumulative des contenus et des flux mais ils permettent également d’isoler, de choisir, de discriminer, de capter (l’attention) et de retenir (l’attention et les contenus). A ce titre ils disposent d’une triple caractérisation, à la fois :

    • moteurs/médias de discrimination : les listes, leurs listes de résultats, donnent à lire un ordre du monde conditionné par l’arbitraire algorithmique
    • moteurs/médias de captation : leurs zones de saisie sont la porte d’entrée incontournable d’une certaine approche (notre attention) de l’information et de la connaissance (les contenus)
    • moteurs/médias de rétention : l’attention une fois captée à vocation à être conservée et enfermée dans une périphérie de services propriétaires, et les contenus eux-mêmes sont également “retenus” dans le cache des moteurs.

    Les petits flux font les grandes rivières. Et les grandes rivières intéressent les grands moteurs (cf l’effet de digue détaillé plus haut dans ce billet). Les moteurs, tous les moteurs regardent donc d’un oeil plein de convoitise le nouveau champion du temps réel : Twitter et sa périphérie de services. Après les rumeurs et les tentatives de rachat, les deux géants (Microsoft et Google) se contenteront finalement de l’indexation des tweets (sur le sujet, voir notamment le billet de Didier Durand et tous ceux signalés en lien ci-après)

    Ne pas mélanger indexation et intégration.

    • Google ET Bing ET Yahoo indexeront les flux de twitter. En fait il les indexaient déjà, l’information exacte est qu’ils intégreront ces tweets dans les résultats de recherche.
    • Bing indexera et intégrera également les contenus postés de manière publique sur Facebook. (pour mémoire, Google indexe et affiche déjà les profils publics de Facebook, il est probable qu’il indexe également les contenus publics, mais il n’a pas – pour l’instant – annoncé l’affichage de ces contenus dans ses pages de résultat)

    Nombre de sites ont rendu-compte de ces annonces (attendues) : voir notamment iciiciiciici, et ici.
    <Parenthèse> On retrouve au passage ici une problématique que je crois être absolument cruciale sur la pertinence des profils humains, et que je décrivais ici en ces termes : “De plus en plus de sites de réseaux sociaux « ouvrent » l’immense catalogue des individualités humaines qui les composent à l’indexation par les moteurs de recherche. Ce qui pose nécessairement la question de la pertinence des profils humains.“, si Nathalie Kosciusko-Morizet me lit, elle pourra toujours intégrer cela à sonatelier sur la question du droit à l’oubli numérique … </Parenthèse>

    Le sens du social. Indexation et intégration de la statusphère, du micro-net, c’est encore chez Danah Boyd qu’il faut chercher des éléments de réponse aux enjeux que cela peut représenter pour l’évolution de l’ensemble des outils incriminés, et conséquemment pour l’ensemble de nos pratiques connectées.

    • There are two critical structural differences between Facebook and Twitter that are essential to understand before discussing the practices: 1) social graph directionality; 2) conversational mechanisms.
    • Directionnalité tout d’abord : “Facebook’s social graph is undirected. (…) Twitter, on the other hand, is fundamentally set up to support directionality. I can follow you without you following me
    • Mécanismes conversationnels ensuite : “On Facebook, status updates are placed on one’s Wall. (…) This creates a conversational space as it is quite common for people to leave comments on updates. Conversely, on Twitter, to reply to someone’s tweet, one produces an at-reply on their own stream. Sure, the interlocutor can read it in their stream of at-replies, but it doesn’t actually get seen or produced on their own page. Thus, a person’s Twitter page is truly the product of their self-representation, not the amalgamation of them and their cohort.

    Liens directionnels et conversations cardinales. Ce que visent ainsi les grands acteurs que sont Google, Yahoo et Microsoft (GYM) est de tenter de retrouver, dans les phénomène conversationnels qui occupent une part de plus en plus importante des contenus du web, le même type de directionnalité (adressage) qui caractérisait et caractérise encore l’instanciation de ces primo-conversations du web, à savoir les liens hypertextes.

    En d’autres termes, l’indexation permet de “faire sens”, elle re-sémantise, elle donne “du” sens ; l’intégration (de ces flux conversationnels) vise à orienter, à retrouver un sens, une direction, une intention. Précisément parce que la sémantique sans intentionnalité, serait condamnée à demeurer un sémantique apauvrie (l’autre moyen de l’enrichir concerne la sémantisation des données elles-mêmes – web sémantique). C’est là une notion à laquelle j’avais consacré une grande partie de ma thèse, sous l’angle du problème de la cardinalité des liens hypertextes. Il s’agissait, dans ce cadre de “la possibilité d’établir des liens hypertextuels non plus mono-directionnels mais multi-directionnels (depuis un ou plusieurs documents, vers un ou plusieurs autres), leurs ancres faisant alors office de pivot, de point central.

    Moralité. L’indexation en temps-réel des flux conversationnels (on est ici dans le registre de la “fonction”), l’intégration dans les résultats de recherche du temps-réel de ces mêmes flux conversationnels (on est cette fois dans le registre de la “valeur”), l’indexation et l’intégration de ces flux sont l’occasion pour les moteurs d’instaurer – et donc de contrôler au sens cybernétique du terme – les nouvelles cardinalités du web contributif, cardinalités sans lesquelles il ne peut y avoir d’ordonnancement. Voilà donc très probablement les nouvelles et impérieuses commodités de la conversation du web contributif, du web … tout simplement.

    » Article initialement publié sur Affordance.info

    » Photo d’illustration via Flickr

    ]]>
    http://owni.fr/2009/11/29/typologie-des-superflux-et-autres-considerations/feed/ 31
    Context is King http://owni.fr/2009/11/18/context-is-king/ http://owni.fr/2009/11/18/context-is-king/#comments Wed, 18 Nov 2009 10:56:23 +0000 Eric Scherer http://owni.fr/?p=5557

    Contexte, éditorialisation, intelligence, enrichissement journalistique et technologique des contenus, nouvelles valeurs ajoutées, sont aujourd’hui les dernières conditions de survie des médias traditionnels face aux ruptures qui brutalement les secouent depuis la fin du 20ème siècle.

    Chacun sait aujourd’hui qu’il n’est plus possible de faire comme avant. Chacun sait que demain, qui arrive plus vite que prévu, ne sera plus comme avant l’Internet, il y a 15 ans, le Web 2.0, il y a 5 ans, ou la crise économique, cette année.


    Nous devons réinventer nos métiers dans un cadre radicalement nouveau. Et commencer par admettre la sévérité de la situation et l’ampleur des mutations dans la production, la diffusion et la consommation d’informations:


    1. La valeur économique des médias traditionnels (journaux papier, magazines, chaînes de télédiffusion, …) s’effondre par rapport aux nouveaux usages et comportements d’une société en plein bouleversement. Les ruptures ne sont pas seulement technologiques, elles sont aussi sociétales. Le public n’est plus le même. Le monde a changé.


    2. Ce n’est plus l’offre qui crée la demande. Les niches remplacent les paquets ficelés généralistes. La destruction de valeur se fait au pas de charge, les modèles d’affaires sont mis en cause ou même brisés, de nouveaux acteurs s’emparent de positions, mais la création d’utilité publique est réelle (connaissances, partage, éducation, multiples sources spécialisées …) et la créativité bien vivante.


    3. Les adversaires de la presse sont le temps non disponible, la fragmentation des contenus, et la prolifération, tout au long de la journée, des choix et des nouvelles sollicitations.


    4. Comme d’autres institutions, l’autorité et le pouvoir d’influence des journalistes de grands médias sont depuis longtemps contestés par une société, où la confiance rejoue un rôle déterminant. Pire : ils ne déterminent plus, seuls, l’agenda de l’information.


    5. Les nouvelles technologies creusent le fossé générationnel. Dans ce nouveau monde, les ignorer se fait à ses risques et périls. L’innovation y est la seule assurance-vie.


    6. La concurrence ne vient pas de ses pairs mais de nouveaux acteurs et de centaines de petites unités, souvent encore indécelables.


    7. Médias, informatique et télécommunications sont en train de fusionner à grande vitesse.


    8. Les logiques de contrôle ne marchent plus, même si le besoin de garde-fous juridiques s’accroît. Il faut probablement lâcher prise avec dignité, et embrayer, dans cette nouvelle économie de la contribution, sur des logiques de coopération, de complémentarité et d’interaction.


    9. Le secteur des médias perd pied beaucoup plus vite que le reste de l’économie. Les suppressions d’emplois y sont trois fois plus nombreuses.


    10.Enfin, les points d’équilibre du vieux monde disparaissent plus vite que n’apparaissent ceux du nouveau.


    La Contre-Réforme


    Les Etats, les gouvernements, l’Union Européenne, reconnaissent tous être dépassés par l’effondrement de l’écosystème média du monde d’hier, et l’apparition brutale des nouveaux usages de l’économie numérique.


    Ils n’ont pas les capacités d’analyse à la hauteur des dizaines de lobbystes lancés par Google à Bruxelles et à Washington, ou des énormes ressources financières des grands opérateurs de télécommunication à la manoeuvre.


    Confrontés à la fin des incroyables années des baby-boomers, la tentation est grande pour les patrons de presse, qui se croyaient immortels, de jurer que le « balancier finira bien par revenir », d’ériger des murs, de « faire rentrer le génie dans la bouteille », de reprendre la main.


    La volonté de « Restauration » d’un ordre ancien, alimenté par un mouvement classique de « Contre-Réforme », fait son apparition. « Ca tiendra bien jusqu’à ma retraite », « courbons le dos et attendons le web3 », « informer, c’est un boulot de journalistes », « il n’y a pas de révolution numérique », « qui se souvient des radios libres ? », « a-t-on bien fait d’aller sur le web ? », entend-on aujourd’hui du haut en bas de la hiérarchie d’un média traditionnel.


    Alors, face à une culture de l’écran qui s’étendait déjà rapidement, il semblait logique, voici peu, de voir les dirigeants des opérations web prendre rapidement le pouvoir dans la presse. Il n’en est encore rien. Ni aux Etats-Unis, ni en Europe.


    La transition vers le numérique est laborieuse : le web, qui ne représente qu’un peu plus de 10% des revenus, n’est toujours pas au centre des stratégies, et reste souvent comme un additif ennuyeux qu’il faut avoir. Pire : il est souvent bridé : « laissez les adultes s’occuper de cela ! » et la récession a freiné les ardeurs et ressources dévolues à cette diversification. Il reste difficile d’admettre qu’Internet est un média différent, que « le monde numérique est autre univers », avec ses propres ressorts sociétaux et culturels. Malheureusement aujourd’hui, soit on nie cette réalité, soit on la met sous le tapis. Comme dans la musique hier, le cinéma aujourd’hui et le livre demain.


    Mais la tradition ne constitue pas un modèle économique. Et la bataille pour les modèles d’affaires de demain ne fait que commencer.


    Chacun, pris de vitesse par la cavalcade technologique et la révolution des usages d’une audience « über-connectée », sent bien aussi que le changement permanent devient la nouvelle norme dans ces nouveaux territoires inconnus.


    Doit-on résister au courant ou tenter de l’accompagner ?


    Internet et le numérique sont déjà devenus les systèmes fondamentaux de distribution de contenus. Dans quelques années, prédit Google, il n’y aura plus de distinction entre les canaux de distribution TV, radio et web. Et donc plus de différence, en ligne, entre ces médias, ni d’ailleurs avec les journaux et les magazines qui offrent tous de la vidéo. Déjà, les professionnels ne parlent plus « TV » mais « vidéo » !

    Après la musique et la presse, avant le livre, c’est au tour de la télévision de vivre les ruptures. Et il n’y a plus aujourd’hui de rédactions dans Fleet Street, qui fut depuis 1500, l’artère mythique de la presse britannique à Londres.


    La grande déflation


    Quand 325 millions de personnes ont une page Facebook, plus de quatre milliards de photos ont été téléchargées sur Flickr et que Twitter vaut pratiquement un milliard de dollars, chacun sent bien que les médias sociaux ne sont pas qu’une mode.


    Avec les écrans tactiles et les applications iPhone (et bientôt la tablette Apple), l’Internet n’est plus un endroit où on se rend mais un environnement tout le temps présent autour de nous.


    Les effets de levier des nouvelles technologies, les faibles coûts de distribution, diminuent la taille critique des médias numériques. L’ubiquité et l’instantanéité du web ont fait chuter la valeur de l’information. Même les cours boursiers en temps réel, qui coûtaient une fortune il y a quelques années, sont gratuits aujourd’hui.


    Faire plus et mieux avec beaucoup moins, est à l’image des réussites de petites organisations au succès mondial qui fonctionnent à moins de 30 personnes, comme Twitter ou Craigslist (qui a réduit le secteur des petites annonces américaines de plusieurs milliards de dollars à une centaine de millions).


    Révolution marxiste !


    Jusqu’à la fin du 20ème siècle, seuls quelques milliers de personnes avaient la parole. Ils sont aujourd’hui des dizaines de millions ! Chaque semaine sortent de nouveaux outils d’auto-édition : après Facebook, Twitter et FriendFeed, voici Tumblr, Posterous, identi.ca, Plurk …

    Tout le monde s’est mis échanger et rapporter des nouvelles, à analyser, à prendre des photos, à les poster sur le web. Les vieux médias ne gagneront plus cette bataille. Ils sont « désintermédiés », court-circuités, par le public, les politiques, les grandes entreprises, les sportifs, les acteurs…

    C’est l’essor généralisé de la bande passante qui a totalement changé la donne : le web s’est démocratisé et n’est plus l’apanage du clergé médiatique.


    Il est passé d’un mode de publication de documents produits pour une audience passive par quelques riches professionnels (broadcast), à une plateforme de communication multimédia mondiale de tous (multicast), et à une distribution massive légale et illégale de contenus, qui bouleversent tous les modèles économiques de la fourniture d’informations.


    Jamais les gens n’ont cherché et consommé autant d’informations, mais les professionnels n’ont plus le monopole de la parole. Le public est actif et contribue. Près de 20% du temps passé sur Internet l’est dans les blogs et les réseaux sociaux. Wikipédia est de loin le premier site de news aux Etats-Unis. YouTube, Facebook, Twitter, qui entend devenir le pouls de la planète, sont devenus des sources, tout comme des milliers d’autres blogs, sites et services. L’origine de l’information compte moins qu’avant. Les marques, en tous cas les anciennes, attirent moins et sont moins importantes aux yeux des jeunes audiences, qui ont les leurs. L’importance croissante des réseaux sociaux rend moins pertinents les sites de destination.


    Les médias ont aussi perdu le monopole de l’agenda de l’information. Les recommandations de ses proches, amis, collègues, dans les réseaux sociaux, sont plus importantes, sur Internet, que les éditoriaux de Libération ou du New York Times. Rejet des anciens prescripteurs et volonté de diversité dominent. La demande d’informations est forte mais les vieilles plateformes sont en train de mourir. Les vieux monopoles ont disparu.


    Des centaines de millions de médias !


    Progressivement, chacun construit sa propre chaîne d’informations, sur Internet et mobiles, composés de fragments de médias traditionnels, désagrégés ou picorés ici et là, mélangés entre eux (journaux, radios, TV…), mais aussi combinés à des blogs et à de multiples autres sources.

    Chaque jour qui passe voit les contenus d’informations s’atomiser davantage. Comme dans la musique, où le CD a perdu face à iTunes (nous ne sommes plus forcés d’acheter 11 morceaux en plus de celui que nous voulions), chacun peut, avec de bons outils, faciles, gratuits, obtenir directement les flux désirés. Jusqu’ici, les journaux nous obligeaient à acheter un ensemble dont nous ne souhaitions pas nécessairement tout. Dans les deux cas, notons que la dématérialisation est au rendez-vous, avec la disparition physique des supports.

    La crise actuelle accélère la migration numérique, qui permet au public de contrôler le moment et le lieu de consommation de contenus. La consommation d’informations est aussi plus réfléchie.


    De plus en plus de journalistes développent, de gré ou de force, de développer leur propre marque, de travailler sous leurs propres couleurs, seuls ou en petits groupes. Le journalisme de qualité n’est plus l’apanage de grands groupes de médias. De nouveaux acteurs inventent, avec facilité et jubilation, la grammaire des médias, des échanges, de la circulation de l’information de demain. Ils le font gratuitement, car le média est excitant et qu’il y a des places à prendre ! La révolution de l’information est terminée : chacun est devenu un média !


    Les médias traditionnels se retrouvent donc coincés entre les concurrences de millions d’acteurs individuels, et des géants aux ressources mille fois plus importantes qu’eux, qui entendent bien profiter de l’appétit du public pour l’information : après Google, Microsoft, Yahoo, Orange, AOL veulent être des mass media sociaux. Médias, informatique et telcos convergent.

    Et au lieu de travailler ensemble, ils restent « la tête dans le guidon », obsédés par l’urgence de leurs revenus à court terme, voire désormais, leur survie.


    L’Internet aussi vital que l’eau ou le gaz !


    Mais l’informatique et le numérique gagnent du terrain dans le monde physique.


    Européens, Américains, Japonais ou Chinois ignorent d’ailleurs la crise pour leurs dépenses multimédias. L’information en mobilité domine désormais : les constructeurs vendent plus de « smartphones » ou de « laptops » que d’ordinateurs de bureaux. Des ordinateurs ultra low cost envahissent le marché. Demain, le tsunami de « l’ebook » et des tablettes va déferler.

    Après les réseaux sociaux il y a deux ans, le « cloud computing » en 2008, l’heure est au web en temps réel et au « streaming », nouveau casse-tête des producteurs pour protéger leurs contenus. Avec le web, les informations étaient disponibles 24/7, désormais elles le sont quasiment en direct.


    En passant, Twitter et consors donnent un sérieux coup de vieux à l’email qui n’est plus, et de loin, le seul outil en ligne de partage et de communication. Dans le même temps, les journaux deviennent des magazines. Et fort du succès de Hulu, tout le monde veut aller dans la vidéo sur le web !


    « L’Internet est devenu aussi vital que l’eau ou le gaz », commentait en juin le Premier ministre britannique. La Finlande est devenue le 1er pays à faire de l’accès au « broadband » un droit.


    De petites structures deviennent performantes. Le site d’enquêtes journalistiques ProPublica réalise des articles pour le New York Times, tout comme le site Spot.us. Après quatre ans d’existence, le blog américain d’informations Huffington Post a dépassé en audience le site du Washington Post. Toutes les semaines, de petites structures éditoriales se montent dans les grandes villes américaines : hier à Washington, aujourd’hui à Seattle ou au Texas.


    Le vieux monde se délite beaucoup plus vite que ne se bâtit le nouveau


    Pire que les banques ! Depuis l’an 2000, la destruction de valeur dans les grands groupes de médias américains atteint 200 milliards de dollars !


    Les raisons principales en sont l’essor exponentiel de contenus sur Internet où tout le monde est concurrent, un marché publicitaire dévasté, en volume et en tarifs, pour plusieurs années, et des consommateurs qui changent radicalement leurs habitudes. La faute aussi au vieux confort des monopoles.


    2009, année brutale, aura été la pire pour les médias traditionnels depuis des décennies : entre 1929 et 1933, aux USA, la publicité avait chuté de 13% et moitié moins après le 1er choc pétrolier des années 70.


    En 2009, la dégringolade est de 25% en moyenne. La chute des médias est supérieure d’un tiers à celle des PIB. Dans les journaux US, la pub est revenue à son niveau de …1965, et les professionnels de la télévision, réalisent que la publicité ne paiera plus toutes les factures, et qu’il est suicidaire de ne dépendre que d’une source de revenus. 10 ans après les journaux, les télévisions derniers voient décliner aujourd’hui inexorablement leur coeur de métier. La notion de chaînes disparaît.


    Dans la publicité, des signes de stabilisation, voire d’amélioration, apparaissaient ici et là fin 2009, mais chacun assure qu’elle ne retrouvera pas son niveau d’avant la crise, surtout pour les journaux, qui, tous en France, auront perdu de l’argent en 2009.

    En ligne, où surgit d’ailleurs aussi le publicitaire-citoyen, elle continue de progresser : pour la première fois, elle aurait dépassé en Grande-Bretagne la télévision pour en devenir le 1er support. Mais la monétisation des audiences y reste problématique. Les professionnels en sont convaincus : les bannières et les CPM en ligne ne sauveront pas les médias traditionnels. La publicité ne va plus sur l’information mais sur « l’entertainment ». Est-ce le métier d’Adidas de financer une rédaction à Kaboul ?

    L’idée de financer des sites d’informations par de la publicité est donc déjà de l’histoire ancienne.


    En terme de trafic, les plus grands sites de journaux semblent être arrivés à un point de saturation, et commencent à voir grignoter leur position dominante. Pire : le temps passé sur les sites des journaux baisse dangereusement. La lecture des blogs de qualité est devenue « mainstream ».


    D’ailleurs, les nouveaux « pure players » d’informations ont aussi du mal : l’un des meilleurs sites mondiaux, l’espagnol Soitu.es, a du fermer ses portes en octobre en raison de la crise, tout comme l’allemand NetZeitung. Et, pour l’instant, Twitter gagne toujours moins d’argent que les journaux !


    Web payant ? Moment de vérité imminent


    Nous approchons donc du moment de vérité pour voir si le retour du payant sur le web est possible. Des deux côtés les positions sont tranchées : « sans paiement, des médias mourront ». Et il est très possible de faire payer: regardez Canal Plus qui a fait payer la télévision, ou plus simplement, l’eau minérale en bouteille ! En face, la réponse est cinglante : « sur le web, si vous faites payer, vous accélérez votre disparition ! ».


    En fait, il n’y a aujourd’hui aucune solution miracle. Pour l’instant tout le monde dit qu’il fera payer en 2010, et quasi personne ne le fait, ou très progressivement.


    En cette fin 2009, de nombreux éditeurs commencent à flancher et à craindre de perdre leurs audiences en ligne. Même Murdoch n’est plus sûr de tenir son échéance de juin prochain. Les mouvements de menton visaient avant tout les agrégateurs et les parasites, car reconstruire des murs pose beaucoup de problèmes.


    Il est très difficile de faire revenir en arrière les gens, désormais plus habitués à accorder de la valeur à des supports physiques qu’immatériels. Très difficile aussi d’aller contre le courant des nouvelles pratiques et usages de la révolution numérique (facilité d’accès, partage, collaboration, open source, interactions fréquentes…). Très difficile, enfin, de se battre contre la gratuité des concurrents, financés par la publicité (CNN) ou l’Etat (BBC).


    De deux choses l’une : ou tout le monde le fait en même temps, ou celui qui pose des barbelés doit proposer des contenus à très forte valeur ajoutée qui ne sont pas gratuits ailleurs, des contenus « frais », exclusifs (même quelques heures).


    Oui, la valeur est dans les barrières, mais pas dans des murs érigés contre son audience : le public n’est pas prêt à payer pour des contenus qu’il ne regardait même pas quand ils étaient gratuits. Elle est dans des barrières dressées à l’entrée de ses concurrents, dans des nouveaux contenus qui répondent aux nouvelles attentes, dans des services qui les intègrent, les agrègent, les enrichissent, les analysent, les distribuent autrement.


    Mais même l’ajout de contenus premium payants ne sera pas suffisant. Il faudra davantage.

    Davantage, ce seront des sources de revenus en dehors du coeur de métier, mais surtout des nouvelles valeurs ajoutées, des services uniques que le public sera prêt à payer. Des services liés aux nouvelles technologies, à la mobilité, à l’accès, à de nouvelles manières de montrer l’information.


    Davantage, ce seront des contributions directes de l’audience au média, une contribution de fondations, des citoyens, voire même de l’Etat par des subventions, comme n’hésitent plus à le dire des responsables aux Etats-Unis, voire à le faire comme au New Hampshire, pour défendre l’Information, bien public consubstantiel de la démocratie.


    L’information accessible en mobilité (smart phones, e-book) est à cet égard un des grands espoirs des éditeurs car le paiement y est plus naturel, voire indolore.


    Context is King !


    Le premier mythe à combattre dans une économie de l’abondance : le contenu est roi ! Non ! Aujourd’hui, plus encore qu’hier, c’est le contexte, l’éditorialisation, la contextualisation, l’intelligence, la valeur ajoutée, la spécialisation, l’explication, les liens, la réduction de la complexité et de « l’infobésité ». Un vrai travail de médiateur, de média pour relier les connaissances et transformer l’information en savoir.


    Le prix des news tend vers zéro, mais l’enrichissement et le contexte peuvent encore être payant.


    C’est le contexte éditorial (« connect the dots ») qui nous permettra de comprendre le sens de sujets de plus en plus complexes et de résoudre des problèmes. Il n’y pas d’instantanéité dans les informations-clés de nos sociétés, dans les grandes tendances, dans les signaux importants, mais masqués ou dans les angles morts.


    C’est le contexte technologique, donc l’accès aux informations, qui sera aussi déterminant. Reuters et Bloomberg l’ont compris depuis longtemps. Apple en est le champion aujourd’hui. Il faudra chercher à profiter des avantages d’interactivité et de personnalisation des nouveaux médias, et des possibilités du web sémantique.

    N’est ce pas aussi la pertinence des contenus qui fait défaut aujourd’hui? Et avec elle la preuve de leur valeur ajoutée. L’ubiquité des contenus actuels est-elle réellement réclamée par le public? En d’autres termes, le public ne veut-il pas davantage un meilleur journal que le même contenu sur un lecteur e-book ? Faut-il, pour réussir, tenter absolument de tout faire pour tout le monde? Même sur le web, le succès passe par des niches et des verticaux (politique, environnement, sport …)

    La valeur est bien dans la rareté, l’accès, le confort d’usage, le tri, le filtrage, la présentation, la personnalisation, le contexte donné à un contenu, qui ne doit plus être un produit mais un service. C’est accompagner l’audience dans sa consommation d’informations, avec des réponses à ses questions, dans une relation plus partenariale. Les gens sont aussi prêts à payer avec leur temps et leur savoir. Les réseaux sociaux ne sont pas du contenu, mais des plateformes de communication, des supports de contenus.


    On le comprend, faute de modèle économique pertinent sur le web, l’orientation générale, qui se dessine et qui ne fait que commencer, nous amène, à court terme, vers des modèles hybrides, combinant gratuit, publicité, services liés à l’engagement de l’audience autour de la marque, services premium, revenus tiers, contenus payants sur mobiles, contributions directes de l’audience, aide publiques.


    Quel nouveau journalisme ?


    Dans le même temps, les emplois de journalistes disparaissent, dans cette crise économique, trois fois plus vite que les autres. Les coupes claires dans les coûts et les effectifs (bizarre quand même de se séparer des actifs les plus précieux), et les demandes de produire toujours plus en moins de temps, ont dégradé la qualité du journalisme et banalisé les contenus, les rendant encore moins attrayant pour le public. Les secteurs les plus touchés sont l’international, l’enquête, les contenus originaux et exclusifs.

    Les rédactions, dépossédées de leur magistère, confrontées à des injonctions paradoxales et aux réactions brutales de leurs audiences changeantes, vivent souvent mal l’essor d’Internet qui, les sortant de leur zone de confort, continue de semer la panique, alimentant chaque jour un peu plus les problèmes culturels, qui freinent les efforts d’adaptation des entreprises.

    A tous les niveaux, chacun se bat avec les mêmes questions : comment concilier contenus payants et gratuits ? Comment améliorer les liens entre les services techniques et la rédaction, entre le print et le web ? Quelles stratégies choisir pour les mobiles et les e-book ? Comment engager davantage l’audience en ligne et créer des contenus pertinents ?

    C’est “le sauve qui peut”, dit le directeur d’un grand journal parisien. Personne, ou presque, ne veut plus prendre de responsabilités.

    Nombreuses sont les interrogations sur la manière dont vont évoluer les métiers du journalisme, qui demeure un mode de représentation du réel (comme la photographie, le cinéma, la littérature, la peinture, la sculpture, voire la philosophie ou la psychanalyse). C’est la rapidité et l’ampleur des changements qui ont touché le secteur dans un laps de temps très court, plus que leur nature, qui inquiète.


    Les journalistes devront sans faire moins, mais très certainement, faire mieux. Ils vont aussi devoir abandonner un peu leur stylo pour de nouveaux outils. De plus en plus nombreux sont ceux qui se mettent à la vidéo légère.


    Nombreux aussi sont ceux, qui vont travailler pour des fondations, des ONG, ou partent créer leur structure éditoriale sous leur propre marque.


    En 2009, les journalistes, qui avaient tendance être de plus en plus déconnectés du public, « se prennent désormais leur audience dans la figure » et ont, en tout cas, commencé à réaliser l’importance d’inter agir avec elle.


    Les médias sociaux font partie du quotidien des rédactions et effraient moins. Les journalistes savent que là se trouve une bonne partie de leur audience Internet. C’est là aussi que chaque « grosse histoire » est désormais commentée. Mais ils doivent aussi penser mobiles, Twitter, coopération avec le public, infographie animée et interactive, visualisation de données (transformer des statistiques en savoir) …Le marketing éditorial n’est pas loin.


    Et puis, si tout le monde est devenu un média, le bon usage des outils de production et de diffusion peut devenir une matière obligatoire à l’école ! Ce qu’on appelle en anglais la « Media literacy » et où les professionnels ont un rôle à jouer.


    Demain : la réalitée augmentée, les capteurs


    Le buzz de fin 2009 est bien sûr autour de l’ebook, qui pourrait à terme offrir de belles opportunités. Gardons-nous, dans l’immédiat, d’y placer trop d’espoirs tant que le prix unitaire des liseuses ne baissera pas, tant que leur manipulation ne sera pas plus aisée, voire que la couleur et la vidéo n’apparaissent, et surtout qu’Amazon ou Apple ne desserrent leur étreinte sur les prix imposés. Apple, avec sa future tablette, pourrait mettre tout le monde d’accord, et surtout attirer les jeunes, car les liseuses électroniques ne semblent pour l’instant séduire que les … seniors.


    Après le tactile, l’écran flexible pourrait aussi être disponible dans quelques mois. Les éditeurs se mettent petit à petit à faire des expérimentations avec des applications en réalité augmentée, surtout via les mobiles.


    A moyen terme, la plus grande révolution sera probablement, « le Web au carré » : 5 ans après le web 2.0, le web commence à rencontrer le monde physique, grâce à une multitude de senseurs et de capteurs, sans intervention humaine explicite (géolocalisation, caméra sur téléphones, proximité, directions, réalité augmentée…) qui mettent en relations des informations de la vie quotidienne et des bases de données. A coup sûr, la multiplication des capteurs va modifier l’interaction de l’homme avec son environnement et aura un impact important sur la collecte d’information.


    D’ici 5 ans, les accès « broadband » seront non seulement généralisés, mais aussi bien meilleurs, et les smart phones seront partout. La « killer app » des médias de demain sera comme toujours un grand contenu facile d’accès. Il faudra un peu de temps pour la trouver. Mais les périodes de crise sont les plus propices à la réflexion et à l’expérimentation. Après tout, pendant des années, Gutenberg n’a imprimé que la Bible.


    Le papier sera-t-il alors devenu un refuge « rétro chic » pour bobos ?

    »Article initialement publié sur AFP Mediawatch


    ]]> http://owni.fr/2009/11/18/context-is-king/feed/ 3