image

LT-05032019-Une ré­ponse à la crise des mé­dias et aux «fake news»

Pour contrer les al­go­rithmes des ré­seaux so­ciaux qui nous en­ferment dans une «bulle de filtres», Be­noît Ra­phaël en­traîne des ro­bots à iden­ti­fier l’in­for­ma­tion de qua­li­té. Ces in­tel­li­gences ar­ti­fi­cielles son­ne­ront-elle le glas des fausses nou­velles?

  • Le Temps   5 Mar 2019   PRO­POS RECUEILLIS PAR MEHDI ATMANI @meh­di_at­ma­ni

(FLINT)Les créa­teurs de Flint ont ima­gi­né une ar­mée de vi­suels pour don­ner vie aux ro­bots-cu­ra­teurs.

Pour contrer les al­go­rithmes des ré­seaux so­ciaux qui en­ferment l’in­ter­naute dans une «bulle de filtres», Be­noît Ra­phaël, éle­veur de ro­bots, a créé Flint. Un pro­gramme qui traque la qua­li­té de l’in­for­ma­tion au moyen de ro­bots fonc­tion­nant comme des êtres hu­mains et uti­li­sant leurs propres cri­tères de dé­ci­sion dans le choix des conte­nus. Ré­sul­tat: une news­let­ter qui re­cense le meilleur des pu­bli­ca­tions quo­ti­diennes. Ex­pli­ca­tions.

Be­noît Ra­phaël est éle­veur de ro­bots, une pro­fes­sion pleine d'ave­nir. Ces dix der­nières an­nées, le jour­na­liste fran­çais a lan­cé une ky­rielle de mé­dias loués, ja­lou­sés ou dé­criés comme Le Post, Le Plus de L’Obs ou Le Lab d'Eu­rope1. Tous ex­pé­ri­mentent la re­la­tion entre l'hu­main et le ro­bot dans la pro­duc­tion de l'in­for­ma­tion.

Son der­nier pro­jet en date, Flint, a pour but de «t'ai­der à trou­ver des ar­ticles de qua­li­té, te faire ga­gner du temps, et aus­si te sur­prendre», in­dique le ro­bot sur sa page dé­diée. «Chaque jour, je lis des mil­liers d'ar­ticles et je t'en­voie une sé­lec­tion per­son­na­li­sée des meilleurs dans une news­let­ter.»

Pour ce faire, Flint s'ap­puie sur l'in­tel­li­gence ar­ti­fi­cielle: des ro­bots qui fonc­tionnent comme des êtres hu­mains et uti­lisent leurs propres cri­tères de dé­ci­sion dans le choix des conte­nus. Dans la masse des pu­bli­ca­tions quo­ti­diennes, ils jouent les cu­ra­teurs, es­sayant en per­ma­nence de sur­prendre l'uti­li­sa­teur en lui fai­sant des pro­po­si­tions pour le faire sor­tir de sa bulle de filtres. Be­noît Ra­phaël, qui «élève» au­jourd'hui plus de 1300 ro­bots, ex­plique com­ment l'édu­ca­tion des al­go­rithmes est une ré­ponse à la crise des mé­dias et un rem­part à la pro­li­fé­ra­tion des fausses nou­velles.

Flint, c’est l’aveu de notre im­puis­sance face à la dic­ta­ture al­go­rith­mique liée à l’in­for­ma­tion?

C'est d'abord un hé­ri­tage. Ce­lui d'une start-up mon­tée en 2013 avec l'éle­veur de ro­bots Tho­mas Ma­hier et le lin­guiste Jean Vé­ro­nis. L'idée était de four­nir un ser­vice aux mé­dias en nous ap­puyant sur les al­go­rithmes afin de faire re­mon­ter en temps réel les su­jets les plus par­ta­gés sur in­ter­net. Nous nous sommes vite ren­du compte qu'un su­jet qui «buzze» n'était pas né­ces­sai­re­ment d'uti­li­té pu­blique, de qua­li­té et re­pré­sen­ta­tif de la réa­li­té. Après la mort ac­ci­den­telle de Jean Vé­ro­nis en 2016, Tho­mas et moi avons dé­ci­dé de re­voir notre co­pie en pre­nant le temps de dé­ve­lop­per un ser­vice utile. Flint, c'est donc le constat d'un pro­blème: c'est le chaos. Les al­go­rithmes nous em­pêchent d'ac­cé­der à la di­ver­si­té de l'in­for­ma­tion.

Mais la qua­li­té de l’in­for­ma­tion ne se pro­gramme pas…

C'est vrai. Pour­tant, j'avais un vrai be­soin. Ma veille m'en­fer­mait dans des lec­tures de plus en plus pauvres. Tho­mas Ma­hier m'a donc créé un ro­bot per­son­na­li­sé. Jeff est né en août 2016. Je l'élève de­puis en le nour­ris­sant avec les ar­ticles qui m'in­té­ressent. Il uti­lise l'in­tel­li­gence ar­ti­fi­cielle afin de me sug­gé­rer des ar­ticles qui ré­pondent à mes propres cri­tères de qua­li­té. Jeff fonc­tionne comme mon as­sis­tant per­son­nel. Il connaît tout de moi, de mes en­vies, de mes in­té­rêts, et va es­sayer en per­ma­nence de me sur­prendre avec des conte­nus de qua­li­té qui vont me sor­tir de ma bulle de filtres.

Com­ment les ro­bots sont-ils de­ve­nus les pre­miers pro­duc­teurs de fausses in­for­ma­tions?

Le propre du ma­chine lear­ning (ap­pren­tis­sage au­to­ma­tique) consiste à nour­rir les ro­bots avec des don­nées. C'est sur cette ma­tière qu'ils créent leurs propres règles. C'est parce que nous ne pou­vons plus leur en don­ner qu'il faut leur ap­prendre à bien ap­prendre. C'est ce qu'on a mal fait jus­qu'ici. Le fait qu'ils soient au­to­nomes et qu'ils traitent des don­nées à toute vi­tesse crée des biais dif­fi­ciles à cor­ri­ger. L'al­go­rithme n'est donc pas neutre. Il est in­fluen­çable.

En 2016, Mi­cro­soft a lan­cé Tay sur Twit­ter. Il s'agis­sait d'une in­tel­li­gence ar­ti­fi­cielle dont la mis­sion était d'ana­ly­ser com­ment les 18-24 ans s'ex­pri­maient sur la Toile. Le pro­blème est que les membres du fo­rum ano­nyme 4Chan s'en sont em­pa­rés et l'ont nour­ri avec des conte­nus ra­cistes et ho­mo­phobes entre autres. Tay s'est donc mis à twee­ter que les Noirs étaient des singes et qu'Hit­ler n'était pas si mé­chant que ce­la. Tay n'est pas ra­ciste. Ce sont ses en­traî­neurs qui le sont.

Fa­ce­book est dans la tour­mente de­puis de longs mois. Et la crise pro­met de du­rer. Si le ré­seau social est ac­cu­sé d’in­fluen­cer l’opinion pu­blique, c’est parce qu’il a mal édu­qué ses al­go­rithmes?

Un ro­bot reste très «con». Je veux dire par là qu'il sim­pli­fie la réa­li­té. Donc s'en éloigne. On ne com­prend pas tou­jours pour­quoi les ro­bots nous ren­voient tel type de conte­nus. Ils créent donc des biais qui en­gendrent des fake news. Les don­nées qui ont per­mis de nour­rir les al­go­rithmes de Fa­ce­book ne sont pas mau­vaises, mais elles re­flètent

«Il faut faire en sorte qu’il y ait le moins de filtres pos­sible entre le fait ob­ser­vé et l’in­for­ma­tion dé­li­vrée»

les biais de leurs pro­gram­meurs, soient des hommes blancs, Amé­ri­cains et hé­té­ro­sexuels.

A l'ori­gine, les cadres de Fa­ce­book étaient des geeks avec un idéal li­ber­taire. Beau­coup me disent au­jourd'hui qu'ils ont pris conscience d'avoir créé des monstres in­con­trô­lables. Afin de les conte­nir, plu­sieurs di­zaines de mil­liers d'em­ployés de Fa­ce­book sont dé­sor­mais dé­diés à la mo­dé­ra­tion des conte­nus.

Vous éle­vez plus de 1300 ro­bots. Votre ferme nu­mé­rique est donc une école de re­dres­se­ment pour al­go­rithmes? Un rem­part aux «fake news»?

Un peu des deux. Avec l'ar­ri­vée de Google, puis des ré­seaux so­ciaux, je me suis ren­du compte que l'in­for­ma­tion était de­ve­nue très ho­ri­zon­tale parce que les al­go­rithmes sont de­ve­nus com­plè­te­ment fous. Les jour­na­listes, comme les ci­toyens se sont re­trou­vés face à une ri­chesse de conte­nus sur in­ter­net, mais dif­fi­ci­le­ment ac­ces­sibles du fait des bulles de filtres. La crise des mé­dias est ve­nue ac­cé­lé­rer ce pro­ces­sus. La pu­bli­ci­té qui les fi­nan­çait jusque-là a mi­gré sur in­ter­net. Pour ré­cu­pé­rer une au­dience mas­sive, les jour­na­listes se sont mis à écrire pour les al­go­rithmes de Google et Fa­ce­book. Google est un mé­dia qui a réus­si. C'est une page de ré­sul­tats sur la­quelle je vends de la pu­bli­ci­té.

Se­lon vous, les mé­dias sont au­jourd’hui pié­gés, car dé­pen­dants des al­go­rithmes pour com­pen­ser l’éro­sion de leurs re­cettes pu­bli­ci­taires.

Ce piège est le ré­sul­tat d'une dis­per­sion de l'au­dience et d'une perte conco­mi­tante du mo­dèle d'af­faires ba­sé ex­clu­si­ve­ment sur la vente d'un conte­nu à une au­dience de masse. Si vous vou­lez que vos conte­nus de qua­li­té soient vus, il faut écrire pour des ro­bots. Du coup, les mé­dias s'af­folent en es­sayant de re­créer cette au­dience de masse. Ils pro­duisent donc beau­coup de conte­nus, et très vite. C'est beau­coup de gas­pillage. Beau­coup de jour­na­listes mal payés dans un sec­teur – le net – qui n'est pas ren­table. Cette si­tua­tion vient aus­si d'un manque de cou­rage de cer­tains pa­trons de presse.

Ces der­nières an­nées, plu­sieurs mé­dias ont pour­tant ré­agi en si­gnant un re­tour à l’offre payante. Ils misent sur la qua­li­té et se montrent beau­coup plus trans­pa­rents sur les modes de pro­duc­tion de l’in­for­ma­tion.

Le re­tour à l'offre payante ne règle pas la ques­tion de la qua­li­té. Il la ré­équi­libre. De plus, l'offre payante ne concerne que 1% de la po­pu­la­tion. Le pro­blème se niche dans la crise de confiance que tra­versent les mé­dias. En France, elle se si­tue en des­sous des 30%. C'est moins que l'Eglise ca­tho­lique. Pour re­ga­gner la confiance de la po­pu­la­tion, les mé­dias doivent d'abord ré­flé­chir à la ma­nière dont ils pro­duisent l'in­for­ma­tion. Pas seule­ment en termes de qua­li­té, mais aus­si en termes de fa­çon de faire. C'est un long pro­ces­sus de ré­si­lience.

Vous plai­dez pour un cir­cuit court de l’in­for­ma­tion. De quoi s’agit-il?

Il faut faire en sorte qu'il y ait le moins de filtres pos­sible entre le fait ob­ser­vé et l'in­for­ma­tion dé­li­vrée. Il a fal­lu at­tendre vingt ans après le scan­dale de la vache folle pour que les consom­ma­teurs s'in­té­ressent au conte­nu de leur as­siette. Les fake news, c'est notre vache folle. Est-ce que l'on va de­voir at­tendre vingt ans pour ré­agir? Je ne suis pas contre l'idée d'un la­bel qua­li­té de l'in­for­ma­tion.

 

 

Vous êtes donc un jour­na­liste dé­crois­sant?

Il est urgent de ra­len­tir. Chez Flint, nous sommes plus proches des ar­ti­sans que des in­gé­nieurs de la Si­li­con Val­ley. Nous tra­vaillons l'in­tel­li­gence ar­ti­fi­cielle avec la même len­teur qu'un ar­ti­san. L'AI est plus proche de l'in­tel­li­gence des plantes. C'est très or­ga­nique.

En créant leur propre mo­dèle de pro­duc­tion de l’in­for­ma­tion, les mé­dias peuvent-ils s’af­fran­chir de Google et de Fa­ce­book pour la dif­fu­sion et la cap­ta­tion de l’au­dience?

L'im­por­tant est de pou­voir res­ter in­dé­pen­dant par rap­port à tous les sup­ports. Le mo­dèle éco­no­mique des mé­dias n'est plus unique. C'est une com­bi­nai­son de dif­fé­rents mo­dèles. On peut trou­ver ma­lin qu'un mé­dia tente le tout in­ter­net. Mais dès que Fa­ce­book ou Google chan­ge­ront leurs al­go­rithmes, ce mé­dia se­ra mort. Il ne faut donc pas mettre tous ses oeufs dans le même pa­nier. La clé ré­side dans la di­ver­si­fi­ca­tion des sup­ports de dif­fu­sion et dans la qua­li­té du lien qu'un mé­dia crée avec ses au­diences. Si vous jouez sur dif­fé­rents ca­naux, vous fi­dé­li­se­rez dif­fé­rentes au­diences.

Vous ci­tez d’ailleurs en exemple le trai­te­ment mé­dia­tique des «gi­lets jaunes» par le «pure player» Brut. Il s’agit pour­tant d’un mé­dia ex­clu­si­ve­ment dif­fu­sé sur les ré­seaux so­ciaux, et uni­que­ment en for­mat vi­déo.

Brut n'est pas une ré­fé­rence jour­na­lis­tique. Mais Ré­my Bui­sine, le pro­duc­teur des di­rects, s'est pro­me­né des heures au sein des «gi­lets jaunes». Il filme en conti­nu et ex­plique ce qu'il voit. Nous sommes dans le de­gré le plus simple du trai­te­ment de l'in­for­ma­tion. Ce qui m'in­trigue, c'est que Ré­my Bui­sine est le seul jour­na­liste en qui les «gi­lets jaunes» ont confiance. La rai­son? La fa­çon dont il a fa­bri­qué son di­rect était claire et trans­pa­rente.

«Un ro­bot reste très «con». Je veux dire par là qu’il sim­pli­fie la réa­li­té. Donc s’en éloigne»

 

 

20 ans après Google, où en est l’information ?

2 octobre 2018, par RAPHAËL Benoît

 

Depuis 20 ans, Google est devenu beaucoup de choses. Un symbole, un ennemi pour beaucoup, un nom qui était au début plutôt rigolo avec toutes ses couleurs enfantines et même, par moments, ses symboles du « Burning Man » qui apparaissaient de temps en temps (un festival pionnier d’une certaine forme de contre-culture et dont les fondateurs de Google étaient les premiers adeptes). Google c’était le truc le plus simple du monde. Une page blanche et un champ pour entrer sa requête. Et quand on entrait sa requête la page blanche se remplissait de résultats. Et Google mettait des pubs dans ses pages. Et puis quand vous cliquiez sur un des liens de la page de résultats vous affichiez souvent une page qui contenait elle aussi une pub Google.

image
@Tom Hawk (CC BY-NC 2.0)

Google a 20 ans. Et son modèle n’a jamais changé. Depuis toujours, près de 90% de ses revenus viennent de cette publicité générée depuis cette simple page avec un champ de recherche, qui elle même n’a pas beaucoup changé. Ce n’est d’ailleurs pas Google qui a inventé « l’adword », comme on l’appelle. Mais c’est Google qui a tout raflé.

On parle de Google à propos de tout : son Intelligence artificielle qui va tout contrôler, ses centres de recherche qui vont nous rendre immortels, ses voitures qui vont rouler toutes seules. Mais au bout du compte, Google c’est d’abord, fondamentalement, structurellement, une machine à délivrer de l’information et à vendre de la publicité sur l’information qu’elle délivre.

Google, c’est un média qui a réussi.

Alors, évidemment, c’est un média qui délivre de l’information qui ne lui appartient pas. Mais le phénomène n’est pas nouveau. Quand l’imprimerie est arrivée, les premiers journaux imprimés n’étaient en fait que de simples agrégateurs qui pillaient les informations glanées dans les lettres d’infirmations, écrites à la main celles-là, qui circulaient de main en main, et y ajoutaient quelques "fake news" (déjà !) et autres histoires incroyables de monstres légendaires. On les appelait les « Corantos », les « Courantes ». Après il y a eu la radio accusée de piller les journaux, et puis la télévision accusée de piller les deux premiers. Et maintenant Google.

L’analogie pourrait nous laisser penser que tout ça devrait donc se ré-équilibrer. Et que l’on verra apparaître un jour une nouvelle technologie qui pillera à son tour Google pour la rendre plus adaptée aux nouveaux usages. Sauf que Google n’a jamais franchi le pas de la production de contenus. A la différence de Yahoo, qui était un moteur de recherche avant Google, qui était aussi le premier aussi à avoir introduit des « adwords » pour se financer, mais qui a cédé à la tentation : produire ses propres contenus. Et Yahoo s’est effondré.

Google est un média qui a réussi, et qui est devenu la deuxième marque la plus valorisée au monde, après Apple. Contrairement aux apparences, les deux entreprises ne sont d’ailleurs pas si éloignées que ça dans leur approche.

Apple donne des outils aux créatifs ("Think different"). Google donne des outils aux producteurs de contenus, sauf qu’il s’occupe ensuite de tout.

C’est une sorte de média à l’envers, qui serait devenu omniprésent. C’est pour cela qu’il donne l’effet d’un trou noir dans la galaxie des médias. Un trou noir est un soleil qui a tellement de masse, qu’il aspire presque tout autour de lui, transforme l’espace-temps, et ne laisse plus sortir la lumière.

En fait, si l’on commence à réfléchir comme un moteur de recherche, et que l’on se téléporte aux démarrage d’Internet, on comprend une chose : si votre modèle, inchangé depuis des années, c’est de gagner de l’argent à partir d’une page blanche et d’un champ de recherche, vous n’avez qu’une obsession : faire en sorte que le monde crée un maximum de contenus, et s’arranger pour que ça soit le plus chaotique possible. Plus il y a de contenus provenant de toutes parts, plus il y a de chaos et de richesse, et plus on a besoin de chercher. Et plus il y a de pages de recherches, plus il y a de pubs à afficher.

Google a donc naturellement tout fait pour donner à chacun les outils pour créer, diffuser et financer ses propres contenus. Du blogueur, au youtubeur, en passant par les vendeurs de produits et de services. Avant, quand vous aviez une idée à faire passer, une information à diffuser, ou un produit à faire connaître, il fallait passer par les médias. Pour s’informer, pareil : à travers les médias. Pour trouver un bon produit, on passait par les médias, ou on demandait conseil au vendeur dans les magasins.

Google a donné le pouvoir aux gens. Et il a réussi parce qu’il s’appuyait sur un terrain déjà fragilisé. Avant Google, chacun était dans sa bulle. Recevait une information sans doute de qualité (mais pas toujours), mais toujours la même, sans doute des produits de qualité (mais pas toujours), mais toujours les mêmes. Et surtout, on ne pouvait rien dire. On ne pouvait pas contester. On ne pouvait pas proposer d’alternative parce que la barrière d’entrée dans ce monde verticalisé était trop importante. Pour de nombreux médias, l’audience était un concept, qu’ils appelaient "les gens" ou "Madame Michu", dont ils étaient complètement déconnectés et qui ne correspondait à aucune réalité. Comme l’écrit Bill Kovach ("The Elements of Journalism") :

"Les citoyens étaient devenus une abstraction, quelque chose dont parlait la presse mais à qui elle ne parlait plus"

Quand Google est arrivé il y a 20 ans, la pression était donc déjà énorme, le terrain était prêt. Il lui a suffit d’aligner ses outils, de ne faire que ça, et de le faire bien, pour faire basculer le monde. Google est un média qui a réussi, et qui a fait basculer le monde.

On mesure après coup l’ampleur du pouvoir potentiel que les médias détenaient dans leurs mains à l’aube de l’âge de l’information. Mais ce pouvoir était porté par un système encore jeune (les premiers journaux sont apparus au XVIIème siècle), à l’indépendance économique et politique très fragile et immature.

Aujourd’hui, vingt ans après, où en est-on ? On est passé d’une production relativement artisanale, puis centralisée de l’information, à une production industrialisée et mondialisée de l’information.

Le résultat ?

L’industrie de l’information se trouve à un stade comparable à l’industrie agro-alimentaire il y a 20 ans. C’est à dire au commencement de sa crise la plus grave.

La société de consommation a eu son âge d’or : les années 80. Et le début de sa grande crise structurelle, les années 90, avec l’arrivée de la vache folle, l’obésité chronique et l’absurdité d’un système traitant l’alimentation comme un produit plus que comme un nutriment. De moins en moins chère, de plus en plus distribuée, de plus plus opaque, de moins en moins nourrissante, et qui détruisait en même temps son propre écosystème. 20 ans après, le consommateur moyen commence à peine à s’interroger sur ce qu’il trouve dans son assiette et à modifier ses habitudes.

Pour l’information, c’est pareil. On est passé il y a 10 ans de l’abondance à la crise d’épilepsie. La crise d’épilepsie, dans le cerveau, c’est quand l’ouverture d’un maximum de canaux de communication entraine la répétition d’informations parfaitement identiques, avec les effets que l’on connait sur l’individu (l’analogie avec la société est brillamment développée par le neuroscientifique Lionel Nacache).

On est passé de la richesse d’une information horizontalisée à la suproduction d’une information de plus en plus copiée-collée (pour sa majorité), à bas coût, de moins en moins informante, de plus en plus consommée, et qui détruit son propre écosystème.

Les producteurs d’information gagnent (et gagneront) de moins en moins d’argent mais doivent produire de plus en plus pour essayer de toucher un maximum de personnes à travers des canaux de distribution de plus en plus fragmentés, et dont 90% des revenus publicitaires sont désormais captés par Google, Facebook et Ali Baba. C’est une voie sans issue.

Résultat : plus de 64% de l’information générale produite en France est un copié-collé, la plupart du temps de l’AFP (lire à ce propos l’étude de Julia Cagé).

Cela ne veut pas dire qu’il y a moins de qualité qu’avant, au contraire. Mais le gros du volume est tellement dégradé que la qualité est de moins en moins accessible et de plus en plus difficile à produire.

L’essentiel de ce qui est produit est gaspillé en une journée, à peine consommé, et quasiment jamais recyclé. Ni même recyclable.

Comme dans l’agriculture, une partie de cette production d’information est subventionnée par l’état (40% du budget de l’AFP et 10% du budget des médias traditionnels sont subventionnés par l’Etat). Ce qui permet d’éviter l’effondrement, mais entraine également les médias dans un cercle vicieux.

Ce n’est pas tant la faute de Google, d’ailleurs, que la faute d’une industrie déjà fragilisée, déconnectée de son audience depuis longtemps, qui a refusé de se remettre fondamentalement en cause, et s’est obstinée à essayer de préserver son influence, tout en allant chercher les subventions.

20 après Google, on est passé de notre petite bulle locale, à une incroyable explosion, pour revenir à de nouvelles bulles, que l’on appelle aujourd’hui les "bulles d’information" ou les "bulles de filtre". Paradoxe absolu de la crise d’épilepsie qui transforme l’ouverture au monde et aux autres en une vague d’uniformisation débilitante. Que l’on pourrait comparer à la monoculture, conséquence d’une industrie agro-alimentaire rendue folle par une mondialisation devenue hors de contrôle et prise au piège de ses propres commandements.

Les fake-news sont la vache folle de l’industrie de l’information. On commence à se dire qu’il y a quelque chose qui ne tourne pas vraiment rond, mais, comme il y a 20 ans avec la vache folle, on ne sait pas précisément comment s’y prendre. Parce que c’est tout un système qu’il faudrait changer.

Deux ans après avoir lancé nos intelligences artificielles Flint à la recherche de la qualité et de la diversité de l’information, nous sommes en train de confirmer ce constat d’un écosystème extrêmement dégradé et fragilisé.

Il y a une illusion de trop plein d’informations. Il y a surtout énormément de bruit, de contenus répliqués, de notifications inutiles qui nous font perdre notre temps.

Mais quand nous avons envoyé nos robots à la recherche de contenus de qualité sur des sujets de niche, ils ont réussi à trier une richesse jusque là inaccessible, mais en les poussant plus loin, ils ont découvert derrière la jungle, les territoires profonds de l’information.

Ce sont des terres désolées, envahies de fake news et d’informations fantômes.

En face à ce mirage : l’industrie de l’information fonce tête baissée, avec de moins en moins d’argent, tout en continuant à détruire le terrain sur lequel elle se développe. Un terrain asséché par la perte de confiance et d’attention. Elle s’obstine, parce qu’elle ne peut souvent pas faire autrement, à maximiser la distribution au lieu de prioriser la diversité des contenus et la transparence.

Alors 20 ans après Google, quelles solutions ?

En agriculture et en agronomie, 20 ans après la vache folle, on commence à trouver des solutions. Ce sont des petites solutions. Encore trop faiblement déployées. Mais c’est un début. Elles passent par la création de modèles multiples et résilients (que décrit très bien l’agronome Pablo Sevigne dans ce petit ouvrage passionnant : "Comment nourrir l’Europe en temps de crise"). C’est à dire hyper-résistants (sans pesticides !), par l’imbrication par exemple de circuits courts qui mettent en avant le lien, la traçabilité et la transparence sur la transformation. Des polycultures, des agricultures en "3D", des agricultures urbaines ou des permacultures qui accumulent ou entrecroisent les productions et les sources de revenus. Des modèles qui stimulent l’écosystème et la biodiversité, au lieu de continuer de l’assécher et qui nourrissent vraiment au lieu de faire grossir.

Mettez le mot "information" à la place du mot "alimentation" dans le paragraphe précédent, et vous découvrirez quelques pistes, pas suffisantes, mais utiles pour amorcer le débat dans le bon sens : besoin de modèles résilients (plus de valeur, moins de coûts, moins de production ou en tout cas moins de gaspillage), de circuits courts (locaux ou facilitant les rencontres physiques) qui impliquent les lecteurs et expliquent comment se fabrique l’information, ou plus de circuits imbriqués.

Et surtout : des modèles qui stimulent l’écosystème : qui garantissent et nourrissent la diversité de l’information, la co-existence des points de vue opposés. Qui donnent aussi les moyens de comprendre et de juger par soi-même, qui donnent envie d’être curieux, qui nourrissent vraiment les lecteurs en leur donnant des contenus qui leur soient utiles dans leur activité. Qui font baisser l’infobésité ou ralentissent le rythme mais pas la diversité.

Mais au-delà de ça, en tant qu’individus, nous avons besoin de plus nous impliquer dans notre consommation d’information. Mal s’informer, c’est comme mal se nourrir. Ça part aussi de nous. Pour ça l’intelligence artificielle peut nous aider à maîtriser l’incroyable complexité de ce chaos d’information et à sortir de notre bulle. Commencer à recycler et sanctuariser un certain nombre de contenus de référence passés à la trappe du temps, tout en nous protégeant des fake news. A condition de nous approprier cette technologie intelligente. Comme un coach personnel d’info, comme on a des coach diététicien. Un compagnon bienveillant en qui on aie confiance, qui nous rende acteurs et responsables de notre façon de nous informer. Pas une armée d’algorithmes envoyée par les géants du web présentée comme le dernier pesticide anti-fake news qui va tout régler.

Google a été un acteur de cette révolution mais surtout un symptôme. Il est temps de s’attaquer aux symptômes.

Voir l’article original de Benoît Raphaẽl

LT-05032019-Une ré¬ponse à la crise des mé-dias et aux «fake news»

Commentaires

Benoît Raphaël est expert en innovation digitale et média, journaliste, blogueur et entrepreneur. Il est aujourd’hui "éleveur de robots".