Raymond Morel
1840 days ago
Pour contrer les algorithmes des réseaux sociaux qui nous enferment dans une «bulle de filtres», Benoît Raphaël entraîne des robots à identifier l’information de qualité. Ces intelligences artificielles sonneront-elle le glas des fausses nouvelles?
(FLINT)Les créateurs de Flint ont imaginé une armée de visuels pour donner vie aux robots-curateurs.
Pour contrer les algorithmes des réseaux sociaux qui enferment l’internaute dans une «bulle de filtres», Benoît Raphaël, éleveur de robots, a créé Flint. Un programme qui traque la qualité de l’information au moyen de robots fonctionnant comme des êtres humains et utilisant leurs propres critères de décision dans le choix des contenus. Résultat: une newsletter qui recense le meilleur des publications quotidiennes. Explications.
Benoît Raphaël est éleveur de robots, une profession pleine d'avenir. Ces dix dernières années, le journaliste français a lancé une kyrielle de médias loués, jalousés ou décriés comme Le Post, Le Plus de L’Obs ou Le Lab d'Europe1. Tous expérimentent la relation entre l'humain et le robot dans la production de l'information.
Son dernier projet en date, Flint, a pour but de «t'aider à trouver des articles de qualité, te faire gagner du temps, et aussi te surprendre», indique le robot sur sa page dédiée. «Chaque jour, je lis des milliers d'articles et je t'envoie une sélection personnalisée des meilleurs dans une newsletter.»
Pour ce faire, Flint s'appuie sur l'intelligence artificielle: des robots qui fonctionnent comme des êtres humains et utilisent leurs propres critères de décision dans le choix des contenus. Dans la masse des publications quotidiennes, ils jouent les curateurs, essayant en permanence de surprendre l'utilisateur en lui faisant des propositions pour le faire sortir de sa bulle de filtres. Benoît Raphaël, qui «élève» aujourd'hui plus de 1300 robots, explique comment l'éducation des algorithmes est une réponse à la crise des médias et un rempart à la prolifération des fausses nouvelles.
Flint, c’est l’aveu de notre impuissance face à la dictature algorithmique liée à l’information?
C'est d'abord un héritage. Celui d'une start-up montée en 2013 avec l'éleveur de robots Thomas Mahier et le linguiste Jean Véronis. L'idée était de fournir un service aux médias en nous appuyant sur les algorithmes afin de faire remonter en temps réel les sujets les plus partagés sur internet. Nous nous sommes vite rendu compte qu'un sujet qui «buzze» n'était pas nécessairement d'utilité publique, de qualité et représentatif de la réalité. Après la mort accidentelle de Jean Véronis en 2016, Thomas et moi avons décidé de revoir notre copie en prenant le temps de développer un service utile. Flint, c'est donc le constat d'un problème: c'est le chaos. Les algorithmes nous empêchent d'accéder à la diversité de l'information.
Mais la qualité de l’information ne se programme pas…
C'est vrai. Pourtant, j'avais un vrai besoin. Ma veille m'enfermait dans des lectures de plus en plus pauvres. Thomas Mahier m'a donc créé un robot personnalisé. Jeff est né en août 2016. Je l'élève depuis en le nourrissant avec les articles qui m'intéressent. Il utilise l'intelligence artificielle afin de me suggérer des articles qui répondent à mes propres critères de qualité. Jeff fonctionne comme mon assistant personnel. Il connaît tout de moi, de mes envies, de mes intérêts, et va essayer en permanence de me surprendre avec des contenus de qualité qui vont me sortir de ma bulle de filtres.
Comment les robots sont-ils devenus les premiers producteurs de fausses informations?
Le propre du machine learning (apprentissage automatique) consiste à nourrir les robots avec des données. C'est sur cette matière qu'ils créent leurs propres règles. C'est parce que nous ne pouvons plus leur en donner qu'il faut leur apprendre à bien apprendre. C'est ce qu'on a mal fait jusqu'ici. Le fait qu'ils soient autonomes et qu'ils traitent des données à toute vitesse crée des biais difficiles à corriger. L'algorithme n'est donc pas neutre. Il est influençable.
En 2016, Microsoft a lancé Tay sur Twitter. Il s'agissait d'une intelligence artificielle dont la mission était d'analyser comment les 18-24 ans s'exprimaient sur la Toile. Le problème est que les membres du forum anonyme 4Chan s'en sont emparés et l'ont nourri avec des contenus racistes et homophobes entre autres. Tay s'est donc mis à tweeter que les Noirs étaient des singes et qu'Hitler n'était pas si méchant que cela. Tay n'est pas raciste. Ce sont ses entraîneurs qui le sont.
Facebook est dans la tourmente depuis de longs mois. Et la crise promet de durer. Si le réseau social est accusé d’influencer l’opinion publique, c’est parce qu’il a mal éduqué ses algorithmes?
Un robot reste très «con». Je veux dire par là qu'il simplifie la réalité. Donc s'en éloigne. On ne comprend pas toujours pourquoi les robots nous renvoient tel type de contenus. Ils créent donc des biais qui engendrent des fake news. Les données qui ont permis de nourrir les algorithmes de Facebook ne sont pas mauvaises, mais elles reflètent
«Il faut faire en sorte qu’il y ait le moins de filtres possible entre le fait observé et l’information délivrée»
les biais de leurs programmeurs, soient des hommes blancs, Américains et hétérosexuels.
A l'origine, les cadres de Facebook étaient des geeks avec un idéal libertaire. Beaucoup me disent aujourd'hui qu'ils ont pris conscience d'avoir créé des monstres incontrôlables. Afin de les contenir, plusieurs dizaines de milliers d'employés de Facebook sont désormais dédiés à la modération des contenus.
Vous élevez plus de 1300 robots. Votre ferme numérique est donc une école de redressement pour algorithmes? Un rempart aux «fake news»?
Un peu des deux. Avec l'arrivée de Google, puis des réseaux sociaux, je me suis rendu compte que l'information était devenue très horizontale parce que les algorithmes sont devenus complètement fous. Les journalistes, comme les citoyens se sont retrouvés face à une richesse de contenus sur internet, mais difficilement accessibles du fait des bulles de filtres. La crise des médias est venue accélérer ce processus. La publicité qui les finançait jusque-là a migré sur internet. Pour récupérer une audience massive, les journalistes se sont mis à écrire pour les algorithmes de Google et Facebook. Google est un média qui a réussi. C'est une page de résultats sur laquelle je vends de la publicité.
Selon vous, les médias sont aujourd’hui piégés, car dépendants des algorithmes pour compenser l’érosion de leurs recettes publicitaires.
Ce piège est le résultat d'une dispersion de l'audience et d'une perte concomitante du modèle d'affaires basé exclusivement sur la vente d'un contenu à une audience de masse. Si vous voulez que vos contenus de qualité soient vus, il faut écrire pour des robots. Du coup, les médias s'affolent en essayant de recréer cette audience de masse. Ils produisent donc beaucoup de contenus, et très vite. C'est beaucoup de gaspillage. Beaucoup de journalistes mal payés dans un secteur – le net – qui n'est pas rentable. Cette situation vient aussi d'un manque de courage de certains patrons de presse.
Ces dernières années, plusieurs médias ont pourtant réagi en signant un retour à l’offre payante. Ils misent sur la qualité et se montrent beaucoup plus transparents sur les modes de production de l’information.
Le retour à l'offre payante ne règle pas la question de la qualité. Il la rééquilibre. De plus, l'offre payante ne concerne que 1% de la population. Le problème se niche dans la crise de confiance que traversent les médias. En France, elle se situe en dessous des 30%. C'est moins que l'Eglise catholique. Pour regagner la confiance de la population, les médias doivent d'abord réfléchir à la manière dont ils produisent l'information. Pas seulement en termes de qualité, mais aussi en termes de façon de faire. C'est un long processus de résilience.
Vous plaidez pour un circuit court de l’information. De quoi s’agit-il?
Il faut faire en sorte qu'il y ait le moins de filtres possible entre le fait observé et l'information délivrée. Il a fallu attendre vingt ans après le scandale de la vache folle pour que les consommateurs s'intéressent au contenu de leur assiette. Les fake news, c'est notre vache folle. Est-ce que l'on va devoir attendre vingt ans pour réagir? Je ne suis pas contre l'idée d'un label qualité de l'information.
Vous êtes donc un journaliste décroissant?
Il est urgent de ralentir. Chez Flint, nous sommes plus proches des artisans que des ingénieurs de la Silicon Valley. Nous travaillons l'intelligence artificielle avec la même lenteur qu'un artisan. L'AI est plus proche de l'intelligence des plantes. C'est très organique.
En créant leur propre modèle de production de l’information, les médias peuvent-ils s’affranchir de Google et de Facebook pour la diffusion et la captation de l’audience?
L'important est de pouvoir rester indépendant par rapport à tous les supports. Le modèle économique des médias n'est plus unique. C'est une combinaison de différents modèles. On peut trouver malin qu'un média tente le tout internet. Mais dès que Facebook ou Google changeront leurs algorithmes, ce média sera mort. Il ne faut donc pas mettre tous ses oeufs dans le même panier. La clé réside dans la diversification des supports de diffusion et dans la qualité du lien qu'un média crée avec ses audiences. Si vous jouez sur différents canaux, vous fidéliserez différentes audiences.
Vous citez d’ailleurs en exemple le traitement médiatique des «gilets jaunes» par le «pure player» Brut. Il s’agit pourtant d’un média exclusivement diffusé sur les réseaux sociaux, et uniquement en format vidéo.
Brut n'est pas une référence journalistique. Mais Rémy Buisine, le producteur des directs, s'est promené des heures au sein des «gilets jaunes». Il filme en continu et explique ce qu'il voit. Nous sommes dans le degré le plus simple du traitement de l'information. Ce qui m'intrigue, c'est que Rémy Buisine est le seul journaliste en qui les «gilets jaunes» ont confiance. La raison? La façon dont il a fabriqué son direct était claire et transparente.
■
«Un robot reste très «con». Je veux dire par là qu’il simplifie la réalité. Donc s’en éloigne»
2 octobre 2018, par RAPHAËL Benoît
Depuis 20 ans, Google est devenu beaucoup de choses. Un symbole, un ennemi pour beaucoup, un nom qui était au début plutôt rigolo avec toutes ses couleurs enfantines et même, par moments, ses symboles du « Burning Man » qui apparaissaient de temps en temps (un festival pionnier d’une certaine forme de contre-culture et dont les fondateurs de Google étaient les premiers adeptes). Google c’était le truc le plus simple du monde. Une page blanche et un champ pour entrer sa requête. Et quand on entrait sa requête la page blanche se remplissait de résultats. Et Google mettait des pubs dans ses pages. Et puis quand vous cliquiez sur un des liens de la page de résultats vous affichiez souvent une page qui contenait elle aussi une pub Google.
Google a 20 ans. Et son modèle n’a jamais changé. Depuis toujours, près de 90% de ses revenus viennent de cette publicité générée depuis cette simple page avec un champ de recherche, qui elle même n’a pas beaucoup changé. Ce n’est d’ailleurs pas Google qui a inventé « l’adword », comme on l’appelle. Mais c’est Google qui a tout raflé.
On parle de Google à propos de tout : son Intelligence artificielle qui va tout contrôler, ses centres de recherche qui vont nous rendre immortels, ses voitures qui vont rouler toutes seules. Mais au bout du compte, Google c’est d’abord, fondamentalement, structurellement, une machine à délivrer de l’information et à vendre de la publicité sur l’information qu’elle délivre.
Google, c’est un média qui a réussi.
Alors, évidemment, c’est un média qui délivre de l’information qui ne lui appartient pas. Mais le phénomène n’est pas nouveau. Quand l’imprimerie est arrivée, les premiers journaux imprimés n’étaient en fait que de simples agrégateurs qui pillaient les informations glanées dans les lettres d’infirmations, écrites à la main celles-là, qui circulaient de main en main, et y ajoutaient quelques "fake news" (déjà !) et autres histoires incroyables de monstres légendaires. On les appelait les « Corantos », les « Courantes ». Après il y a eu la radio accusée de piller les journaux, et puis la télévision accusée de piller les deux premiers. Et maintenant Google.
L’analogie pourrait nous laisser penser que tout ça devrait donc se ré-équilibrer. Et que l’on verra apparaître un jour une nouvelle technologie qui pillera à son tour Google pour la rendre plus adaptée aux nouveaux usages. Sauf que Google n’a jamais franchi le pas de la production de contenus. A la différence de Yahoo, qui était un moteur de recherche avant Google, qui était aussi le premier aussi à avoir introduit des « adwords » pour se financer, mais qui a cédé à la tentation : produire ses propres contenus. Et Yahoo s’est effondré.
Google est un média qui a réussi, et qui est devenu la deuxième marque la plus valorisée au monde, après Apple. Contrairement aux apparences, les deux entreprises ne sont d’ailleurs pas si éloignées que ça dans leur approche.
Apple donne des outils aux créatifs ("Think different"). Google donne des outils aux producteurs de contenus, sauf qu’il s’occupe ensuite de tout.
C’est une sorte de média à l’envers, qui serait devenu omniprésent. C’est pour cela qu’il donne l’effet d’un trou noir dans la galaxie des médias. Un trou noir est un soleil qui a tellement de masse, qu’il aspire presque tout autour de lui, transforme l’espace-temps, et ne laisse plus sortir la lumière.
En fait, si l’on commence à réfléchir comme un moteur de recherche, et que l’on se téléporte aux démarrage d’Internet, on comprend une chose : si votre modèle, inchangé depuis des années, c’est de gagner de l’argent à partir d’une page blanche et d’un champ de recherche, vous n’avez qu’une obsession : faire en sorte que le monde crée un maximum de contenus, et s’arranger pour que ça soit le plus chaotique possible. Plus il y a de contenus provenant de toutes parts, plus il y a de chaos et de richesse, et plus on a besoin de chercher. Et plus il y a de pages de recherches, plus il y a de pubs à afficher.
Google a donc naturellement tout fait pour donner à chacun les outils pour créer, diffuser et financer ses propres contenus. Du blogueur, au youtubeur, en passant par les vendeurs de produits et de services. Avant, quand vous aviez une idée à faire passer, une information à diffuser, ou un produit à faire connaître, il fallait passer par les médias. Pour s’informer, pareil : à travers les médias. Pour trouver un bon produit, on passait par les médias, ou on demandait conseil au vendeur dans les magasins.
Google a donné le pouvoir aux gens. Et il a réussi parce qu’il s’appuyait sur un terrain déjà fragilisé. Avant Google, chacun était dans sa bulle. Recevait une information sans doute de qualité (mais pas toujours), mais toujours la même, sans doute des produits de qualité (mais pas toujours), mais toujours les mêmes. Et surtout, on ne pouvait rien dire. On ne pouvait pas contester. On ne pouvait pas proposer d’alternative parce que la barrière d’entrée dans ce monde verticalisé était trop importante. Pour de nombreux médias, l’audience était un concept, qu’ils appelaient "les gens" ou "Madame Michu", dont ils étaient complètement déconnectés et qui ne correspondait à aucune réalité. Comme l’écrit Bill Kovach ("The Elements of Journalism") :
"Les citoyens étaient devenus une abstraction, quelque chose dont parlait la presse mais à qui elle ne parlait plus"
Quand Google est arrivé il y a 20 ans, la pression était donc déjà énorme, le terrain était prêt. Il lui a suffit d’aligner ses outils, de ne faire que ça, et de le faire bien, pour faire basculer le monde. Google est un média qui a réussi, et qui a fait basculer le monde.
On mesure après coup l’ampleur du pouvoir potentiel que les médias détenaient dans leurs mains à l’aube de l’âge de l’information. Mais ce pouvoir était porté par un système encore jeune (les premiers journaux sont apparus au XVIIème siècle), à l’indépendance économique et politique très fragile et immature.
Aujourd’hui, vingt ans après, où en est-on ? On est passé d’une production relativement artisanale, puis centralisée de l’information, à une production industrialisée et mondialisée de l’information.
Le résultat ?
L’industrie de l’information se trouve à un stade comparable à l’industrie agro-alimentaire il y a 20 ans. C’est à dire au commencement de sa crise la plus grave.
La société de consommation a eu son âge d’or : les années 80. Et le début de sa grande crise structurelle, les années 90, avec l’arrivée de la vache folle, l’obésité chronique et l’absurdité d’un système traitant l’alimentation comme un produit plus que comme un nutriment. De moins en moins chère, de plus en plus distribuée, de plus plus opaque, de moins en moins nourrissante, et qui détruisait en même temps son propre écosystème. 20 ans après, le consommateur moyen commence à peine à s’interroger sur ce qu’il trouve dans son assiette et à modifier ses habitudes.
Pour l’information, c’est pareil. On est passé il y a 10 ans de l’abondance à la crise d’épilepsie. La crise d’épilepsie, dans le cerveau, c’est quand l’ouverture d’un maximum de canaux de communication entraine la répétition d’informations parfaitement identiques, avec les effets que l’on connait sur l’individu (l’analogie avec la société est brillamment développée par le neuroscientifique Lionel Nacache).
On est passé de la richesse d’une information horizontalisée à la suproduction d’une information de plus en plus copiée-collée (pour sa majorité), à bas coût, de moins en moins informante, de plus en plus consommée, et qui détruit son propre écosystème.
Les producteurs d’information gagnent (et gagneront) de moins en moins d’argent mais doivent produire de plus en plus pour essayer de toucher un maximum de personnes à travers des canaux de distribution de plus en plus fragmentés, et dont 90% des revenus publicitaires sont désormais captés par Google, Facebook et Ali Baba. C’est une voie sans issue.
Résultat : plus de 64% de l’information générale produite en France est un copié-collé, la plupart du temps de l’AFP (lire à ce propos l’étude de Julia Cagé).
Cela ne veut pas dire qu’il y a moins de qualité qu’avant, au contraire. Mais le gros du volume est tellement dégradé que la qualité est de moins en moins accessible et de plus en plus difficile à produire.
L’essentiel de ce qui est produit est gaspillé en une journée, à peine consommé, et quasiment jamais recyclé. Ni même recyclable.
Comme dans l’agriculture, une partie de cette production d’information est subventionnée par l’état (40% du budget de l’AFP et 10% du budget des médias traditionnels sont subventionnés par l’Etat). Ce qui permet d’éviter l’effondrement, mais entraine également les médias dans un cercle vicieux.
Ce n’est pas tant la faute de Google, d’ailleurs, que la faute d’une industrie déjà fragilisée, déconnectée de son audience depuis longtemps, qui a refusé de se remettre fondamentalement en cause, et s’est obstinée à essayer de préserver son influence, tout en allant chercher les subventions.
20 après Google, on est passé de notre petite bulle locale, à une incroyable explosion, pour revenir à de nouvelles bulles, que l’on appelle aujourd’hui les "bulles d’information" ou les "bulles de filtre". Paradoxe absolu de la crise d’épilepsie qui transforme l’ouverture au monde et aux autres en une vague d’uniformisation débilitante. Que l’on pourrait comparer à la monoculture, conséquence d’une industrie agro-alimentaire rendue folle par une mondialisation devenue hors de contrôle et prise au piège de ses propres commandements.
Les fake-news sont la vache folle de l’industrie de l’information. On commence à se dire qu’il y a quelque chose qui ne tourne pas vraiment rond, mais, comme il y a 20 ans avec la vache folle, on ne sait pas précisément comment s’y prendre. Parce que c’est tout un système qu’il faudrait changer.
Deux ans après avoir lancé nos intelligences artificielles Flint à la recherche de la qualité et de la diversité de l’information, nous sommes en train de confirmer ce constat d’un écosystème extrêmement dégradé et fragilisé.
Il y a une illusion de trop plein d’informations. Il y a surtout énormément de bruit, de contenus répliqués, de notifications inutiles qui nous font perdre notre temps.
Mais quand nous avons envoyé nos robots à la recherche de contenus de qualité sur des sujets de niche, ils ont réussi à trier une richesse jusque là inaccessible, mais en les poussant plus loin, ils ont découvert derrière la jungle, les territoires profonds de l’information.
Ce sont des terres désolées, envahies de fake news et d’informations fantômes.
En face à ce mirage : l’industrie de l’information fonce tête baissée, avec de moins en moins d’argent, tout en continuant à détruire le terrain sur lequel elle se développe. Un terrain asséché par la perte de confiance et d’attention. Elle s’obstine, parce qu’elle ne peut souvent pas faire autrement, à maximiser la distribution au lieu de prioriser la diversité des contenus et la transparence.
Alors 20 ans après Google, quelles solutions ?
En agriculture et en agronomie, 20 ans après la vache folle, on commence à trouver des solutions. Ce sont des petites solutions. Encore trop faiblement déployées. Mais c’est un début. Elles passent par la création de modèles multiples et résilients (que décrit très bien l’agronome Pablo Sevigne dans ce petit ouvrage passionnant : "Comment nourrir l’Europe en temps de crise"). C’est à dire hyper-résistants (sans pesticides !), par l’imbrication par exemple de circuits courts qui mettent en avant le lien, la traçabilité et la transparence sur la transformation. Des polycultures, des agricultures en "3D", des agricultures urbaines ou des permacultures qui accumulent ou entrecroisent les productions et les sources de revenus. Des modèles qui stimulent l’écosystème et la biodiversité, au lieu de continuer de l’assécher et qui nourrissent vraiment au lieu de faire grossir.
Mettez le mot "information" à la place du mot "alimentation" dans le paragraphe précédent, et vous découvrirez quelques pistes, pas suffisantes, mais utiles pour amorcer le débat dans le bon sens : besoin de modèles résilients (plus de valeur, moins de coûts, moins de production ou en tout cas moins de gaspillage), de circuits courts (locaux ou facilitant les rencontres physiques) qui impliquent les lecteurs et expliquent comment se fabrique l’information, ou plus de circuits imbriqués.
Et surtout : des modèles qui stimulent l’écosystème : qui garantissent et nourrissent la diversité de l’information, la co-existence des points de vue opposés. Qui donnent aussi les moyens de comprendre et de juger par soi-même, qui donnent envie d’être curieux, qui nourrissent vraiment les lecteurs en leur donnant des contenus qui leur soient utiles dans leur activité. Qui font baisser l’infobésité ou ralentissent le rythme mais pas la diversité.
Mais au-delà de ça, en tant qu’individus, nous avons besoin de plus nous impliquer dans notre consommation d’information. Mal s’informer, c’est comme mal se nourrir. Ça part aussi de nous. Pour ça l’intelligence artificielle peut nous aider à maîtriser l’incroyable complexité de ce chaos d’information et à sortir de notre bulle. Commencer à recycler et sanctuariser un certain nombre de contenus de référence passés à la trappe du temps, tout en nous protégeant des fake news. A condition de nous approprier cette technologie intelligente. Comme un coach personnel d’info, comme on a des coach diététicien. Un compagnon bienveillant en qui on aie confiance, qui nous rende acteurs et responsables de notre façon de nous informer. Pas une armée d’algorithmes envoyée par les géants du web présentée comme le dernier pesticide anti-fake news qui va tout régler.
Google a été un acteur de cette révolution mais surtout un symptôme. Il est temps de s’attaquer aux symptômes.
LT-05032019-Une ré¬ponse à la crise des mé-dias et aux «fake news»
Benoît Raphaël est expert en innovation digitale et média, journaliste, blogueur et entrepreneur. Il est aujourd’hui "éleveur de robots".