IA, des robots pour mettre de l’ordre dans le chaos de l’info

Article  par  Isabelle DIDIER et PHILIPPE RAYNAUD  •  Publié le 08.02.2018  •  Mis à jour le 12.02.2018
L’information est devenue pléthorique. Grâce à l’intelligence artificielle, des robots « éduqués » par leurs utilisateurs peuvent les guider dans les dédales de données et les orienter vers une information fiable. Entretien avec Benoît Raphaël, « père » du robot intelligent Flint. 

Vous avez une formation de journaliste. Pouvez-vous nous retracer votre parcours et ce qui vous amené à développer cette appétence pour l’innovation digitale et les médias ?
 
Benoît Raphaël : J’ai commencé mon parcours dans les radios locales et la presse quotidienne régionale, Le Dauphiné Libéré... Ensuite, j’ai créé un certain nombre de médias participatifs en ligne innovants, comme Le Post.fr, pour Le Monde. Puis, de façon indépendante, j’ai aussi co-créé et participé au lancement de Le Plus du Nouvel Observateur ou Le Lab d’Europe 1. J’ai aussi dirigé le numérique à Nice-Matin entre 2015 et 2016, en tant que consultant, pour développer leur modèle d’affaires autour d’une offre abonnés communautaire et du journalisme d’impact.
 
Ce qui a guidé la pratique de mon métier consiste à horizontaliser davantage l’information : avant Internet, l’information était très verticale, le pouvoir en haut, les gens en bas, les médias au milieu qui tentaient d’éclairer le citoyen. Aujourd’hui, avec Internet, les gens se tournent les uns vers les autres, ils partagent beaucoup plus leurs savoirs, leurs informations.
 
 La pratique de mon métier consiste à horizontaliser davantage l’information 
Cela permet d’enrichir l’information. C’est toujours cela qui m’a guidé. Aujourd’hui, il n’y a plus tellement besoin de médias participatifs, les réseaux sociaux ayant transformé chacun en média. C’est une très grande richesse mais, lorsque tout le monde s’exprime, cela crée aussi un grand désordre. Il faut donc ordonner un peu cette profusion.
 
 
Comment vous est venue l'idée de créer des robots qui sélectionnent des informations ?
 
Benoît Raphaël : Le constat vient du fait que l’information, d’une immense richesse, créée par l'arrivée d'Internet, puis des réseaux sociaux dans les années 2006-2007, est devenue tellement chaotique que la technologie n'est plus suffisante pour la trier. Avant, à la fin des années 1990, les moteurs de recherche le permettaient. Ensuite, en 2006, Facebook, a dit : « On va recommander l'information, en provenance des médias et des autres utilisateurs d’Internet, par rapport à vos amis ». Mais cette technologie-là peut avoir des effets pervers, qui nous entraînent vers des fake news, des fausses informations et nous enferment dans des bulles de filtre. Le principal défi des médias est de retrouver la confiance des usagers dans l'information qui leur parvient.
 
 Le principal défi des médias est de retrouver la confiance des usagers dans l'information qui leur parvient. 
Je faisais alors le constat qu'on était en train de redevenir passif face à l'information. On a donc besoin de reprendre le contrôle sur cette information et de ne pas laisser les algorithmes décider de ce qui est important pour nous. Il ne s’agit pas non plus de revenir à l' « Ancien Monde », où seuls les médias traditionnels vont édicter la vérité et décider de ce qui est important pour nous.
 
Et pour ce faire, j'avais besoin d'avoir une information fiable, sur les sujets qui m'intéressaient, l'innovation, notamment dans les médias, et également pour mon information personnelle. J’ai pensé qu’il me faudrait un assistant humain pour sélectionner des informations de qualité. Parce que trier l'information, les algorithmes le font, mais qu'est-ce qui permet de déterminer la qualité ? Seul un humain peut le faire. Mais un humain n'est pas capable de lire des milliers d'articles pour faire ce tri-là, parce que la production est de plus en plus importante.
 
 Trier l'information, les algorithmes le font, mais qu'est-ce qui permet de déterminer la qualité ? 
Il fallait donc allier l'expertise humaine et la technologie, qui, elle, permet justement de brasser énormément de données. Et c'est là qu'intervient l'intelligence artificielle. C'est en partant de cette idée qu'on a créé en février 2017— avec Thomas Mahier, ingénieur, et Clémence Perrin, designer et artiste —le robot Flint, une intelligence artificielle personnelle, une sorte d'assistant personnel que l'on va « éduquer », pour qu'il aille trouver des articles de qualité, fiables, sans nous enfermer dans une bulle de filtre.

C'est donc un robot personnel qui va aller chercher l'information, un assistant média personnel qui nous offre des contenus de qualité, et qui peut aussi nous surprendre pour nous sortir un peu de la bulle dans laquelle on est enfermé.
 
 
Flint est donc ce petit média personnel, qui vous envoie une newletters plusieurs fois par semaine. Quelle différence avec vos trois autres robots ?
 
Benoît Raphaël : Si on n'a pas envie d'« élever » son robot, on peut aussi s'abonner à trois robots qui ont été, eux, « éduqués » par des experts ; ceux-là on ne peut pas les transformer, ils sont plus spécialisés. Ce sont les robots Jeff, Yolo et Gordon, qui s'intéressent aux médias, à la technique ou à l'environnement. Flint, lui, va aller chercher tout ce qui est partageable, tout ce qui est sur les réseaux sociaux, sur Internet, il fonctionne à partir de ce qu'on appelle l'apprentissage automatique, s’appuyant sur une sorte de réseau de neurones, qui ont la particularité de fonctionner de façon un peu organique.
 
On pourrait comparer ces réseaux de neurones au fonctionnement du cerveau d'un enfant. Il faut l'éduquer pour lui permettre de mieux comprendre. Pourquoi fait-on ça ? Parce qu'en fait, il n'y a aucun algorithme disponible aujourd'hui permettant de déterminer la qualité. Les critères sont trop complexes, c'est en partie subjectif. On ne peut pas s'appuyer sur un programme ou sur un logiciel. On a besoin de beaucoup plus de précision, de finesse, et les technologies d'intelligence artificielle arrivent aujourd’hui à reproduire un peu le fonctionnement du cerveau, permettant au robot de « comprendre » peu à peu ce que vous dites.
 
Grosso modo, vous lui montrez des articles de qualité et ce qui pour vous n’en est pas, et, à partir de ça, il va réaliser un certain nombre de calculs mathématiques qui lui permettront de déterminer petit à petit ce qui peut être intéressant pour vous.
Le robot va étudier le comportement des humains, notamment sur les réseaux sociaux. Il va regarder comment tel humain se comporte avec tel contenu et en tire une sorte de matrice mathématique. Ensuite, c'est vous qui, par votre comportement, allez lui donner des indications, en cliquant sur un lien qui vous est envoyé, par exemple. Le robot en tire des conclusions, il va faire ses propres calculs et ainsi vous situer quelque part dans une sphère qui vous est propre.
 
 Ce projet est très interactif, il se construit aussi avec les abonnés 
Ce projet est très interactif, il se construit aussi avec les abonnés, on leur envoie des questionnaires régulièrement, on les rencontre parfois, ils interagissent avec l’intelligence artificielle. Se crée ainsi un lien de confiance, indispensable à la personnalisation, alors que lorsque vous recevez des informations dites personnalisées par des algorithmes, vous ne savez pas exactement d'où ça vient, ni comment ça a été calculé.
 
 
Votre stratégie s’appuie donc sur un modèle interactif ?
 
Benoît Raphaël : Oui, car mon idée était d’allier le besoin d'avoir en face de moi un être humain qui comprenne qui je suis et d’avoir une forme d'intelligence qui aille chercher des données pouvant m'intéresser et de qualité. Donc, on ne pouvait plus partir d’un algorithme analysant mes données pour m'offrir ce qui m'intéresse, mais plutôt d’un modèle d’intelligence qui va m'accompagner.
 
Et c'est donc là où l'intelligence artificielle intervient parce qu’elle interagit avec nous, tout en étant capable de lire beaucoup de contenus et de faire des calculs mathématiques et, en même temps, d'avoir une approche tournée vers la qualité. Le robot va étudier et prendre en compte ce que vous lui dites. Au départ, on est parti de l'analyse des réseaux sociaux, notamment de Twitter, pour voir comment l'information était partagée et comment les gens se situaient par rapport à ce qu'ils partageaient, pour établir une sorte de panel.
 
Maintenant, nous avons 8 000 abonnés, dont beaucoup d'experts qui sont venus entraîner des robots sur des thématiques spécifiques, qui vont eux-mêmes chercher de la qualité. On a travaillé avec des gens qui avaient des vraies compétences. 51 % sont des cadres dans des grandes entreprises, 16 % des entrepreneurs ou dirigeants, 11 % des indépendants. 30 % de ces abonnés travaillent dans les médias, les autres dans la communication, la technologie ou les finances. Notre nouvelle génération de robots a observé la façon dont ces humains-là entraînaient des robots sur des thématiques et, petit à petit, ont déterminé par calculs mathématiques ce qui peut caractériser la qualité dans l'information.
 
 
Est-ce que, de façon très synthétique, on peut avoir un exemple de cette nouvelle génération de robots ?
 
Benoît Raphaël : Le robot Yolo, consacré à l'écologie, a été « élevé » par Anne-Sophie Novel, une journaliste qui a écrit plusieurs ouvrages sur l'environnement. J'en ai, pour ma part, « élevé » un sur les médias, qui s'appelle Jeff, pendant plusieurs mois. C'est une vraie expérience. On voit le robot évoluer. Au départ, je lui ai expliqué en quelques mots, globalement, ce qui m'intéresse. Ce que je dois faire, c'est le nourrir d'articles qui, pour moi, sont vraiment intéressants, que j'aimerais voir dans ma newsletter. Je commence comme ça.
 
Et lui, ensuite, il va me proposer sans arrêt des contenus. Parfois bons, parfois mauvais. Et moi, à chaque fois, je vais lui dire : « Celui-là était vraiment intéressant, celui-là non. » Donc , petit à petit, il va affiner sa recherche. C’est ce qu’on appelle intelligence artificielle par renforcement. Ce qui est intéressant, c'est qu'on a créé plusieurs robots et, chaque fois, on a abouti à des robots différents. Il y en a un qui peut parler du futur du métier d'avocat par exemple, un d'écologie, un autre des fake news, etc. Tous ces robots sont uniques, en partant de la même technologie. Ils n’ont pas été programmés différemment, puisque il n’y a pas eu de travail de programmation.
 
 La particularité et la valeur de ces robots, c'est qu'ils ont été « éduqués » par un expert humain. 
Ce qui fait la particularité et la valeur de ces robots, c'est qu'ils ont été « éduqués » par un expert humain. C’est nous qui sommes responsables de ce que l'intelligence artificielle va nous apporter. La vraie valeur est apportée par Anne-Sophie Novel pour Yolo, comme par moi pour Jeff. Cette expérience génère aussi une réflexion intéressante sur notre rapport à la technologie : l'intelligence artificielle est ce que nous en faisons et le sens que nous lui donnons. La valeur repose sur l'humain.
Toute la philosophie du projet de Flint, c'est de remettre de l'humain dans la technologie.
 
 
Est-ce qu'il y a beaucoup de gens qui collaborent parmi vos abonnés ?
 
Benoît Raphaël : Oui, parce que ce projet ne repose pas sur un agencement d’algorithmes, ça ne peut se faire qu'avec les gens qui y participent. On a lancé le projet en février 2017, on a fait très peu de publicité d'ailleurs, tout s’est fait par le bouche-à-oreille. On leur a dit : « Notre projet est d'avoir un robot que vous allez pouvoir entraîner, qui va chercher la qualité pour vous, la personnaliser, mais en même temps vous sortir de votre bulle et vous amener à lire un peu plus. On va le faire ensemble, parce qu'en fait, c'est vous qui allez nous guider, nous aider petit à petit à trouver des moyens d'aller chercher la qualité ». Dès le départ, nous avons envoyé régulièrement des questionnaires aux abonnés. Le projet s'est construit et amélioré à partir des besoins de ces 8 000 abonnés. Chaque newsletter est évidemment unique et différente selon les utilisateurs. Et nous nous tenons au courant des taux de satisfaction. Il était de 84 % en avril 2017, il est passé à 94 % en décembre 2017. Cela nous permet de mesurer aussi l'utilité de ce robot.
 
 
Avez-vous un modèle économique pour vos robots ?
 
 Nous rendons les gens à nouveau actifs par rapport à l'information. 
Benoît Raphaël : Flint est gratuit parce que nous pensons que c'est vraiment utile. Nous rendons les gens à nouveau actifs par rapport à l'information. Comme on leur pose beaucoup de questions avec ce petit robot qui est assez simple à entraîner, beaucoup nous ont demandé : « On aimerait bien pouvoir entraîner un robot sur une thématique plus spécialisée ». On leur a répondu : « Seriez-vous prêts à payer pour pouvoir adopter un robot et l'entraîner vous-mêmes ? »  Et 37 % nous ont répondu oui. Nous proposons aussi aux grandes entreprises des expériences d’élevage de robots.
 
Depuis l'été 2017, nous travaillons  aussi en mode collaboratif. Nous avons créé un groupe privé Facebook, où 500 personnes nous aident à réfléchir à ce projet, testent parfois des robots, en entraînent aussi pour préparer ce qu'on appelle l'École de robots : c'est-à-dire, la création d’une plate-forme permettant « d'adopter » un robot et de l'entraîner sur une thématique spécifique.
 

Comment les médias abordent-ils les possibilités de l’intelligence artificielle ?
 
Benoît Raphaël : Je pense qu'il existe un vrai questionnement aujourd'hui sur l'investissement des médias dans l'intelligence artificielle, concernant la production et la diffusion. En production, le questionnement est souvent le suivant : les robots vont-ils remplacer les journalistes pour écrire des articles ? En matière de diffusion, les professionnels se demandent si le marketing va s'améliorer, ou si l’on peut être beaucoup plus précis et toucher plus de gens...
 
L'automatisation de l'écriture va évidemment se développer. Elle permettra aux journalistes d’éventuellement lui déléguer une part de travail répétitif automatisable, par exemple, les compilations de résultats sportifs, etc., pour qu'ils puissent se concentrer sur des articles de fond. Ensuite, l'intelligence artificielle peut permettre d'améliorer la diffusion en ayant une plus grande finesse d’analyse. Le robot va-t-il remplacer le journaliste ? Une partie de son travail seulement. Si une partie peut être automatisée pour lui permettre d'aller créer de la valeur en racontant une histoire, en donnant du sens ou en créant du lien avec les gens, ça, c'est plutôt une bonne chose.
 
Ensuite, la personnalisation de l’information et l'utilisation des algorithmes aujourd'hui diminue sur les réseaux sociaux, et si Facebook décide de supprimer ou de réduire très fortement l'apparition des infos dans son flux et de se concentrer sur les communautés, c'est qu'il y a une raison. C’est devenu trop dangereux. Ils se rendent compte que l'automatisation de la diffusion de l’information à outrance pose un véritable problème de confiance chez les gens. Pourquoi ? Parce les fake news se sont répandues. La question de la confiance est devenue centrale. Avant de penser intelligence artificielle, il faut que les médias recréent un lien de confiance avec le lecteur. On sait que cette confiance s'effrite chaque année. Les médias se sont jetés les réseaux sociaux pour essayer de gagner de l'audience, alors que les réseaux sociaux sont justement le médium qui a le taux de confiance le plus faible. Dans ce monde de plus en plus automatisé, il faut remettre de l'humain, sans doute aller voir les gens, il faut leur parler. Il faut en tout cas leur apporter une information beaucoup plus utile.
 
 
L'intelligence artificielle permettrait donc de renouer la confiance entre les médias et les utilisateurs ?  
 
Benoît Raphaël : Je pense qu'elle est incontournable, parce qu'aujourd'hui, l'information est devenue tellement complexe et tellement volumineuse, que si l’on ne se fait pas aider par la technologie, on risque d’être complétement perdu. Les journalistes les premiers, mais les lecteurs aussi. Donc, on a besoin de la technologie parce que ce monde va très vite. Le problème, c'est que la technologie est souvent opaque et hors contrôle, si on ne sait pas d'où elle vient, si on ne sait pas comment elle est faite. Je ne sais pas comment l'algorithme de Facebook m'a apporté telle ou telle information. Ce n'est pas normal que je ne le sache pas. Cela me pose un problème en tant qu'acteur et citoyen parce que l'information, c'est ce qui structure mon rapport aux autres et mon rapport au monde.

 Il y a vraiment urgence à reprendre le contrôle sur ce que la technologie produit  Il y a vraiment urgence à reprendre le contrôle sur ce que la technologie produit. Et à se poser la question : que fait-on de cette technologie-là ? Elle est effectivement utile, mais il faut pouvoir apprendre à travailler avec l'intelligence artificielle pour savoir comment on veut l'utiliser. Ce débat-là commence à peine à être lancé. Il faut mener ce débat car tout va très vite et que le seul discours qu'on entend c’est : « De toute façon, tout le monde y va, les géants américains y vont, la Chine y va, donc il faut y aller aussi. »  Mais il faut y aller en se posant des questions : comment la contrôle-t-on, en quoi peut-elle nous être utile, pour quoi faire ?
 
Donc, il est très important que l'on comprenne comment cette technique fonctionne, que l'on commence à travailler avec elle de façon à pouvoir lui donner un sens. Ce que nous faisons d'ailleurs avec Flint, et lorsqu’on entraîne sa propre intelligence artificielle, on se pose plein de questions.
 

Alors, journaliste et éleveur de robots, même combat ?
 
Benoît Raphaël : Je suis très inquiet de la façon dont l'information est appréhendée, parce que, encore une fois, il y a une grande richesse mais aussi un grand désordre. Il existe un vrai danger pour la démocratie, un danger pour le modèle actuel des médias.
 
Alors, journaliste ou éleveur de robot, est-ce le même combat ? La vraie question, c'est le sens, la valeur, le lien qu’un journaliste peut avoir avec ses lecteurs, sa façon de s'impliquer et d'impliquer le lecteur dans l'information pour qu'il puisse mieux la comprendre. Et comme aujourd'hui un lecteur n'est pas en relation avec un seul médium, qu’il est exposé à un nombre immense d’informations, dont des fausses, il a besoin qu'on lui donne des armes, beaucoup d'éléments objectifs, pour qu'il puisse se repérer.
 
Journaliste et éleveur de robots, même combat ? Oui, si le journaliste utilise bien la technologie comme un outil permettant d'avoir une meilleure approche d'un monde complexe.

 
À lire également dans le dossier L’IA dans les médias, on y est déjà
 
Production automatique de textes : l’IA au service des journalistes, interview de Claude de Loupy par Isabelle Didier et Philippe Raynaud


--
Crédit photo : Benjamin Girette
Vous souhaitez nous apporter un complément, rectifier une information ? Contactez la rédaction