L’information face à l’intelligence artificielle : promesses et dangers

L’information face à l’intelligence artificielle : promesses et dangers

L’intelligence artificielle et les algorithmes sont de plus en plus utilisés pour produire l’information. Cette pratique repose sur l’idéalisation de l’accès à une information personnalisée, mais elle soulève de nombreux enjeux éthiques notamment la question de leur transparence. 

Temps de lecture : 9 min

L’un des inventeurs de la notion d’intelligence artificielle dans les années 1950, Marvin Lee Minsky, la définit comme « la construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement ». L’intelligence artificielle couvre donc le vaste domaine des activités ayant pour but de faire faire par une machine et son programme informatique lié des tâches que l'homme accomplit en utilisant toute son intelligence : reconnaître des formes floues, comprendre, apprendre, prendre des décisions, dialoguer avec un humain, créer des textes pertinents, s’adapter aux situations, etc. Pour y parvenir, elle s’appuie sur une nouvelle classe d'algorithmes (une suite d’instructions permettant d’aboutir à un résultat à partir de données fournies) paramétrés à partir de techniques d'apprentissage automatique.

 

L’intelligence artificielle est déjà bien intégrée dans la chaîne de production de l’information. Les trouvailles se bousculent et déjà les blockchains pointent à l’horizon. La recherche progresse rapidement (en traitement informatique et fouille des données de masse, en design utilisateurs des algorithmes, en traitement automatique des langues et génération automatique de textes…), et les techniques s’améliorent sans cesse, puisque les informaticiens développent des programmes ayant la capacité d’apprendre de leur propre fonctionnement et d’améliorer leurs performances (« machine learning » ou « apprentissage automatique » ).

 

 Les résultats obtenus par l’intelligence artificielle améliorent la qualité de l’expérience usagers, car ils favorisent une personnalisation de l’offre d’information 

De plus en plus, des algorithmes sont utilisés dans la production et la consommation d’informations : pour constituer des bases de données et fouiller dedans pour y repérer des signaux faibles ; pour agréger des contenus éditoriaux ; pour éditer des articles ; pour distribuer de façon personnalisée ces contenus. Incontestablement, les résultats obtenus par l’intelligence artificielle améliorent la qualité de l’expérience usagers, car ils favorisent une personnalisation de l’offre d’information reçue et, donc, accroissent, à priori, notre satisfaction. D’autant que les machines apprennent à nous connaître et à nous reconnaître et à « comprendre » nos désirs — en tout cas, à les interpréter — en se calant sur nos requêtes et sur nos pratiques observables sur Internet. Dressons donc ici un panorama de ces nombreuses potentialités d’information algorithmée, avant d’en souligner les implications pour les médias et les inquiétudes soulevées pour notre société.

Les algorithmes participent déjà à l’écosystème d’information

Des algorithmes peuvent suppléer les journalistes dans la rédaction de textes factuels et standardisés (« robots-journalistes »), comme ce tout premier article publié le 17 mars 2014, sur le site du Los Angeles Times, annonçant en premier— en rédigeant un compte rendu avec carte en trois minutes— qu’un séisme venait de toucher un quartier de Los Angeles, grâce à l’algorithme Quakebot branché sur les données fournies par le Centre fédéral d’information sismique (US Geological Survey).

 

Des algorithmes peuvent surveiller des contenus de masse pour en extraire des données pertinentes, pour identifier des tendances. Le Reuters News Tracer met ainsi sous surveillance quotidienne des millions de tweets pour repérer des sujets potentiels à traiter.

 

Des algorithmes peuvent organiser une veille pour distribuer ensuite une revue de presse pertinente et personnalisée aux abonnés ayant défini leurs goûts au préalable. C’est, par exemple, le projet Flint, de Benoit Raphaël, qui se définit comme « une newsletter personnalisée confectionnée avec amour par des intelligences artificielles ».

 

Des algorithmes peuvent composer pour vous une nouvelle grille de programmes radiophonique, personnalisée, en fonction de vos choix affichés, mais aussi de votre géolocalisation, et de vos réactions face à ce qui vous a été recommandé (abandon de contenus systématiquement non ouverts, affinage des propositions sur des thématiques que vous aimez ou partagez…). C’est le cas de l’application NPR One, la grande radio publique américaine, qui agrège des podcasts de ses émissions avec des programmes issus de stations locales affiliées et des contenus indépendants du réseau NPR (National Public Radio), afin de maintenir un esprit de sérendipité, de découverte inattendue.

 

Des algorithmes peuvent entrer en dialogue avec les internautes, répondant à leurs questions ou leurs commentaires comme s’il s’agissait d’un être humain (chatbotsou « agents conversationnels »), tel, par exemple, le 20Bot du journal 20 Minutes, qui permet aux internautes, depuis juin 2016, de poser des questions via Facebook Messenger sur des sujets d’actualité et d’obtenir en retour une sélection automatisée de cinq articles répondant à leur requête.

 

Des algorithmes peuvent comprendre des questions spontanées posées oralement et nous fournir des réponses qu’ils auront été chercher dans les profondeurs du web (« assistants personnels vocaux », comme l’assistant Siri pour les iPhone d’Apple ou l’enceinte connectée Google Home, pour laquelle les Échos a annoncé début janvier 2018 le lancement d’une application dédiée après que RTL et Europe 1 se soient déclarées intéressées dès l’été 2017).

 

Des algorithmes peuvent vérifier automatiquement le contenu factuel de certaines déclarations politiques pour mettre au jour instantanément des mensonges ou approximations (« fact-checking computer science », tel le projet américain : Tech & Check Cooperative, ou comme les recherches en cours à Stanford pour élaborer un algorithme de détection de fake news).  

 

Tout n’est cependant pas (encore) possible

On le voit, les exemples d’applications concrètes sont déjà bien réels et les perspectives d’avenir pas moins nombreuses. En la matière, il ne faut tomber ni dans la fascination technologique béate consistant à croire que tout est possible, ni dans la prévision craintive reportant à des décennies les progrès à venir, car les choses évoluent très vite tant la mobilisation des chercheurs et les perspectives d’ouverture de nouveaux marchés sont fortes. Voilà pourquoi Bill Adair, professeur en journalisme à Duke University, qui a fondé PolitiFact, déclare à propos de son nouveau projet de fact checking en direct : « Si vous m'aviez demandé, il y a trois ou quatre ans, à quel moment nous serions capables de faire une vérification des faits en direct, j'aurais dit peut-être une décennie... mais l'intelligence artificielle a parcouru un long chemin en peu de temps ».

 

 Les choses évoluent très vite, tant la mobilisation des chercheurs et les perspectives d’ouverture de nouveaux marchés sont fortes. 

Mais des freins existent encore. Les robots journalistes sont capables d’écrire automatiquement des articles factuels à partir de données sur lesquelles ils sont branchés, en répondant à quatre des cinq fameux W, questions-piliers du savoir-faire journalistique (What, Who, Where, When : Quoi, Qui, Où, Quand). Voilà pourquoi de nombreuses rédactions ont pu commencer à faire appel à cette technologie pour générer des dépêches concernant des sujets répétitifs, comme l’évolution quotidienne des cours de la Bourse ou des résultats sportifs, à l’instar du Washington Post, couvrant les Jeux olympiques de Rio de 2016 avec son robot Heliograf. De ce point de vue, les robots-journalistes ne sont pas les ennemis de la profession. Ils peuvent au contraire les décharger de tâches fastidieuses peu gratifiantes. En revanche, en l’état actuel des connaissances et savoir-faire informatiques, il est encore trop difficile de confier la rédaction d’un article pour évoquer le dernier W : Why. Car répondre à la question pourquoi, c’est entrer dans le domaine de l’interprétation qui suppose souvent un mélange de connaissances acquises, de flair journalistique, de subjectivité, de pari intellectuel, bref, une prise de risque personnelle et éditoriale qu’aucun média ne peut se permettre — en l’état actuel de la technologie — de confier à une machine au risque de procès en mésinterprétation. 

Défis organisationnels, économiques et déontologiques pour les médias

Avec l’information algorithmée, une série de questions se posent pour les médias : faut-il se lancer dans l’expérimentation de ces innovations, alors même que les idées sur le modèle organisationnel à mettre en place et sur le modèle de rentabilité économique ne sont pas claires ? Faut-il refuser de bricoler avec ces outils avant d’avoir des certitudes, ou ne faut-il pas, au contraire, se lancer à l’aveugle pour acquérir plus tard des certitudes ? Quand le journal L’Équipe annonce en octobre 2017 se lancer dans l’expérimentation de l’application Google Home, alors qu’il n’a pas de tradition de production de contenus audio, quelques journalistes créent alors des podcasts dans une logique qui relève plus du bénévolat que de la stratégie industrielle élaborée. Mais après ? La rédaction va-t-elle s’adapter et créer des postes dédiés ? Si oui, comment ce coût supplémentaire sera-t-il amorti ?

 

Si des médias achètent une technologie issue de l’intelligence artificielle, la question de sa rentabilisation se pose très vite, comme ce fut le cas pour Associated Press, qui s’est mise en juillet 2014 à produire des contenus automatiques — via la technologie développée par Automated Insights (une entreprise dont elle est devenue actionnaire) —, en considérant que de quelques centaines d’articles par mois, elle devait aboutir à un objectif de plusieurs milliers de dépêches publiées par mois. Même pression du chiffre pour Le Monde qui a utilisé Data2Content pour publier plus de 35 000 brefs articles lors des élections cantonales de mars 2015. Mais cette facilité à produire ne risque-t-elle pas d’alimenter la sensation de surcharge d’informations, d’infobésité ? Et quelle relation entretenir avec les sociétés productrices de ces programmes informatiques ? Faut-il rester un simple client, au risque de rentrer en dépendance ? Faut-il que les entreprises de médias entrent dans une logique de recherche et développement et deviennent coproductrices de ces innovations, voire actionnaires de ces sociétés ?

 

 Une rédaction peut-elle faire entièrement confiance à un outil automatique de production de contenus ? Clairement non 

De nombreux questionnements déontologiques sont aussi soulevés par le recours à l’intelligence artificielle. Une rédaction peut-elle faire entièrement confiance à un outil automatique de production de contenus ? Clairement non, ne serait-ce que parce qu’une erreur est toujours possible. Ainsi, l’outil Quakebot évoqué plus haut a t-il généré à tort une dépêche inquiétante, le 22 juin 2017, annonçant un séisme de magnitude 6,8 sur Los Angeles. Démentis par les faits, les publieurs ont dû chercher l’origine de l’erreur et l’ont trouvée dans la réactualisation par l'Institutd'études géologiquesdes États-Unis(USGS) d’une donnée de localisation d’un tremblement de terre de 1925, changement interprété à tort par la machine comme l’avènement d’un nouveau séisme. Les faux-fuyants de chacun des participants au dispositif pour rejeter la responsabilité de l’erreur sur l’autre montrent que la question de la responsabilité éditoriale se pose avec acuité et que le contrôle humain devrait perdurer pour éviter les soucis.

 

Dès la fin 2014, Tom Kent, journaliste responsable des développements algorithmiques pour Associated Press a publié une liste de dix questionnements éthiques liés au robot journalisme. Relevons-en trois : les récits automatisés sont-ils répétitifs ? Attention, en effet, au risque de standardisation de l’écriture et, donc, d’appauvrissement des articles, en chassant l’expression des nuances. Êtes-vous prêt à défendre ce qui est écrit par un logiciel ? Le risque de déresponsabilisation éditoriale est bien réel. Qui surveille le robot ? Au moment de l’élaboration de l’outil, mais même en phase de routine, il faut garder une vue humaine sur ces contenus automatiques. 

Information, algorithmes et inquiétudes démocratiques

Au-delà des questions de déontologie professionnelle, l’insertion croissante des algorithmes dans l’écosystème d’information requestionne les enjeux éthiques du rôle démocratique des médias. On en retiendra cinq principaux.

 

 Aller vers toujours plus de recommandation personnalisée de l’information a des vertus individuelles qui sont autant de poisons collectifs 

Aller vers toujours plus de recommandation personnalisée de l’information a des vertus individuelles qui sont autant de poisons collectifs. Si je reçois une information toujours plus ciblée, je risque de me laisser enfermer peu à peu dans une zone de certitudes, et de ne plus découvrir des informations nouvelles à laquelle les médias généralistes me confrontaient peu ou prou. Le Conseil supérieur de l’audiovisuel (CSA) s’en inquiète dans un rapport de janvier 2017 sur « Le rôle des données et des algorithmes dans l’accès aux contenus ». « La structure des goûts d’un consommateur peut s’analyser comme un réseau abstrait, écrit-il. Ce réseau comporte des liens forts, traduisant une préférence avérée pour un type de contenus bien identifié à priori ; des liens faibles, rendant compte d’une affinité non encore révélée pour un type de contenus restant à découvrir à posteriori. Un algorithme bien tempéré devrait (…) réaliser un juste équilibre entre exploitation des acquis indiqués par les liens forts et exploration des potentialités nouvelles indiqués par les liens faibles ». Ce point d’équilibre est ce que le CSA appelle : « tenir compte des affinités tout en préservant la découverte ». Philosophie qui innerve le service proposé par la radio américaine NPR.

 

L’autre poison de la recommandation personnalisée d’informations est d’ébranler un des piliers de la démocratie : l’existence d’un espace public fait d’informations partagées entre les citoyens. Plus on ira vers une information reçue et personnalisée, plus on s’éloignera de la consommation de masse de supports communs d’information, plus les conditions d’un vécu partagé s’effriteront.  Andrew Phelps, en charge de développements innovants au New York Times expose ce dilemme de la personnalisation auquel sont confrontés les médias. « Le Times a toujours été allergique à la personnalisation. Il y a quelque chose de très spécial dans cette expérience partagée du New York Times : je regarde la même chose que le Président, que mon représentant au Congrès ou que quelqu'un à l'autre bout du monde. C'est quelque chose que nous ne voulons jamais faire disparaître. Mais nous réalisons maintenant que nous pouvons préserver cette expérience spéciale et partagée et, au-delà de la première page, créer des expériences beaucoup plus adaptées et pertinentes ».

 

Derrière de nombreux algorithmes se cachent un traitement de données personnelles de masse, pour mieux nous « comprendre » et « mieux nous servir ». Mais cela pose la question cruciale du respect de notre vie privée. Quelles traces d’usage peuvent être captées, analysées, stockées ? Où ? Par qui ? Pour combien de temps ? Pour quels autres usages possibles ? Avec quelle monétisation ? Avec quel droit de regard laissé à chacun ? La police ou un assureur seront-ils en droit un jour d’exiger d’un média l’historique de notre navigation pour connaître comment nous nous sommes informés et en tirer les conclusions qui les arrangent ?

 

 L’idéologie algorithmique s’appuie sur une idéalisation de la satisfaction personnalisée et de l’assistance à la prise en charge de nos problèmes. 

L’idéologie algorithmique s’appuie sur une idéalisation de la satisfaction personnalisée et de l’assistance à la prise en charge de nos problèmes. L’extension de ces outils d’aide à la décision ne risque-t-elle pas de générer une posture passive où je ne fais plus l’effort de découvrir des informations ? Perdrons-nous nos agilités numériques au profit d’un assistanat aussi confortable que pernicieux, puisque pouvant éroder notre curiosité ? Et ces outils qui sont censés nous aider peuvent devenir des outils de contrôle qui nous bornent. Nous entrons dans une dialectique résumée ainsi par la présidente de la Cnil (Commission nationale de l’informatique et des libertés), Isabelle Falque-Pierrotin, en mars 2017 : « L’être humain algorithmé : dépassement ou perte de soi ? » 

L’enjeu crucial de la transparence des algorithmes

Enfin, l’enjeu crucial est celui de la transparence des algorithmes. L’efficacité du résultat peut conduire à la fascination technologique. La pertinence des contenus peut faire croire à la naturalité du processus, alors qu’il reste un artefact fruit d’une programmation pensée par des humains, avec ses biais, ses présupposés, ses erreurs. Les médias doivent être des ferments de prise de conscience des enjeux d’une société algorithmique. D’aucuns préconisent la création d’une rubrique « algorithmes », comme fut créée la rubrique « environnement » pour éveiller les consciences écologiques.

 

A minima, les médias se doivent de donner l’exemple en explicitant les logiques de fonctionnement des algorithmes qu’ils mobilisent dans l’écosystème d’information. Ils doivent contribuer à ouvrir les boîtes noires, à commencer par celles qu’ils utilisent. Car, comme l’écrit le journaliste blogueur Nicholas Carr, dans son dernier livre (Remplacer l'humain : critique de l'automatisation de la société, Paris, L'Échappée, 2017) : « Si nous ne comprenons pas les motivations commerciales, politiques et éthiques des gens qui écrivent ces logiciels, ou les limitations inhérentes au traitement automatisé des données, nous nous soumettons à la manipulation ».

--
Crédit :
Illustration : Ina. Yann Bastard

                                                                                   

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

Autres épisodes de la série

IA : un robot créateur est-il un auteur ?

IA : un robot créateur est-il un auteur ?

Des œuvres sont aujourd’hui créées de façon autonome, par des intelligences artificielles (IA). La problématique liée à ce type de créations interroge les cadres juridiques actuels, droit d’auteur ou copyright, dont aucun n’est dédié à l’IA. Comment les faire évoluer ?