« Ce n’est pas tant l’actualité que les journalistes qui font l’événement »

Article  par  François QUINTON  •  Publié le 22.03.2017  •  Mis à jour le 23.03.2017
L’information originale en ligne est-elle menacée ? Et comment garantir sa pérennité ? Entretien avec Julia Cagé, Nicolas Hervé et Marie-Luce Viaud, auteurs de « L’Information à tout prix » (Ina Éditions).

Le développement de l’information sur Internet conduit-il au règne du copié-collé au détriment de l’information de qualité ? Peut-on inventer de nouveaux modèles économiques pour les médias afin de tirer le meilleur parti des nouvelles technologies ?
Voici deux questions qui structurent le livre L’information à tout prix (Ina Éditions). Cet ouvrage, fruit d’un travail de recherche inédit, apporte de nouvelles réponses à ces questions en conjuguant les outils du big data, du machine learning et de l’économie. Il se fonde sur la construction et l’analyse d’une base de données unique : l’intégralité du contenu produit en ligne par les médias d’information en France sur l’année 2013, qu’il s’agisse de la presse écrite, de la télévision, de la radio, des pure internet players ou encore de l’AFP. 
Entretien avec les trois auteurs : l’économiste Julia Cagé (Sciences Po) et les chercheurs en informatiques Nicolas Hervé et Marie-Luce Viaud (Ina)
 
 
Comment sont nées cette recherche et cette collaboration ?

Marie-Luce Viaud : Ça a commencé il y 5 ans, avec le projet OTMédia, qui était un projet financé par l’Agence nationale de la recherche (ANR), et qui avait pour but de collecter de façon transverse le contenu de la radio, de la télévision, du web et de l’AFP pour faire un panorama global des médias. Et puis Julia nous a contactés, elle était alors en thèse à Harvard et elle se proposait d’étudier la propagation de l’information d’un point de vue économique. C’était complémentaire aux travaux en cours à l’époque, donc très intéressant.

 
Quelles ont été les principales difficultés que vous avez rencontrées au cours de cette recherche ?

Nicolas Hervé : Les données, les données, et encore les données !

 
C’est-à-dire la récupération, le format ?

Nicolas Hervé : Tout !

Marie-Luce Viaud : L’objectif du projet OTMédia était de faire un framework d’analyses tout automatique, en sachant que cela entraîne forcément du « bruit ». Toute la difficulté du travail a été d’essayer de mesurer les biais et de s’assurer que les biais n’allaient pas amplifier les effets que nous  voulions mesurer.

Nicolas Hervé : Le principal problème est qu’on est sur des masses de données qui sont telles (2,5 millions de documents, juste pour l’année 2013) qu’on ne s’amuse pas à tout vérifier à la main. Or, on obtient parfois des résultats surprenants : est-ce que ces résultats surprenants sont vraiment des résultats surprenants, ou est-ce que c’est lié à un problème dans les données ? Et donc au fur et à mesure, 1) du développement des algorithmes, et 2) de la mise en équation avec les données économiques venant du monde des médias – tout l’aspect économétrie qu’a réalisé Julia – il nous a fallu corriger les données, mieux cerner le corpus, localiser et corriger les erreurs. Nous savons qu’il reste quelques erreurs sur les données elles-mêmes, mais elles sont suffisamment circonscrites pour ne pas avoir d’influence statistique notable sur les résultats (il s’agit simplement de bruit statistique). L’intérêt pour nous, en tant que chercheurs en informatique, est de travailler des données issues du « vrai monde », avec des vraies questions derrière.

 
Pourquoi avoir choisi l'année 2013 ?

Marie-Luce Viaud : Tout simplement parce que c’était la dernière année du projet OTMédia et, en l’occurrence, c’est l’année pour laquelle nous avons collecté le plus de médias et pour laquelle les données sont les plus propres. 

 
Venons-en aux principaux résultats de votre recherche. Plusieurs d’entre eux semblent surprenants, en tout cas interpellent, et notamment la statistique selon laquelle les 2/3 des informations d’actualité qu’on peut lire en ligne, relèvent du copié-collé. Comment l'expliquer ?

Julia Cagé : Surprenant, oui et non, parce que je pense qu’on a tous une espèce de sentiment d’homogénéisation des contenus : il y a de l’information partout, il y a de plus en plus de sites Internet, mais on se rend bien compte qu’on retrouve sans cesse et toujours la même information. Ce qui est nouveau dans le projet, c’est que pour la première fois, nous avons quantifié de manière systématique le copié-collé – et nous avons également identifié les « copieurs » et les « copiés ». Sur l’actualité chaude, sur ce qui fait événement, nous avons montré que 2/3 du contenu était en fait du copié-collé, ce qui vient, d’une part, d’une utilisation très forte des dépêches d’agences, que ce soit l’AFP mais aussi Reuters ou Associated Press. D’autre part, cela est lié au fait qu’on a malheureusement des rédactions qui ont pas mal réduit la voilure. Si vous avez moins de journalistes et que vous leur demandez, pour alimenter en continu un site Internet, de produire six, sept, huit articles par jour, ils vont de facto faire beaucoup de copies : les journalistes ne sont pas des superhéros. Nous n’avons pas été tant surpris que ça par le résultat, sauf peut-être par l’ampleur de la copie. Car même en se concentrant sur les seuls producteurs d’information, on voit qu’ils ont tendance à recourir massivement à la colle et aux ciseaux.

Nicolas Hervé : D’autant que l’on est vraiment sur la base la plus restrictive possible : l’algorithme ne détecte que le copié-collé exact donc les paraphrases et autres reformulations sont exclues du résultat. Donc 2/3, c’est plutôt une limite basse…

 
Votre étude porte sur l’actualité chaude, sur ce qui fait événement. Comment définissez-vous, justement, ces événements ?

Marie-Luce Viaud : Il y a plusieurs façons de définir les événements : des définitions sémiologiques, des définitions aussi sociologiques, philosophiques… Comme nous traitons quelque chose qui doit pouvoir être mesuré, nous avons considéré que des événements étaient globalement des ensembles de documents qui vont parler d’un même fait, qui arrive au même moment. Pour qu’il y ait événement, il faut qu’il y ait au moins dix documents qui soient diffusés par au moins deux médias, cela permet d’éviter le biais lié aux médias qui vont publier beaucoup sur un sujet qui ne sera présent que dans leurs titres.

Nicolas Hervé : Ces critères éliminent tous les événements médiatiques ultra-locaux, car l’objet de notre recherche concerne la propagation de l’information. On a donc circonscrit l’étude à des événements médiatiques qui ont vocation à se propager. Un fait médiatique qui intervient juste dans un petit village n’a par nature pas vocation à se retrouver dans plusieurs titres de presse.

Julia Cagé : Notre approche étant quantitative, nous avons choisi une définition algorithmique de l’événement. Mais cela n’empêche pas l’émergence d’événements super locaux. On cite un exemple dans le livre, celui de voleurs qui cambriolent une bijouterie puis qui, pris de remords, reviennent à la bijouterie et ramènent le butin ainsi qu’une boîte de chocolats. Cet événement est couvert dans Le Dauphiné Libéré, un journal local. Personne ne s’y intéresse, sauf à partir du moment où il est repris dans une matinale radio : c’est repris par plusieurs sites, il va y avoir une dépêche AFP, et là ça devient un événement, parce que ça a passé une certaine « porte officielle ». Donc là on voit des événements se créer, mais on voit aussi des articles qui ne deviennent jamais événements parce que ça n’intéresse pas grand-monde : des dépêches AFP, très techniques, qui ne sont jamais reprises sur des choses qui vont se passer en Amérique latine, ou au Moyen-Orient, la disparition de personnalités inconnues du grand public et qui n’a pas vocation à être couverte, en tout cas pas par la presse grand public. Et puis d’autres choses, dont on aurait pu penser que ça ne serait jamais un événement, mais parce que vous avez un humoriste qui décide d’en faire une chronique, ça devient un événement.

 
Y a-t-il une nature type des informations qui sont le plus copiées ?

Nicolas Hervé : On arrive à des proportions thématiques des événements qui sont globalement équivalentes à ce qu’on peut retrouver à l’AFP, donc avec beaucoup de politique, d’économie, de social, crime, justice aussi, le sport un peu moins. Mais c’est aussi lié au corpus parce qu’au moment où on a fait OTMédia, on s’est focalisés sur les informations générales, politiques, etc. Typiquement, un journal comme L’Équipe n’est pas dans le corpus. Les événements sportifs en eux-mêmes sont présents mais seulement quand ils sont traités dans des médias autres que sportifs.
Un autre point : le nombre d’événements quotidiens est relativement stable tout au long de l’année, parce que le nombre de journalistes est globalement stable, et ils ne sont capables de couvrir qu’une certaine quantité d’évènements.

Julia Cagé : On a en moyenne 68 nouveaux événements par jour. Sauf s’il y a vraiment un jour où il se passe quelque chose de très important qui va prendre le devant de l’actualité, tous les jours vous avez 68 événements. C’est-à-dire que ce n’est pas tant l’actualité qui permet de définir l’événement, que les journalistes qui font l’événement, parce qu’ils ont un certain nombre de cases tous les jours à remplir. C’est ce qui explique aussi que certains jours où il ne se passe pas grand-chose, l’histoire de la boîte de chocolats et de la bijouterie peut devenir un événement.

Nicolas Hervé : Instinctivement, on pourrait se dire que dans un média presse/papier, l’espace est limité et qu’avec Internet, ce cadre-là saute. C’est vrai, le contenant est potentiellement infini. Mais comme le nombre de journalistes ne change pas – voire diminue –, on n’a pas forcément beaucoup plus de contenu, ou alors du contenu qui va être copié-collé, etc.

 
Pour rebondir sur l’affaire de la boîte de chocolats, vous dites qu’elle est devenue un événement à partir du moment où elle a été évoquée dans une matinale. Est-ce qu’on peut identifier ou typer les médias qui jouent un rôle de caisse de résonance et qui permettent à un fait de devenir un événement ?

Julia Cagé : On voit deux choses : d’abord, on a une tendance assez forte d’un certain nombre de médias à publier un grand nombre d’informations entre 6 h 30 et 7 h du matin, ce qui veut dire que de nombreux médias visent les matinales, et on a un deuxième pic avant le journal du soir, pour les mêmes raisons.  Ensuite, on a regardé le temps de reprise, c’est-à-dire combien de temps s’écoule en moyenne entre la publication originelle d’une information et les articles suivants : en moyenne, on trouve que c’est moins de 3 heures, mais dans 10 % des cas, c’est seulement 4 secondes, donc cela peut être extrêmement rapide. On repère aussi de vraies différences : quand c’est l’AFP c’est très rapide parce qu’il n’y a pas de vérification, il y a une espèce de confiance aveugle dans l’AFP. Mais quand on arrive au pure Internet player, là par contre le temps de réaction est vraiment plus long puisque l’on passe de 120 minutes en moyenne pour l’AFP à 405 minutes pour les pure Internet players. Dans le cas des pure players, les autres médias vont aller revérifier l’information avant de la couvrir, et finalement vont souvent attendre. Il y a donc de vraies différences de crédibilité que l’on peut mesurer à travers ce temps de réaction, en fonction du newsbreaker [le média qui « sort » l'information, ndlr].

Nicolas Hervé : Rappelons qu’on parle de l’année 2013. L’image des pure Internet players n’était pas forcément celle qu’on a d’eux aujourd’hui.

 
Un autre résultat qui interpelle, c’est non seulement l’importance du taux de copie, mais aussi la très faible part de citations de la source, du newsbreaker (moins de 2 % des cas, si on enlève l’AFP). Comment expliquer ça ? Ce résultat vous a-t-il surpris ?

Nicolas Hervé : Notre algorithme essaie de repérer automatiquement les formulations, dites « de citation ». Quand un média va créditer un autre média comme étant la source de l’information, « selon un journaliste du Monde » ou « d’après une dépêche AFP », ou « a déclaré au micro d’Europe 1 », ce genre de structures de phrases est détecté. Pour ce qui est de la quantité qui peut être détectée, il y a vraiment des différences là encore selon qui est cité. Parce qu’il y a le cas particulier de l’AFP, auquel s’abonnent les médias. C’est le business model de l’AFP de se faire reprendre ses contenus. Ce qu’on remarque c’est que dans toutes les dépêches AFP, à l’intérieur même du texte, l’AFP s’auto-cite (« a déclaré un journaliste de l’AFP, etc. »), ou au pire il y a le copyright AFP. Ensuite, c’est souvent une politique propre à chaque média. Certains d’entre eux, quand ils publient une dépêche AFP, vont mettre systématiquement « avec AFP ». Et puis il y en a d’autres où il n’y a rien, c’est-à-dire qu’on a la dépêche telle quelle, sans mention. Pour ce qui est de la mention entre médias, il y a parfois des stratégies assez amusantes !

 Même ceux qui produisent énormément de contenu original copient beaucoup 
Julia Cagé : On voit ainsi des dépêches AFP reprises telles quelles à l’exception du nom du journal qui a sorti l’information. Il y a quand même une vraie tendance à caviarder les concurrents, et ça, en termes d’implication, c’est vraiment intéressant parce que vous avez des médias qui se battent, assez légitimement, sur la question du copyright contre Google au niveau européen, mais qui finalement ne le respectent pas vraiment entre eux. Et c’est une situation où comme tout le monde le fait un peu, personne ne dit rien… C’est un peu comme pour la copie : nous n’avons pas trouvé de bons élèves et de mauvais élèves, même ceux qui produisent énormément de contenu original copient beaucoup. Ce serait beaucoup plus sain si tout le monde se forçait à respecter les citations ; et encore, on ne parle même pas de liens hypertextes, parce que, mis à part à l’intérieur des groupes, ils sont complètement absents : on écrira peut-être « d’après Le Monde », mais on ne mettra pas de lien vers le site.

 
Pouvez-vous nous dire qui sont les plus gros copieurs ?

Julia Cagé : Non ils se copient tous, même l’AFP, mais l’AFP crédite plus et est plutôt très bon élève de ce point de vue-là. En fait, tout le monde copie beaucoup. Mais tout le monde ne produit pas beaucoup de contenu original.

 
Les matinales sont-elles finalement ce qui est le plus à même d’être repris ?

Marie-Luce Viaud : C’est l’AFP qui est le plus cité, avec plus de la moitié des référencements, puis, on voit les radios et télévisions et dans la plupart des cas ces référencement concernent les interviews des matinales radio ou des JT ou magazines télévisuels de fin de journée.

 
Peut-on, au terme de cette étude, qui concerne une année complète, identifier les médias qui produisent de l’information originale ?

Julia Cagé : Ceux-là, pour le coup, on les identifie très bien. Ils copient aussi mais ce sont ceux qui ont le plus de journalistes. À chaque fois que nous disons : « les journalistes sont nécessaires à produire de l’information », beaucoup de gens nous disent « pas forcément, quand il y a moins de journalistes c’est peut-être simplement des gains de productivité ». C’est aussi pour tester cette hypothèse selon laquelle, plus vous avez de journalistes, plus vous produisez de l’information originale, que nous avons entamé cette collaboration. Et ça, c’est quelque chose qu’on a quantifié assez clairement. Un journaliste supplémentaire dans un média, c’est d’autant plus d’articles originaux qui sont produits chaque année. C’est un des points principaux qu’il faut retirer de ce livre, parce que ce que ça veut dire, dans le contexte actuel d’effondrement du nombre de journalistes et de désinvestissement d’un certain nombre de patrons de presse dans le journalisme, qu’on aura demain moins d’informations originales. Encore une fois, ça ne veut pas dire qu’on aura moins d’information tout court – il y en a partout, on le voit avec le copié-collé, la vitesse de propagation –  mais il y aura moins de faits nouveaux qui seront révélés, et ça, ça nous concerne tous comme citoyens.

 
Vous mettez en regard deux situations, celle de la presse aux États-Unis, qui a connu une chute d’effectifs  vraiment très importante – 1/3 en moins depuis 2001 –, avec la situation de la presse française, pour laquelle la baisse du nombre de journalistes est plus modérée. Les deux situations sont-elles vraiment comparables ? Faut-il vraiment s’attendre, à très courte échéance, à une baisse vertigineuse de la taille des rédactions en France ?

Nicolas Hervé : C’est une projection que nous faisons. Ce qui est clair, c’est qu’on est sur le même profil de courbe. On n’est pas encore au fond du gouffre en France parce que ça peut encore continuer comme aux États-Unis.

 
En France le nombre de journalistes est aujourd’hui à peu près le même nombre qu’en 2000…

Julia Cagé : Oui, mais il y a quand même deux éléments : la tendance est la même même si la pente est moins forte, ce qui vient en partie du fait que la crise économique a frappé plus durement les journaux américains, qui reposaient historiquement davantage sur la publicité. En France, la presse quotidienne n’a jamais dépassé les 40 %-50 % de recettes publicitaires, aux États-Unis, c’était 90 %. Donc comme la crise a frappé majoritairement le marché publicitaire, c’est normal qu’il y ait une sur-réaction des journaux américains par rapport aux journaux français. Ça explique pourquoi la pente est plus forte aux États-Unis, mais la tendance est exactement la même dans les deux cas.

Dans le livre, nous nous appuyons sur les données de la carte de presse pour connaître le nombre de journalistes dans chaque média, mais si on regarde les données de l’enquête emploi (INSEE), la chute est beaucoup plus vertigineuse en France. Pourquoi ? Parce que pour avoir la carte de presse, il faut respecter un certain nombre de conditions, notamment tirer un minimum de ressources du journalisme, et ne pas être autoentrepreneur. Or ce que l’on voit aujourd’hui, c’est de plus en plus de journalistes précarisés qui n’ont même plus la carte de presse. Ils sortent des statistiques avant même d’y être rentrés, car la réalité est là : on les force à être payés en factures, comme autoentrepreneurs. On sous-estime donc l’effondrement du nombre de journalistes. Et le dernier point, c’est que la comparaison par rapport à 2000 est à moitié vraie, parce qu’une partie de la hausse en 2000 est due aux 35 heures. Mais aujourd’hui, pour le dire simplement, un titre comme
L’Express a autant de journalistes… qu’en 1965. C’est plutôt vers ça que l’on revient, et il faut s’en inquiéter.

 
Vous avez identifié plusieurs risques dans votre livre, à la suite des différents résultats auxquels vous aboutissez : une copie très importante avec une vitesse de copie également très importante, donc le risque d’une raréfaction de l’information originale en raison de la difficulté à monétiser la production d’informations originales que cela entraîne, et ce d’autant plus qu’être newsbreaker, sortir une information, ne paie pas vraiment en termes d’audience à court terme. Comment expliquer cela ?

Julia Cagé : Il y a deux choses. La première chose, c’est que jusqu’à Internet, quand vous sortiez une info, vous aviez au moins un bénéfice financier pendant 24 heures, parce que pendant 24 heures vous étiez le seul à avoir l’info et, du fait de la manière dont les journaux sont publiés – il y a certes des pays comme le Japon, parfois les États-Unis où vous avez deux éditions par jour – les gens allaient acheter votre journal papier. Aujourd’hui, cette exclusivité n’existe plus. Dès que vous avez publié une information, on la retrouve en moyenne en moins de 3 heures, parfois en moins de 5 minutes sur tous les sites concurrents. Prenons l’exemple des écoutes de la NSA, publiées par le site du Monde. Entre 6 h et 6 h 30 du matin quand Le Monde sort l’info, et 7 h, quand on se réveille le matin, c’est déjà sur quinze sites. Quel est l’avantage du Monde d’avoir sorti cette info-là ? Quand ce sont les écoutes de la NSA, on le voit en termes de réputation, c’est-à-dire que tout le monde va citer Le Monde, reprendre Le Monde, parler du Monde, et ça, on l’a encore vu récemment avec le Penelope Gate et Le Canard enchaîné, c’est-à-dire que le gain pour Le Canard enchaîné n’est pas le gain d’une semaine, on a tellement parlé du Canard enchaîné que les ventes vont augmenter pendant 1, 2, 3, 4 voire 5 semaines, potentiellement. Ça c’est un effet de réputation.

Nicolas Hervé : Sans parler des articles qui reparlent du modèle économique du Canard. Les médias ont bien conscience de l’importance de sortir des informations et d’être crédité pour ce travail qui, d’un point de vue démocratique, est important.

Julia Cagé : Mais si on enlève ces coups médiatiques-là, ça coûte toujours très cher de produire de l’info originale : vous êtes repris très vite, et on ne vous crédite pas. Quel est le bénéfice ? Et la question, est finalement : « est-ce que les effets de réputation à terme vont être suffisants ? » ou, « est-ce que, parce qu’on a cette information qui se propage très vite, on ne se retrouve pas dans une situation où l’information a perdu toute valeur commerciale ? ». Et n’est-ce pas pour ça qu’on voit une baisse de la taille des rédactions ? Parce que finalement, les journaux, conscients du fait que ça ne leur rapporte plus commercialement de produire de l’information originale, décident de désinvestir cette production-là. Et ça, ça a des conséquences. On peut tenir un raisonnement qui peut être rationnel de manière économique privée, mais qui a des effets publics gigantesques qui ne sont pas du tout internalisés.

 Vous êtes repris très vite, et on ne vous crédite pas. Quel est le bénéfice ? 
Marie-Luce Viaud : À côté de ça, il faut noter que Mediapart n’a cessé de voir son nombre d’abonnements grimper, et qu’il a forgé sa réputation en deux/trois affaires. Donc on voit bien que la production d’informations originales, quelque part, va jouer au moins en partie sur le lectorat constant des journaux.

Julia Cagé : C’est très intéressant comme exemple parce que, sur l’affaire Bettencourt, quand Mediapart publie ses révélations, une des raisons pour lesquelles les gens s’abonnent, c’est que Mediapart a mis en ligne des écoutes que les autres journaux ne veulent pas mettre en ligne parce qu’il y a des problèmes juridiques. Donc quand les autres journaux ne peuvent pas reprendre votre information, qu’on ne peut la trouver que sur votre site, les gens s’abonnent. Et Marie-Luce a raison, ils s’abonnent et en plus ils restent abonnés.

Nicolas Hervé : Il y avait une information exclusive et incopiable. On en revient au modèle du Canard enchaîné qui refuse d’être en ligne. Même si, maintenant, avec les réseaux sociaux, on trouve des photos d’articles, globalement, si on le veut, il faut l’acheter en papier.

 
Quelles solutions proposez-vous pour les médias ?
 
Nicolas Hervé : Le point principal c’est d’abord de dire qu’il y a un problème et qu’on doit s’y intéresser, en débattre collectivement. On ne peut pas laisser la situation se dégrader comme elle se dégrade – chute des revenus publicitaires, concentration de l’actionnariat, etc. Et ça pose des questions à différents acteurs de la société : que ce soient les médias, les journalistes eux-mêmes, les pouvoirs publics, ou nous, citoyens, lecteurs, consommateurs de médias, tout le monde a une responsabilité dans cette histoire. À un instant T, il peut y avoir pour un média un intérêt économique, marchand, de pouvoir, etc., mais quand on prend globalement la somme de tous les médias, les enjeux pour la société, pour la démocratie, sont différents.

 
Comment faire pour que les gens paient pour l’information, et en même temps la rendre accessible ?

Julia Cagé : Il existe différents supports, on a en France une AFP et un audiovisuel public. Il faut aussi redonner une incitation aux médias privés à produire de l’information de qualité et de l’information originale, et ça ils ne le font que s’ils arrivent à être rémunérés pour ça, c’est-à-dire derrière un mur payant. Tous les business model qui marchent aujourd’hui pour la presse, sont derrière des murs : le New York Times, par exemple, aux États-Unis, est derrière un mur payant, et aujourd’hui la majorité de la croissance de ses recettes vient des ventes et des abonnements.  Le Monde, en France, qui n’est pas loin de retrouver l’équilibre financier, qui l’est déjà au niveau du groupe, est derrière un mur payant. Et on voit même de plus en plus de médias qui sortent de la logique de la mise à jour en continu, parce que finalement, comme on trouve de l’information partout, ça n’a plus vraiment de valeur ajoutée.

Ensuite, vous avez raison, l’information est un bien public, et c’est pour cela qu’on veut qu’elle soit produite, et qu’elle ne soit pas réservée à une espèce de petite élite. C’est ce à quoi servent, aux côtés des médias privés, les médias publics, et en particulier l’audiovisuel public de qualité, qui donne cette information à consommer à tous gratuitement. Le site internet de France télévision est régulièrement classé parmi les 10 premières audiences sur Internet des médias en ligne. Là, finalement, les citoyens paient mais indirectement  par la contribution à l’audiovisuel public (CAP), ils paient par leurs impôts à la production et à la diffusion de cette information de qualité. Donc il y a différents modèles : les modèles publics ont un financement public, et donc ça c’est un choix collectif de financement ; quant aux médias privés, il faut leur redonner des incitations financières et en particulier, il faut qu’ils fassent le choix du payant.

 
Vous évaluez à 9 € le montant moyen qu’un Français est prêt à débourser par mois pour s’informer. Quel serait, selon vous, le montant pour bien s’informer ?

Marie-Luce Viaud : Ça pose la question de savoir comment les médias vont réagir à toutes ces questions, parce qu’il y a une demande de portails où potentiellement les consommateurs pourraient acheter différents articles issus de différents journaux… Car on ne peut évidemment pas s’abonner à tous les journaux. Cette idée de portail est intéressante pour le consommateur, mais aussi pour les médias, notamment en termes de protection par rapport aux infomédiaires [Google, Facebook, Twitter,... ndlr]

 
Vous évoquez un modèle à la Blendle, qui serait, un « Blendle français », construit par les médias eux-mêmes. Avez-vous eu l’occasion d’évoquer cette hypothèse avec certains interlocuteurs du monde des médias, et les pensez-vous prêts à ce type d’initiative ?

Julia Cagé : On dit vraiment un « Blendle à la française » parce que je pense qu’une des choses dont souffrent les médias aujourd’hui, c’est le poids des réseaux sociaux, et le fait que les réseaux sociaux captent des revenus publicitaires sans rien reverser. On a Facebook, on a Google News, on a Twitter – qui ne s’en sort pas très bien avec la publicité mais ils captent quand même beaucoup d’audience. Si on a en plus un nouvel acteur international qui continue à capter l’audience et la recette des médias, c’est compliqué. Cela dit, en France, depuis la loi Bichet (1947), les médias travaillent déjà ensemble dans un cadre coopératif et notamment avec Presstalis. Et chez Presstalis, il y a des initiatives qui sont développées qui pourraient aller dans ce sens. On en a discuté avec eux et ça pourrait aller vers ça. Il y a par exemple Zeens, qui est une plateforme sur laquelle on va trouver du contenu de nombreux médias différents. Avec Presstalis, on a déjà tout le monde autour de la table qui parle et qui travaille de manière coopérative. La limite, et c’est pour ça que Blendle n’est finalement pas rentré en France, c’est un peu le dilemme du prisonnier : c’est-à-dire que ceux qui s’en sortent le mieux, et dont on a besoin sur la plateforme pour le succès de la plateforme, ne veulent pas rentrer parce que eux n’en ont pas besoin.

 
Ils n’y ont pas intérêt car ça peut diluer leur marque, leur réputation…

Julia Cagé : Qui refuse Blendle en France ? C’est Le Monde et Le Figaro. Qui refuse d’aller sur La Presse libre ? C’est Mediapart. Pourquoi ? Parce qu’ils en ont pas besoin, et c’est là où l’on voit les limites du modèle coopératif. Je pense que là il y a là une possibilité d’intervention de l’État. L’État sauve Presstalis à intervalles réguliers, il l’a encore fait en 2012, il est quand même autour de la table, et c’est aussi à lui, puisqu’il y a un financement public de l’information, de pousser les médias à s’entendre et à aller vers ces formes alternatives de distribution avec de la syndication de contenus.
Les médias qui se lancent – comme Les Jours – s’alignent souvent sur 9 €. C’est bien sauf que ces médias-là ne sont pas exhaustifs, ils sont généralistes mais ils ne sont pas exhaustifs, donc vous n’êtes pas entièrement informé avec eux, vous êtes bien informés mais pas entièrement. Les gens ne peuvent pas faire 9 € + 9 € + 9 € + … Ils pourraient faire 9 €, 11 €, 12 €… d’où l’avantage d’un système comme La Presse Libre.

Nicolas Hervé : Un autre débat d’actualité concerne les réseaux sociaux, avec les bulles informationnelles qui nous enferment dans notre petit confort intellectuel – en gros, caricaturalement, je suis de droite je vais lire Le Figaro, je suis de gauche je vais lire Libé, sinon je vais lire Le Monde, etc. Or, avoir une diversité, y compris éditoriale, sur des sujets d’actualité, c’est aussi important pour la bonne information des gens. Cette diversité sera d’autant plus accessible si on a une mutualisation ou s’il est facile d’accéder à du contenu payant, normalement de qualité. Mais il y a énormément de nouveaux médias qui se lancent, avec des formats différents, avec des approches différentes…

 
Ce sont souvent des médias de niche…

Nicolas Hervé : Oui, mais qui ont justement vocation à traiter l’information de manière différente, parfois sur le temps plus long, parfois effectivement sur des niches thématiques, etc., et auxquels les lecteurs pourraient avoir intérêt à accéder en complément d’un média plus généraliste.

Marie-Luce Viaud : Certains médias sont en train de tenter un rassemblement autour des fake news, peut-être que cela fera tache d’huile sur d’autres aspects, car tout bouge extrêmement vite.

Julia Cagé : Même quand on ne leur demande pas, les médias savent très bien le faire pour syndiquer leur production de contenus. Ça se fait souvent plus à l’échelle internationale – comme pour les Football Leaks ou les Panama Papers – parce que comme ça les médias ne sont pas en concurrence. Ils savent très bien travailler ensemble, et quand ils travaillent ensemble, en général, c’est encore mieux que lorsqu’ils sont seuls.

 
Vous évoquez, effectivement, la syndication de contenus comme une piste de développement. Est-ce facilement reproductible à l’échelle nationale ?

Nicolas Hervé : En dehors de la rationalisation des rédactions, où on rachète plein de titres pour finalement distribuer le même contenu dans plusieurs titres de presse différents, qu’on vide ainsi de leur substance, les groupes médias savent très bien opérer des convergences d’un point de vue industriel : posséder un fournisseur d’accès Internet, des titres de presse, fournir ces titres dans leurs contenus Internet, et proposer tout cela dans une offre globale. Le problème là encore, c’est que c’est organisé par les structures capitalistiques qui ne vont fournir que leurs titres de presse avec leur accès Internet. Il y aurait sûrement moyen de faire plus, plus ouvert pour un accès à une plus forte diversité pour le lecteur.

 
Finalement, à travers la syndication, il s’agit de faire payer les copieurs, en particulier les agrégateurs, à la production de l’information.

Julia Cagé : Il y a une vraie question – compliquée – autour de Google News. Plusieurs études montrent que Google News génère beaucoup de trafic, et à chaque fois qu’il y a eu des expériences en Espagne, en Allemagne, de bras de fer avec Google News, on a très bien vu que quand Google News fermait, les éditeurs perdaient beaucoup.

Avant de faire la leçon à Google, commençons par bien nous comporter entre nous 

En même temps, trois acteurs (Google, Facebook, Amazon) contrôlent 75 % du marché publicitaire mondial sur Internet, en produisant quoi ? Rien. C’est-à-dire simplement en repompant le contenu des autres médias, et en plus on a des acteurs qui ne paient même pas leurs impôts en Europe. Nous, plutôt que ces acteurs nous fassent la charité à travers le fonds Google qui, en plus, est vraiment une goutte d’eau si c’est rapporté aux aides à la presse ou aux bénéfices de Google, nous préférerions qu’ils paient pour les contenus qu’ils utilisent, c’est la logique du copyright. Ce n’est pas un bras de fer qu’on pourra gagner au niveau d’un pays, je pense que c’est une discussion qui doit avoir lieu au niveau européen. Ça tombe bien, à Bruxelles, il y a une réflexion sur le sujet, et on veut la pousser davantage. Je pense qu’un des apports du livre, c’est aussi de dire qu’avant de faire la leçon à Google, commençons par bien nous comporter entre nous. Donc, déjà, créditons-nous les uns les autres. Et puis ensuite il faut cette initiative au niveau européen pour que les agrégateurs reversent au moins une partie de leurs bénéfices aux producteurs d’information. Encore une fois, pas sous la forme de « je suis Google, je suis prêt à vous faire la charité pendant trois ans », parce qu’en fait dans trois ans, si Google se retire, il n’y aura plus rien, mais ils seront quand même en train de capter les revenus des médias qui produisent de l’information et investissent. Il faut donc une vraie logique et des vraies règles qui soient définies en amont.

Nicolas Hervé : Prenons Instant Articles,ce nouveau moyen de proposer du contenu de presse aux utilisateurs Facebook. Les journaux regardent ça de près et puis au bout d’un moment, ils se sentent tous coincés. Ils regrettent, ils préféreraient que ce soit fait autrement, ils se mordent les doigts d’être obligés de diffuser leur contenu en passant par ce canal-là, mais ils se sentent piégés : s’ils n’y sont pas ils perdront encore plus que s’ils y sont. C’est toujours la question du court terme et du long terme. Compte tenu des difficultés de la presse, ils n’ont pas non plus 36 solutions et sont souvent obligés de réfléchir du jour pour le lendemain.

 
D’autant que la consommation d’informations sur mobile augmente de plus en plus, et qu’Instant Articles, en permettant aux éditeurs de presse de publier directement leurs articles sur la plateforme, donne à l’utilisateur un chargement quasi instantané des articles.

Julia Cagé : Enfin à l’arrivée on gagne trois secondes et, à nouveau, c’est un peu comme pour la vitesse de propagation, le coût à payer en termes d’effondrement des revenus publicitaires et de l’incitation à produire de l’information est un peu trop élevé pour trois secondes. Mais je pense qu’il y a deux responsabilités : il y a une responsabilité des éditeurs qui n’ont pas su s’entendre pour dire non collectivement, et à partir du moment où il y en a un qui bouge, les autres sont obligés de bouger ; et je pense qu’il y a de la pédagogie à faire auprès des citoyens aussi, qui ont leur part de responsabilité et qui, s’ils décident de rester uniquement dans l’environnement de Facebook, choisissent finalement eux-mêmes de se désinformer et de subir potentiellement à terme une censure, ou en tout cas la ligne éditoriale de Facebook, puisqu’à terme cela revient à enlever toute possibilité aux médias de déterminer eux-mêmes leur ligne éditoriale.

 
Votre étude concerne l’année 2013, le paysage a un peu changé depuis lors. Quelles en sont, selon vous, les principales évolutions ?

Nicolas Hervé : Les réseaux sociaux dans la propagation et la diffusion de l’information. Déjà en 2013 ce n’était pas négligeable, mais ça a vraiment pris de l’ampleur. En 2015, le Pew Research Center a montré que 63 % des utilisateurs de Facebook et Twitter aux États-Unis utilisent ces plateformes comme support unique d’information.

Julia Cagé : La deuxième différence c’est l’émergence des murs payants, c’est-à-dire qu’en 2013, mis à part Mediapart, tout le monde était en gratuit. Maintenant, la plupart des médias ont mis au moins une partie non négligeable de leurs contenus derrière un mur payant. Donc on voit qu’ils réagissent d’une certaine manière, à la perte de valeur commerciale de l’information en essayant d’avoir des choses qui sont plus exclusives et mieux protégées.

 
Avez-vous une hypothèse sur l’échéance à laquelle la grande majorité des médias seront derrière un mur payant ?

Julia Cagé : Tous les médias qui vont faire le pari de la production d’une information de qualité, et qui sont détenus de manière privée, c’est-à-dire pas publique ou pas de manière non lucrative comme le Guardian, tous ces médias-là, à échéance de quelques mois, enfin de très court terme, vont devoir passer derrière un mur payant. Mais ça ne veut pas dire qu’on n’aura pas des médias « parasites » – au sens économique qui, avec peu de journalistes, continueront à fournir de l’information gratuitement en ligne, parce que ça ne leur coûte pas cher donc finalement, peu importe que leurs recettes publicitaires ne soient pas très élevées.

 
Dans quelles directions comptez-vous désormais orienter vos recherches ?

Marie-Luce Viaud : Nous travaillons sur un développement du prototype 2 de la plate-forme, on va essayer de se rapprocher du temps réel et puis d’intégrer les magazines d’actualité, que ce soit sur la radio ou sur la télévision, de manière à pouvoir étendre le spectre des études au-delà du online.

Nicolas Hervé : Parce qu’une matinale radio, une interview, on va la retrouver, pour l’instant, par les références à cette interview, mais on n’aura pas l’interview elle-même.

Julia Cagé : Et puis en termes d’audience, pour l’instant, on s’est focalisés sur des données d’audience quotidiennes ; maintenant il faudrait étudier l’audience au niveau des articles, donc on a commencé à capturer le nombre de partages de chaque article sur Facebook, on est en train de faire la même chose avec Twitter, et l’idée c’est d’avoir une mesure de la popularité au niveau de l’article, et plus seulement au niveau de la journée, pour estimer la valeur que l’électeur accorde 1) à la réactivité, et 2) à l’originalité, et on peut encore aller plus loin que ce qu’on a déjà fait.

Nicolas Hervé : Facebook, en raison de sa nature même, est quelque chose qui est difficile à observer, parce que ce sont des cercles privés. C’est beaucoup plus compliqué que sur Twitter qui, par nature, est ouvert.

 
Ouvert mais qui concerne moins de monde…

Nicolas Hervé : Ça concerne moins de monde et ce ne sont pas les mêmes publics.

Marie-Luce Viaud : Mais Twitter reste énormément utilisé par les médias donc, ça en fait quand même un objet d’intérêt.

Julia Cagé : Facebook sort des études qui disent qu’en fait la manière dont les gens consomment de l’information sur Facebook n’est pas plus biaisée que dans leur cercle d’amis, sauf que c’est fait par des chercheurs qui travaillent pour Facebook, que les données sont pas disponibles, donc on ne peut pas du tout vérifier ces résultats, et ça, c’est quand même un problème.

Nicolas Hervé : Parce il y a aussi la question des algorithmes d’éditorialisation. C’est comme avec Google News : qu’est-ce qui va être présenté à l’utilisateur avec tout l’aspect de personnalisation, etc. ? Même s’ils s’en lavent les mains parce qu’ils disent qu’il n’y a pas d’éditorialisation humaine, qu’il n’y a pas d’intervention humaine, il y a quand même à un moment donné, des choix qui reposent juste dans le design de l’algorithme, et ces choix-là ont, de facto, un impact sur l’information disponible au lecteur, et ça c’est quelque chose qu’il est important, d’un point de vue sociétal, de pouvoir regarder. La CNIL a justement lancé récemment une initiative sur la transparence des algorithmes, parce que comme de plus en plus de décisions sont prises avec l’aide d’algorithmes, on ne peut pas simplement dire : « c’est la faute de la machine, ce n’est pas moi, il n’y a pas de responsable, c’est neutre, etc. » Ce qu’on pourrait essayer de mesurer c’est, par rapport à la masse d’informations qui est disponible à un endroit, comment elle arrive au lecteur final, comment est-ce que c’est repris, et quel est l’impact du filtre qui est au milieu.

 
Existe-t-il, à l’étranger, des recherches similaires à celles que vous avez entreprises ?

Julia Cagé : La vérité c’est qu’il n’y a nulle part OTMédia, donc ça nous permet d’aller beaucoup plus loin que des travaux qui ont pu être faits à l’étranger. On trouve finalement des résultats assez cohérents avec ceux menés en Argentine par exemple par Pablo J. Boczkowski – qui n’est pas un économiste – et qui est allé dans la rédaction de journaux voir comment les journalistes travaillaient. Il documente le copié-collé puisqu’il les a vus faire. Ensuite en termes de quantification des effets, c’est vrai que OTMédia est une opportunité inespérée pour un économiste des médias pour comprendre la manière dont l’information est produite et construite.

Nicolas Hervé : Il y a beaucoup de choses qui existent, non pas tant dans le domaine de la recherche que des entreprises sur ce qu’on appelle la e-réputation : surveiller ce qu’on dit d’une marque, d’un homme politique, d’une entreprise, peu importe, sur les réseaux. Ça existe, mais ce sont des entreprises privées qui le font, qui surveillent, et elles ne vont pas du tout quantifier les mêmes choses, elles vont vraiment se focaliser sur quelques objets, en gros : regarder le nombre de fois qu’ils apparaissent, ou éventuellement « est-ce qu’on en dit plutôt du bien ou plutôt du mal ? ». Au niveau européen, European Media Monitor (EMM) va avoir un panel de la presse européenne, donc avec quelques titres par pays, mais dans l’objectif de fournir des outils pour la Commission européenne pour étudier la façon dont tel ou tel sujet de société, tel ou tel fait politique a été abordé. C’est plus un outil à destination des décideurs et des politiques pour voir ce qui se dit dans la presse européenne de manière générale, mais ce n’est pas dans une optique d’étudier l’information, la propagation de l’information.

Marie-Luce Viaud : Il y a aussi un projet à Columbia University, à New York, qui rassemble énormément de médias : vidéos, radios, audio, etc. Ils font énormément d’analyses automatiques mais ils n’ont pas du tout les mêmes objectifs. Leur objectif est de permettre aux journalistes d’avoir à disposition finalement toute l’actualité qui est produite pour leur permettre d’être au courant très vite.

Nicolas Hervé : La différence c’est que notre plate-forme est avant tout destinée à faire de la recherche transdisciplinaire avec, d’un côté, ce que nous faisons à l’Ina, de la recherche en informatique, de l’analyse de la fouille de données et, de l’autre, des chercheurs en sciences humaines et sociales qui veulent étudier soit l’information pour elle-même, soit la manière dont des faits de société sont abordés par les médias de manière systématique et quantitative.


* À lire également : les bonnes feuilles de L'information à tout prix (Ina Éditions)

Vous souhaitez nous apporter un complément, rectifier une information ? Contactez la rédaction