Comment faire encore mémoire ? | InaGlobal

Comment faire encore mémoire ?

Article  par  Marc JAHJAH  •  Publié le 07.12.2011  •  Mis à jour le 07.12.2011
[ACTUALITÉ] La troisième saison des Ateliers de l’Ina s’est ouverte cette année avec un débat entre Hubert Guillaud et Olivier Ertzscheid sur la gestion de nos traces sur le Web.
Depuis 2009, l’Ina (Institut national de l’audiovisuel) mène une réflexion sur les pratiques numériques et les archives dans ses ateliers méthodologiques du dépôt légal du Web. Chaque mois sont en effet invités des acteurs reconnus, chargés de traiter des questions aussi variées que la structuration documentaire, la veille, le Web social ou la mémoire et l’oubli, qui apportent ainsi des pistes de réflexion, voire de traitement technique, aux équipes et aux ingénieurs de l’Ina. Le 25 novembre dernier eut lieu la première session de la troisième saison de ces ateliers avec pour sujet : “Grands nombres, clics & boutons : sera-t-il, demain, encore possible d’archiver le Web ?”.

Les deux intervenants, bien connus des internautes, pensent depuis de nombreuses années les transformations opérées par le Web sur nos vies et ont notamment réfléchi à la valeur des nombres avancés comme des “vérités indépassables” par les grands acteurs du numérique (Google), Facebook, Apple). Hubert Guillaud, rédacteur en chef d’InternetActu et important éclaireur du livre numérique, a en effet montré, dans un article sur "Le vertige des métriques", que le Web “est une machine à produire du chiffre [...] dont la valeur nous échappe”, à tel point que nous ne nous interrogeons plus sur leur pertinence.
 Le Web : une machine à produire du chiffre 



Car “que veut dire un million d’utilisateurs ? Pour quel service ? À quoi compare-t-on ce chiffre ?”. Il faisait ainsi suite au billet d’Olivier Ertzscheid, maître de conférences en Sciences de l’information et de la communication, publié le 19 juin sur son blog Affordance, pour qui “le vertige des grands nombres est constitutif de la statistique du web”. L’Ina eut donc l’idée de les réunir pour confronter leurs points de vue.
 Le vertige des grands nombres est constitutif de la statistique du web 
L’échange se sera essentiellement polarisé autour du travail réalisé par Olivier Ertzscheid, auquel Hubert Guillaud a apporté d’indispensables compléments. Cette présentation (“L’imaginaire numéraire du numérique”) s’est attachée à montrer combien les chiffres avancés par les grands acteurs du Web construisent des représentations et des pratiques, reçues et exercées sans grande résistance de la part des utilisateurs qui produisent des traces dont la conservation et l’exploitation sont tributaires de la gestion qu’en font ces acteurs. Ainsi lorsque, par exemple, Google modifie son algorithme de recherche, il modifie la façon dont nous retrouverons ce que nous avons produit.

Hubert Guillaud métrique

Dans ces conditions, comment “faire mémoire”, comment produire des documents dont les références (liens, vidéos, photos, etc.) ne seront plus déstabilisées par des “vagues algorithmiques” ou menacées de disparaître ? Autrement dit : comment peut-on encore faire communauté quand la production de données est telle que nous nous en remettons à des sociétés privées pour les gérer ? L’imaginaire numéraire du numérique est ici à l’oeuvre, qui nous pousse à croire qu’elles seules auraient les capacités de les traiter, c’est-à-dire de réaliser une carte à l’échelle vertigineuse d’une mémoire en pleine expansion.

Or, ce vertige est aussi une construction à laquelle nous souscrivons (faut-il vraiment construire une carte à l’échelle du territoire, comme dans cette histoire de Borges ?). L’introduction de variables (Quel service est concerné par les chiffres avancés ? À quoi les comparer ? Qu’ont fait les utilisateurs ?, etc.), encouragée par Hubert Guillaud, permettrait au contraire de le domestiquer et de dépasser la simple et intimidante volumétrie pour emprunter d'autres voies, d'autres manières de comprendre ces données.

L’intérêt manifesté par Google et Facebook pour nos traces se mesure à leurs incitations permanentes à nous faire sécréter de la mémoire. Ces deux géants s’inscrivent ainsi dans une “dynastie de la mémoire”, qui a favorisé la rencontre de l'hypertexte et du protocole TCP-IP, qui a elle-même permis la naissance de Wikipedia, Facebook, Google, Twitter et autres Flickr, où nous déposons chaque jour notre mémoire textuelle, photographique, relationnelle et topographique.


Nous sommes ainsi passés des arts de la mémoire, propres à l’Antiquité et à la Renaissance, où l’acquisition du savoir passait par la construction personnelle d’une architecture mémorielle (souvenirs placés aux différents rayons d’une bibliothèque, par exemple), à des technologies du souvenir, d’abord marquées par une externalisation de nos mémoires (sur les serveurs privés d’Amazon, Google et Facebook) puis par celle de nos intimités documentées, industrialisées et récupérées via des boutons (les “like” de Facebook) par des sociétés privées à partir d’autres sites (le bouton “like” sur des journaux) avec lesquels ces entreprises ne partagent pas leurs données.

Dès lors, poser la question de la mémoire du Web et de nos mémoires sur le Web a une valeur patrimoniale et politique, d’autant plus essentielle qu’elle polarise enfin l’attention sur des acteurs qui se déchargent trop souvent de toute responsabilité en pratiquant une sorte d’ “opt-out mémoriel”[+] NoteCette expression, proposée par Olivier Ertzscheid, s’appuie sur un parallèle juridique issu de l’affaire Google Books. On sait en effet que l’entreprise numérise d’abord le catalogue des éditeurs qu’elle ne retire de son fonds qu’à condition qu’ils en fassent la demande (on parle ainsi d’opt-out, soit de retrait après demande). Or, les éditeurs ont plaidé pour la reconnaissance de l’opt-in , soit l’inclusion de leur catalogue après demande. Un “opt-out mémoriel” désigne donc la conservation automatique de toutes nos traces.X [1]. Mais nous sommes nous-mêmes responsables, qui croyons à la fable de la dématérialisation des données, c’est-à-dire à des centres nerveux introuvables, impossibles à soumettre. Or, les data centers existent et derrière eux se cachent ces grands acteurs que sont Google, Facebook et Amazon.


Il nous appartient donc, en développant une logique archivistique, qui ne s’oppose pas à la logique algorithmique mais vient la domestiquer, de développer des archives publiques, ordonnées par des professionnels, chargés d’assurer la transmission de notre savoir et de le filtrer, c’est-à-dire d’opérer des choix, de dresser des collections, afin de faire de l’oubli, comme nous le rappelle Borges dans un célèbre conte (Funes), l’allié indispensable de toute mémoire.


--
Crédit photo : Marc Jahjah

  • 1. Cette expression, proposée par Olivier Ertzscheid, s’appuie sur un parallèle juridique issu de l’affaire Google Books. On sait en effet que l’entreprise numérise d’abord le catalogue des éditeurs qu’elle ne retire de son fonds qu’à condition qu’ils en fassent la demande (on parle ainsi d’opt-out, soit de retrait après demande). Or, les éditeurs ont plaidé pour la reconnaissance de l’opt-in , soit l’inclusion de leur catalogue après demande. Un “opt-out mémoriel” désigne donc la conservation automatique de toutes nos traces.
Vous souhaitez nous apporter un complément, rectifier une information ? Contactez la rédaction