L’Internet du futur en cinq questions

L’Internet du futur en cinq questions

Depuis ses débuts officiels en 1983, Internet a beaucoup évolué et évoluera encore. Mutations technologiques, évolution de la consommation de contenus, fractures sociologiques et générationnelles : tour d’horizon de ce qui conditionne l’avenir du réseau mondial.  
Temps de lecture : 7 min

L’évolution rapide des pratiques numériques a entraîné une mutation des usages qui transforment le consommateur de médias en être connecté, en mouvement dans une réalité augmentée qui bien souvent, le dépasse ! Les formats de diffusion et le débit proposés par le réseau sont interdépendants, y compris dans une concentration exponentielle des médias autour d’Internet. Les perspectives technologiques correspondant à ces enjeux modifient déjà le statut du consommateur de contenus et sa place dans un avenir connecté ou pas.

Une réelle sensibilité aux formats image et son haute définition ?

 Les sirènes du marketing nous assènent des concepts aux antipodes des besoins réels 
La question peut être ainsi posée : sommes-nous devenus plus sensibles ou, dit autrement, nos sens sont-ils en évolution face à une escalade de nouveaux formats HD et Ultra HD, ou bien sommes-nous simplement sensibles aux sirènes du marketing qui nous assènent de nouveaux concepts parfois aux antipodes des besoins réels ? Un paradoxe s’installe, né de l’hypertrophie de l’écran de télévision d’un côté, et de l’individualisation du réflexe télévisuel de l’autre. Le téléviseur n’est plus le centre du foyer et le moment de réunion familiale autour d’un programme tend à disparaitre, car le mode de consommation qui vise l’écran-spectateur est pluriel et par principe individuel.
 
Compte tenu de ce constat et des supports qui accompagnent le consommateur dans son quotidien « médias », on peut se poser la question de la pertinence d’une augmentation à marche forcée de la qualité de diffusion. Question qui pourrait passer pour une simple provocation si ce n’est que les outils à notre disposition pour visualiser des programmes ne font pas preuve d’une grande homogénéité, ce serait plutôt l’inverse. Si dans les domaines de l’image animée en général et de la vidéo en particulier, le passage de l’analogique au numérique a été globalement vécu comme une évolution positive, tout comme est en train de le devenir celui de la SD à la HD de façon généralisée, il n’en va pas de même pour l’audio.
 
En effet, dans ce domaine, c’est le chemin en sens inverse qui a été parcouru depuis le son analogique du vinyle et de la K7, remplacés par le CD (jusque-là tout allait à peu près bien) puis le MP3 est passé par là… Toujours considéré comme le parent pauvre de l’audiovisuel, le son devrait pourtant progresser dans sa qualité de diffusion. En effet notre cerveau perçoit assez mal les grands écarts qualitatifs entre image et son simultanés. C’est encore plus flagrant avec les écoutes au casque. Les nouveaux supports de diffusion individuels que sont les ordinateurs portables, les tablettes et autres smartphones ont massivement recours à l’écoute au casque stéréophonique. Si notre cerveau est conditionné en partie par une société d’images (qu’il priorise donc), le son joue un rôle totalement complémentaire si il est associé à ces images et il faudra compenser en permanence une moindre qualité du son. Ces deux domaines doivent par conséquent, évoluer de concert, dans le respect des normes en vigueur. À charge ensuite aux diffuseurs de s’adapter, et aux fabricants de permettre au son d’être restitué correctement.
 
Par ailleurs, le transfert amorcé mais pas encore totalement admis, de l’ensemble des médias audiovisuels vers Internet, risque de redéfinir en profondeur lesdits formats. Si nous prenons simplement l’exemple de l’écran de l’ordinateur, avant que celui-ci n’adopte un format généraliste en 4K et à un coût identique à celui d’un écran actuel et que sa connexion autorise un débit suffisant pour un affichage à cette qualité, il y a un cap non encore franchi et qui pourrait aller à contre-courant des réflexes utilisateurs, qui dépensent moins pour ce type de terminal, la mise de départ étant répartie entre ordinateur portable ou de bureau, smartphone, tablette, multiplié par le nombre de personnes présentes dans un foyer.

Haut débit, 5G… Pourquoi ?

 La toile va-t-elle réussir à gérer des milliards de connexions ? 
La question n’est pas tant de savoir si Internet va supporter des hautes définitions audiovisuelles mais si la toile mondiale va réussir à gérer des milliards de connexions simultanées, même en qualité réduite. C’est aussi sans compter avec tout ce qui sera connecté dans les années à venir, car au-delà des outils informatiques sous toutes les formes, il y aura aussi les objets connectés. On estime qu’à l’horizon 2020, plus de 25 milliards d’objets transiteront par Internet. Les enjeux de la future 5G seraient, en théorie, à la hauteur de ce défi. En ce qui concerne l’Europe (cadre 5G PPP), celle-ci s’est dotée d’un programme de projets (FP7) qui devraient rentrer en exploitation à l’horizon 2020. Chaque continent industrialisé ou en voie de développement, s’est doté d’un projet de cadrage de la 5G. Pour autant, le réseau  fibré n’est pas en reste bien que l’on constate de nombreuses disparités dans l’Hexagone.
 
On distingue plusieurs modes de distribution du signal à ce stade : FTTH, qui est une solution P2P (Point to Point), garantissant en principe 1Gbps pour l’utilisateur final. Cette solution coûteuse semble plus correspondre à un argument marketing qu’à un réel besoin et on imagine sans peine qu’elle ne peut concerner que certaines zones sur le terrain. La technologie GPON est la plus répandue dans le monde d’après les études de l’Idate. Celle-ci permet de passer par un séparateur (Splitter) qui éclate le flux entre plusieurs utilisateurs. Aujourd’hui, la subdivision couramment utilisée est de 1 pour 32 ou encore 1 pour 64. Le principe, dans ce cas, est d’alimenter le réseau, en amont, avec suffisamment de puissance pour que chaque connexion finale puisse prétendre au fameux Gbps ! En ce qui concerne les câblo-opérateurs, il semble que la technologie de câblage hybride (fibre/coaxial) liée à la norme DOCSIS 3.1 lève en partie certaines contraintes relevées notamment au principe même du déploiement initial de réseaux fibrés. Cette évolution de la norme autorise l’agrégation de canaux et s’appuie sur l’OFDM (Orthogonal Frequency division Multiplexing).

Quelle est la place d’Internet dans la mutation de la consommation audiovisuelle ?

TV Internet FuturSi nous avons souvent le réflexe de considérer nos abonnements Triple Play en regard du bouquet télévisuel, il est pourtant déterminant de se pencher sur la partie consacrée à Internet. En effet, ce vecteur risque, dans la décennie à venir, d’être largement majoritaire en regard de nos modes de consommation en pleine révolution.
 
Suivre les programmes audiovisuels sur l’ordinateur est un nouveau réflexe générationnel. 36 % de la population scolaires et étudiants affirment suivre prioritairement les programmes via Internet. Cette proportion grimpe à 47 % si l’on se concentre sur la tranche d’âge des 18-24 ans. Ces pourcentages sont à comparer aux 22 % (soit 1 personne sur 5) qui s’adonnent à ce mode de visualisation des programmes. Il n’empêche que les mêmes jeunes répondent à 98 % regarder aussi la télévision « classique ». Ce qu’il faut en déduire est que l’un n’empêche pas l’autre et qu’il s’agit de nouveaux modes de consommation. En nous appuyant sur une étude du CRÉDOC, il y a bien une mise en perspective de cette évolution des modes de consommations concentrées sur la nouvelle génération. Ces 12 ans et plus représentent par ailleurs les consommateurs de demain, avec pouvoir d’achat à la clé. Il est donc logique de la part de l’industrie de se pencher sur ces vecteurs de consommation en devenir.
 
Que ce soit le principe de la TV connectée (HBB-TV), qui propose une interactivité avec l’usager face à son écran de télévision (peut on encore appeler cet outil un téléviseur ?) ou celui d’une VoD aussi accessible depuis le web, il semble bien que la tendance soit au contournement des fournisseurs d’accès classiques. De plus en plus de producteurs de contenus ont le besoin impératif d’être au contact de leur « client-téléspectateur » sans qu’aucun intermédiaire ne vienne interférer. On s’acheminerait alors vers une solution de l’offre segmentée (jusqu’au service Premium par exemple), qui représente un des deux grands scénarios envisageables par les opérateurs. L’autre est celui du principe Smart Pipe  ou les opérateurs réseaux valorisent la qualité de l’acheminement des données en se concentrant donc sur la partie réseau (plutôt que contenus).

Pour Internet, on constate aujourd’hui une généralisation de la lecture audiovisuelle. Si celle-ci se concentrait jusqu’alors sur des « chaînes » clairement identifiées ( YouTube en premier lieu), les médias audiovisuels ont envahi depuis l’espace de notre réseau social et il n’est pas une page Facebook ou autre page web, personnelle ou pas, qui ne propose du contenu audiovisuel. Ces contenus embarqués donnent au passage un sacré coup de vieux aux sites qui n’en proposent pas. De nouveaux protocoles deviennent alors des sortes de références du moment comme le MPEG DASH par exemple. Bien que chaque diffuseur/constructeur qui s’empare de ce protocole l’adapte selon ses besoin (HLS pour Apple par exemple), le postulat de base reste inchangé : adapté le flux au terminal de l’utilisateur, dans une logique de continuité de programme.

Quelles perspectives technologiques ?

On peut raisonnablement considérer dans les domaines de gestion de flux audiovisuels que l’industrie et les instances décisionnaires (instances européenne, agences nationales etc.) ont entre 5 et 10 ans d’avance sur les technologies en vigueur. Cela va des programmes de recherches exploratoires aux mises en place de normes à venir. La gestion de programmes ambitieux de déploiement (comme pour la fibre) nécessite beaucoup d’anticipation mais aussi de projets futuristes qui demandent une prospective rigoureuse très en amont de nos usages futurs.
 
Les prochaines étapes vont équilibrer les modes de diffusion en priorisant les usages dit « managés » c’est à dire sous contrôle des opérateurs audiovisuels. Les set top box risquent fort de disparaître au profit d’une connexion directe sur un terminal et la réalité virtuelle va entrer progressivement dans les mœurs. En cela, le réflexe individualiste de consommation va se renforcer via l’immersion du spectateur-acteur audiovisuel. En cela, paradoxalement, nous rejoignons le principe de la TV connectée qui risque de ne représenter qu’une étape intermédiaire dans cette mutation.
 
On croit souvent, à tort, que c’est la technologie qui freine l’innovation, qu’il faut attendre que certains verrous soient levés pour pouvoir avancer (ce qui reste vrai pour certains domaines scientifiques). Un regard plus précis sur les domaines touchant à Internet met en évidence que ces technologies sont déjà là et que si elles sont bridées, cela ne tient qu’à la volonté des pouvoirs publics et de l’industrie de distiller ces étapes pour une consommation progressive on ne peut plus contrôlée.

Notre avenir sera-t-il connecté ou ne sera-t-il pas ?

À l’évidence, le futur d’une partie de l’humanité sera connecté. Cela ne sera pas une réalité sur l’ensemble des continents et le clivage n’en sera que plus flagrant entre populations pauvres et « déconnectées » et populations dites riches et hautement « connectées ». Malgré l’émergence d’une utilisation généralisée des smartphones dans les pays en voie de développement, la capacité des réseaux ne permet pas un plein accès aux ressources internet. Pour être un Homo erectus connecté, il faut vivre dans un pays industrialisé qui bénéficie d’une infrastructure réseau apte à supporter ces flux toujours plus important.
 Pour être un Homo erectus connecté, il faut vivre dans un pays industrialisé 
En dehors du réseau terrestre, il existe bien sûr les satellites qui représentent une part non négligeable de la diffusion, mais là encore, les pays concernés doivent avoir, soit une indépendance de gestion de ce réseau satellitaire, soit les moyens de louer ces infrastructures à d’autres.
 
Dans un autre registre le projet européen de positionnement Galileo a vu le jour pour éviter d’être en dépendance du réseau GPS américain. Il existe aussi le réseau GLONASS russe et Beidou chinois. La réalité virtuelle passant par-là, nous risquons d’avoir plusieurs lectures de notre environnement proche ou lointain. Réalité de survie d’un côté, réalité tangible d’un quotidien saturé d’informations d’un autre, augmenté d’une réalité virtuelle sans doute vécue comme une sorte de fuite consciente ou pas. Le problème est qu’un monde ultra connecté risque d’avoir du mal à dialoguer avec un monde qui ne le serait pas. Le réflexe générationnel dont nous parlions plus haut génère déjà une forme d’incompréhension entre individus d’un même environnement sociétal, familial. La question se posant à l’échelle mondiale et dans un contexte sociétal hétérogène, on imagine sans peine les incompréhensions générées.

L’accès inégal aux technologies de diffusion et l’individualisation de plus en plus prégnante de l’accès aux contenus ne représente t-il pas un paradoxe : alors qu’internet a été perçu comme un lien planétaire entre les humains, n’est-il pas finalement un vecteur de division ?

--
Crédits photos
Internet. Dennis Skley / Flickr. Licence CC BY-ND 2.0
Futur en Seine 2012. Samuel Huron / Flickr. Licence CC BY-NC-ND 2.0
Connected. Martin Snicer Photography / Flickr. Licence CC BY-ND 2.0

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris