Actualités

[FOCUS 5G/6G] De la 5G vers la 6G : l’inexorable avancée des générations

3 mars 2025 • Big Data & IA - Cybersécurité - Industrie du futur - Médias du futur - Mobilité intelligente - Réseaux & IoT - Santé numérique - Smart City

Découvrez dans ce dossier divers éclairages pour mieux cerner les défis techniques, mais aussi les questions d’optimisation et de sobriété, qui accompagnent la transition de la 5G vers la 6G. Entre explosion de l’IoT, émergence du métavers et impératif de sobriété énergétique, regard sur le futur des télécommunications.

Le déploiement de la 5G n’est pas seulement synonyme de débits ultra-rapides et de latence réduite ; il symbolise surtout l’émergence de nouveaux usages qui redessinent peu à peu l’économie mondiale et nos modes de vie. À mesure que s’étend la couverture 5G, la palette d’opportunités s’élargit : usines connectées, robots chirurgicaux, véhicules autonomes, villes plus sécurisées et durables… Derrière ces promesses, un enjeu majeur se dessine : comment concevoir et gérer des réseaux plus performants, tout en maîtrisant leurs impacts économiques, environnementaux et sociétaux ?

Olivier Boissier, professeur en informatique à Mines Saint-Étienne, et Guillaume Lozenguez, chercheur à IMT Nord Europe, apportent ainsi un regard essentiel sur les objets connectés, de plus en plus présents dans notre quotidien. Via le projet FITNESS, les deux scientifiques partagent leur vision des futurs protocoles de communication et des infrastructures destinées à absorber l’explosion des capteurs. Ce contexte technologique est également favorable au déploiement des mondes virtuels : nouveaux espaces d’exploration prometteurs. Marius Preda, chercheur en réalité augmentée à Télécom SudParis et impliqué dans le projet 5GMetaverse, explique ainsi comment la 5G et les technologies immersives vont soutenir l’évolution d’environnements virtuels collaboratifs pour l’industrie.

Le développement d’infrastructures capables de supporter de telles innovations impose par ailleurs des améliorations technologiques. Djamal Zeghlache, professeur en réseaux et services à Télécom SudParis et leader du projet NF-MUST, décrypte le concept de « slicing », ou segmentation virtuelle du réseau, une technologie-clé pour la mise en œuvre d’une 5G multisectorielle, répondant au défi de la variété des usages à grande échelle. La question des limites énergétiques et environnementales des réseaux s’impose alors naturellement. Depuis de nombreuses années, Joe Wiart, chercheur à Télécom Paris, spécialisé dans la dosimétrie, étudie l’exposition aux champs électromagnétiques générés par les infrastructures 5G. Son expertise est mise au service du projet JEN, qui explore comment réduire ces impacts à leur strict minimum, tout en optimisant la consommation énergétique.

En 2025 est lancé le Centre national : Réseaux et systèmes pour la transformation numérique, dont la vocation est d’articuler les activités multi-écoles, multi-disciplines, et multipartenaires – en forte synergie avec le monde industriel – de l’Institut Mines-Télécom, dans le domaine des réseaux de communications du futur, des systèmes distribués pour la transformation numérique.

Si le défi de réduire les consommations énergétiques, de gérer des communications diverses ou d’innover dans les métavers offre encore de nombreuses opportunités, les enjeux liés aux réseaux du futur tels que la 6G sont vastes et constituent un terreau inépuisable pour la recherche. En 2023, l’Institut Mines-Télécom s’est d’ailleurs vu confier par les ministères de l’économie, des finances et de la souveraineté industrielle et numérique et de l’enseignement supérieur et de la recherche, la conception et le pilotage de la future plateforme France 6G.

Muscler les réseaux IoT du futur

Développer des réseaux capables de s’adapter dynamiquement aux besoins de l’IoT massif, de l’IoT Industriel et des transports connectés, tel est l’objectif du projet FITNESS. Le projet s’appuie sur l’expertise de plusieurs écoles de l’IMT pour faire face aux défis de la densification des objets connectés, de la robustesse des applications, de la gestion énergétique et des protocoles variés, et optimiser la performance des réseaux en temps réel.

Une usine où chaque machine, chaque capteur, et chaque véhicule est connecté, partageant des informations en temps réel pour optimiser les processus ou assurer la sécurité des déplacements. C’est une des promesses de l’Internet des Objets (IoT) qui, adossé à la 5G, est en marche pour transformer les secteurs de l’industrie et de la mobilité. Soutenu par le PEPR « 5G et Réseaux du Futur », le projet FITNESS, qui réunit plusieurs écoles de l’Institut Mines-Télécom, le CEA, le CNRS et Inria, vise justement à concrétiser cette vision en développant des solutions adaptées aux défis d’aujourd’hui et de demain.

Les systèmes IoT mis au point dans le cadre du projet doivent répondre aux besoins des missions critiques, tant pour l’industrie que pour la mobilité, où la fiabilité, la faible latence et la résilience sont des critères indispensables. « L’industrie 4.0 repose sur des communications robustes pour garantir la continuité des processus critiques, comme la gestion des lignes de production. Une défaillance pourrait avoir des conséquences graves sur la sécurité », expose Olivier Boissier, membre du Laboratoire d’informatique, de modélisation et d’optimisation des systèmes (LIMOS CNRS UMR 6158), Professeur en informatique à Mines Saint-Étienne, et co-porteur du projet FITNESS. De même, dans le secteur de la mobilité, les systèmes IoT doivent fonctionner de manière fiable dans des environnements parfois à haute densité, comme les transports publics ou les véhicules autonomes.

L’IoT massif : comment gérer la densité ?

Quand il est question d’internet des objets, les déploiements denses ou « IoT massif » désignent des environnements où la concentration d’objets connectés est très élevée, comme dans les entrepôts logistiques, les villes intelligentes, ou les infrastructures de transport. La palette de ces objets IoT est extrêmement vaste, elle inclut des capteurs, des actionneurs, des robots ou encore des dispositifs de communication. Dans un scénario d’IoT massif, le nombre d’équipements connectés qui doivent coexister de manière harmonieuse peut atteindre des milliers, voire des millions.

Les défis à fournir des services enrichis malgré la densité d’objets connectés sont nombreux mais concernent notamment la gestion de l’énergie, l’interopérabilité et la réduction des interférences. L’enjeu est de garantir que chaque objet fonctionne de manière autonome tout en communiquant de façon efficace, sans causer de perturbations dans le réseau.

Un exemple typique est celui des hangars de maintenance de grandes entreprises (comme SNCF), où des centaines de capteurs surveillent l’état des trains. « Ces lieux sont immenses, et la grande quantité d’objets IoT engendre une forte demande sur les ressources physiques qui soutiennent la communication. Il est donc nécessaire de répartir les bandes de fréquence et de coordonner qui communique à quel moment, pour que tout fonctionne de manière optimale », explique Olivier Boissier.

Enjeux énergétiques et optimisation des ressources

Pour les grandes entreprises comme la SNCF, la gestion de l’énergie est une problématique centrale, et l’IoT massif n’échappe pas à ces considérations. Les objets IoT sont des dispositifs contraints, particulièrement en termes de ressources énergétiques. Ils fonctionnent souvent sur batterie, et l’un des enjeux essentiels est de faire sorte que cette batterie dure le plus longtemps possible. Une solution est alors de les faire fonctionner de manière intermittente : « les objets sont mis en veille quand ils ne sont pas utilisés, et ne se rallument que lorsqu’il y a des signaux à émettre », précise Olivier Boissier. Autre option : les objets peuvent communiquer moins loin, avec un signal moins puissant. L’information doit donc être captée à proximité de l’objet, grâce un robot mobile par exemple.

Ces problèmes d’optimisation se posent également pour les ressources de calcul et de communication. Les IoT ne peuvent pas traiter toutes les données : certains dispositifs servent uniquement à la captation d’informations et à leur transmission, d’autres, comme les robots mobiles, bougent et agissent sur leur environnement. Les besoins varient ainsi selon les scénarios, nécessitant des ajustements constants des stratégies de transmission.

Il faut donc prévoir une palette de solutions, de capacités et de consommation d’énergie diverses. « Certaines techniques vont offrir une très faible latence à condition que le volume de données ne soit pas trop important, d’autres vont à l’inverse garantir le traitement d’énormément de volume, parfois au détriment de la vitesse », détaille Guillaume Lozenguez, également chercheur en informatique à IMT Nord Europe et impliqué sur un des work packages du projet FITNESS. « Ce qui est intéressant, c’est cette dynamicité des réseaux IoT, et comment la bascule d’une technique à une autre en fonction des besoins va en affecter l’architecture », ajoute-t-il.

Une diversité de protocoles de communication

Une fois le besoin identifié et les contraintes établies, encore faut-il choisir la bonne technologie. Chaque protocole – parmi lesquels le Wi-Fi, le LoRa (pour Long Range Wide Area Network), le Narrowband IoT (NB-IoT) ou encore la 5G – présentent des spécificités en termes de portée, de consommation d’énergie et de bande passante. Par exemple, le LoRa est idéal pour des communications longue portée à faible consommation d’énergie, tandis que le Wi-Fi est préférable pour des échanges de données volumineux sur une courte portée.

« Historiquement, les entreprises ont souvent adopté différentes technologies pour répondre à leurs besoins spécifiques, chacune ayant ses avantages et ses inconvénients », relate Guillaume Lozenguez. En présentant des avantages sur les autres protocoles en matière de latence, de débit, de gestion des communications massives, et de sécurité, la 5G peut faire figure d’idéal de standard. Mais la question de l’usage reste centrale : « Il faut s’interroger sur si cela vaut la peine de déployer ces nouvelles fonctionnalités, s’il n’y a pas d’usage derrière », souligne Olivier Boissier. « Car de tels changements ont un coût, financier mais aussi environnemental. »

Switch dynamique : assurer une connectivité optimale

Les équipes de FITNESS cherchent donc à combiner ces différents modes de communication, et travaillent pour cela sur des systèmes capables de passer d’un protocole à un autre en fonction des besoins en temps réel. « Si un robot a besoin de transmettre des images haute résolution, il peut basculer sur une connexion Wi-Fi ou 5G pour garantir un débit suffisant, puis revenir à une communication moins gourmande en énergie une fois la transmission terminée », illustre Guillaume Lozenguez.

Quid de l’IA dans tout cela ? Elle a bien sûr un rôle à jouer dans cette optimisation dynamique. Elle peut être à la fois déployée dans les couches basses pour améliorer la gestion de la bande passante, et dans les couches hautes, afin d’exploiter au mieux les capacités de transmission dans le cadre d’une mise en œuvre applicative. L’IA permet donc aux systèmes de mieux coordonner les ressources grâce à des techniques comme l’apprentissage automatique ou les graphes de connaissances. Elle fournit ainsi un outil supplémentaire puissant pour améliorer la performance des réseaux IoT et leur flexibilité face aux besoins dynamiques soulevés par l’industrie ou le secteur de la mobilité.

Des robots mobiles, un cas d’usage concrets

Un cas d’usage exploré par FITNESS est la robotique mobile, plus spécifiquement, une flotte de robots capables de se déployer automatiquement dans un espace, par exemple un entrepôt, et de cartographier la qualité de la connectivité au sein de cet espace. « Ces robots porteront leur propre réseau de communication et seront à même d’identifier les meilleures zones de couverture réseau », projette Guillaume Lozenguez. Cette approche permettra de s’adapter dynamiquement aux besoins de l’environnement et d’assurer une connectivité optimale, même dans des situations complexes. Par exemple, dans un environnement industriel où les machines et les obstacles peuvent changer de place, la capacité des robots à s’adapter et à réorganiser la couverture réseau sera un avantage majeur.

L’industrie du futur s’invite dans le métavers

Le métavers ne se limite plus aux jeux en ligne ou aux interactions sociales : il devient une technologie clé pour l’industrie. Au travers du projet 5GMetaverse, cinq écoles de l’Institut Mines-Télécom cherchent à adapter les réseaux de demain aux besoins de la réalité augmentée et virtuelle. Le projet vise notamment à développer des solutions concrètes pour l’optimisation des processus industriels, la téléassistance et la collaboration homme-machine.

Depuis l’apparition des premières plateformes en ligne immersives dans les années 2000, le métavers a connu plusieurs vagues d’évolution. Initialement pensés pour le divertissement ou les interactions sociales, ces environnements virtuels suscitent aujourd’hui un intérêt croissant dans le domaine industriel. Leur promesse : reproduire et synchroniser des environnements physiques en temps réel dans un monde virtuel.

Cette promesse est cruciale car elle permet d’améliorer la prise de décision grâce à des simulations précises, d’accélérer les innovations et de renforcer la collaboration en rendant les données complexes plus accessibles et visuelles. Contrairement aux jumeaux numériques industriels « classiques », les modèles évolutifs du métavers peuvent capter et intégrer les moindres événements (changements sur une machine, passage d’une personne…) pour guider les décisions opérationnelles. Le projet 5GMetaverse, qui réunit cinq écoles de l’Institut Mines-Télécom (IMT), plusieurs filiales d’Airbus, et Orange, cherche justement à préparer et promouvoir la 5G aux besoins du métavers, notamment dans un contexte industriel.

Une version dynamique des jumeaux numériques industriels

Le métavers offre effectivement de nombreuses possibilités pour l’industrie, telles que la simulation et l’optimisation des processus avant leur application dans le monde réel. « Il y a tout intérêt à simuler les différents paramétrages d’une machine pour en optimiser le fonctionnement dans un environnement virtuel contrôlé et contrôlable », argumente Marius Preda, chercheur spécialisé en réalité augmentée à Télécom SudParis et impliqué dans le projet 5GMetaverse.

La téléopération ou téléassistance sont également des applications prometteuses et font partie des cas d’usage du projet 5GMetaverse. Un opérateur équipé de lunettes de réalité augmentée (AR) peut par exemple être guidé par un expert à distance grâce à une représentation virtuelle de l’environnement industriel. « L’expert évolue dans un jumeau numérique de l’installation en temps réel, et ses interactions avec les éléments virtuels sont transmises à l’opérateur sur place », détaille Marius Preda.

Au-delà des gains en efficacité, ces technologies renforcent également la collaboration humain-machine. Alors que l’industrie évolue vers une robotisation accrue, le métavers offre une interface qui facilite les interactions entre humains et robots, tout en exploitant l’adaptabilité humaine dans des environnements où les robots restent limités. Pour en arriver là, le métavers doit néanmoins outrepasser des obstacles technologiques majeurs, et notamment satisfaire des contraintes techniques de latence et de débit de plus en plus exigeantes.

Latence et débit, des indicateurs clés de la réactivité

Dans une perspective où toute action qui a lieu dans le monde réel doit se propager instantanément à tous les utilisateurs du métavers en temps réel, les exigences en latence et en débit sont effectivement particulièrement critiques. « Dans une réunion Zoom, un échange vidéo de qualité nécessite environ 1 Mbps par utilisateur. Mais dans un métavers où il faut transmettre l’intégralité des mouvements corporels, on parle d’au moins 20 Mbps par utilisateur, pour une représentation réaliste », précise Marius Preda. « De même, la latence doit être très faible pour assurer une expérience fluide. Si l’animation de mon corps arrive même une demi-seconde après ce que je dis, c’est très visible. »

Ces besoins varient évidemment selon que l’on parle de réalité virtuelle (VR) ou d’AR. Alors que la VR plonge l’utilisateur dans un environnement entièrement virtuel, l’AR superpose des éléments virtuels à la réalité. La VR nécessite donc beaucoup de contenu et un débit élevé, car elle recrée l’intégralité de l’univers, alors que l’AR est moins exigeante mais requiert une synchronisation immédiate avec le réel. Dans le projet 5GMetavers, la VR est utilisée pour l’immersion totale des experts, et l’AR pour les opérateurs sur le terrain, posant des contraintes différentes sur la latence et le débit.

Optimisation des flux et hiérarchisation des données critiques

L’autre défi réside dans la gestion des données. Il ne s’agit pas simplement de garantir une transmission rapide, mais aussi d’identifier les informations prioritaires. « Dans un environnement industriel, certaines données, comme le contrôle d’une machine, sont plus importantes que d’autres », souligne Marius Preda. « Les protocoles de transmission doivent intégrer cette hiérarchisation pour optimiser les flux. »

Mais là encore, les exigences varient en fonction des usages : par exemple, les besoins pour un téléopérateur en interaction avec une machine sont différents de ceux d’une formation, sur laquelle un peu de latence est tolérable. De même, certaines machines nécessitent une interactivité forte, tandis que d’autres sont plus autonomes. Il est donc nécessaire d’impliquer les experts métiers dans l’étiquetage des informations critiques pour que le métavers les traite en priorité, assurant une transmission optimisée en fonction de l’importance de chaque donnée.

Des technologies clés pour un métavers à la hauteur des enjeux industriels

Pour répondre à ces exigences, plusieurs technologies interviennent. Celles de compression jouent un rôle important, pour compacter l’information et minimiser le temps de transmission. La 5G, quant à elle, permet d’assurer une meilleure gestion des flux grâce au slicing réseau, qui permet de partitionner intelligemment les flux de données selon les besoins. Toutefois, ces technologies restent limitées, et les évolutions futures, notamment vers la 6G, seront nécessaires pour répondre aux divers cas d’usage et supporter une adoption à grande échelle.

Ces évolutions devraient notamment faciliter l’interopérabilité entre différents métavers. Dans le cas de la téléassistance par exemple, l’expert est susceptible de passer d’un métavers à un autre pour intervenir sur différents sites : la gestion de son profil et de ses accès doit être fluide. Elles devraient également supporter l’intégration « par design » du multi-utilisateurs, essentielle dans des environnements tels que l’usine virtuelle, qui devrait accueillir une dizaine d’utilisateurs, ou la boutique virtuelle – deuxième cas d’usage du projet 5GMetaverse – qui en accueillerait potentiellement des milliers.

Enfin l’intelligence artificielle (IA) est également un levier essentiel pour exploiter pleinement le potentiel du métavers industriel, en intervenant à plusieurs niveaux, comme la classification des données pour optimiser leur traitement ou la représentation des contenus 3D. « L’IA peut par exemple générer, à partir d’une simple image, une représentation 3D fidèle d’une machine ou d’une pièce, relaxant ainsi les contraintes de débit puisque certaines données ne seront plus transmises mais générées », illustre Marius Preda.

Objectif « cinquième vague »

Si le métavers industriel offre des perspectives prometteuses, sa généralisation reste un objectif à moyen ou long terme. « Le grand projet du métavers, c’est l’immersion dans le monde virtuel, pas de faire un Zoom bis », soulève Marius Preda. « Pour cela, les interfaces fournies par les casques de réalité virtuelle sont indispensables ». Or les dispositifs actuels sont encore encombrants et peu adaptés à un usage prolongé dans un contexte industriel.

L’avenir du métavers dans l’industrie dépendra donc de plusieurs avancées simultanées : sur le plan matériel, la miniaturisation des équipements et leur adoption large ; sur le plan réseau, l’intégration de nouveaux protocoles, notamment avec la 6G ; et enfin, les progrès en IA et en modélisation pour enrichir les applications disponibles. Il faudra bien pour cela patienter jusqu’à la « cinquième vague » de métavers [voir encadré] si l’on en croit le chercheur : « pas avant 7 ou 10 ans donc. »

Des débuts de l’internet à Meta : une évolution par vagues

Alors que le début des années 2000 marque la mise en place d’internet et des premières expériences de jeux en ligne, le web apparait immédiatement comme une plateforme privilégiée pour y développer des univers de rencontre en 3D. Mais à l’époque, ni les réseaux, ni le matériel ne sont en mesure de fournir des expériences fluides. Quelques années plus tard, le concept d’univers parallèle revient sous les feux des projecteurs grâce à l’application à succès, Second Life.

Sans objectif précis, ni scénario, l’expérience Second Life réside essentiellement dans l’échange avec les autres utilisateurs, la découverte de l’univers, … « Le phénomène allait bien au-delà de la communauté des geeks et des technophiles. Tout le monde voulait y avoir sa place et vivre une « seconde vie », même les banques y ouvraient des agences ! », se remémore Marius Preda. Malheureusement, le réel rattrape le virtuel et la crise bancaire de 2008 aura raison de cet engouement fugace.

C’est dernièrement sous l’étendard de Facebook, devenu « Meta », que le métavers fait son grand retour. Néanmoins, malgré la puissance des ordinateurs et des réseaux, le déploiement du métavers restent bridé par l’indisponibilité du matériel adéquat : « Vraisemblablement, ce n’est pas cette vague qui va instaurer le métavers dans la vie courante, du fait de la limitation des dispositifs de visualisation. Mais on peut avancer sur les réseaux, ainsi que la création et la transmission de contenu », convient le chercheur. « Le développement technologique est toujours incrémental, et chaque vague apporte son lot de connaissances qui contribue à améliorer la prochaine. »

Ni plus, ni moins : des réseaux sobres pour la 5G

Face à l’essor de la 5G et aux défis de la 6G, la sobriété énergétique et l’exposition aux champs électromagnétiques deviennent des enjeux majeurs pour les réseaux de demain. Entre optimisation des infrastructures, capteurs mobiles et modèles prédictifs, les scientifiques s’efforcent de concilier performance, consommation réduite et qualité de service. Le projet Just Enough Network, copiloté par Télécom Paris, tente ainsi de construire des réseaux « justes assez », ajustés à nos besoins, sans excès ni gaspillage.

Tandis que les réseaux mobiles évoluent vers des générations de plus en plus performantes — de la 4G à la 5G, en route vers la 6G — des préoccupations grandissent quant à leur impact sur notre environnement et notre santé. Depuis environ quarante ans, chaque décennie apporte une nouvelle génération de réseaux mobiles dont les progrès sont avant tout centrés sur l’amélioration des performances. Longtemps, ces évolutions se sont faites sans réelle considération pour la consommation énergétique ou les émissions électromagnétiques de ces réseaux.

Les premières générations de réseaux mobiles avaient en effet pour seul objectif de répondre aux besoins techniques de qualité de service. « Lors de la mise en route des réseaux 2G et 3G, la consommation n’était pas un sujet. L’objectif des GSM était d’émettre un maximum pour être captés par les stations de base », rappelle Joe Wiart, chercheur à Télécom Paris, spécialisé dans la dosimétrie. Ce n’est qu’à partir de la 4G que des efforts ont été entrepris pour mieux maîtriser l’énergie, notamment en éteignant certains équipements lorsque la demande était faible, par exemple la nuit. Or avec l’avènement de la 5G et l’arrivée prochaine de la 6G, ces efforts risquent de ne pas suffire. La complexité croissante des infrastructures et les nouveaux usages prévus exigent d’aller plus loin pour concilier performance et responsabilité.

C’est dans cette perspective que s’inscrit le projet Just Enough Network (JEN), du PEPR « 5G et Réseaux du Futur ». Sa proposition : créer des réseaux véritablement « agiles », capables d’ajuster leur consommation en fonction des besoins précis des utilisateurs et utilisatrices, tout en garantissant une qualité de service optimale. « Il faut donc que les objets connectés et les réseaux soient efficients, pour minimiser à la fois la consommation énergétique, mais aussi les niveaux d’exposition aux champs électromagnétiques induits par ces dispositifs », soulève le chercheur de Télécom Paris et co-pilote du projet. « En résumé, il faut chercher la sobriété ! » Ce à quoi se propose de répondre le projet JEN, en imaginant des réseaux qui consomment et émettent « juste ce qu’il faut », sans excès ni gaspillage.

Un compromis entre qualité de service, efficacité énergétique et émissions

L’efficacité énergétique est donc un axe de travail central pour les différentes équipes de recherche du CNRS, du CEA et de l’IMT impliquées dans le projet. Plusieurs stratégies sont mises en œuvre, depuis l’optimisation des capteurs IoT jusqu’à la gestion globale des infrastructures. Les capteurs IoT, par exemple, consomment individuellement peu, mais représentent un défi énergétique majeur lorsqu’ils sont déployés à grande échelle. L’objectif est de maximiser leur autonomie tout en réduisant leur impact énergétique global.

Parallèlement, les équipes explorent des approches visant à adapter dynamiquement la consommation énergétique des infrastructures. Car, « une consommation énergétique optimisée n’implique pas un système sobre en tout point. Même si le système est efficace, s’il est tout le temps ouvert, l’ensemble du réseau consomme et émet », explique Joe Wiart. Les différents groupes de travail sont donc amenés à développer des modèles qui ajustent les équipements aux besoins réels en évitant une consommation inutile, mais également, une exposition prolongée aux champs électromagnétiques (CEM), dont on ignore encore les effets sur la santé. Ils recherchent ainsi le meilleur compromis entre la qualité de service, la consommation et l’exposition.

Minimiser l’exposition : enjeu de société et casse-tête

L’exposition aux CEM est un enjeu sociotechnique fondamental du déploiement de la 5G, et plus généralement des technologies de télécommunication. Si aucune preuve d’effet néfaste n’a été établie à ce jour, cette question demeure très présente dans le débat public. La confiance est en effet un facteur significatif de l’acceptabilité sociale d’une technologie, et cette confiance repose notamment sur la garantie de son innocuité. Or la recherche de l’optimum entre une exposition réduite à son minimum et une qualité de service acceptable est en réalité très délicate.

Au premier abord, réduire la densité des antennes réduit mécaniquement l’exposition induite par les réseaux, mais affecte également la qualité de service. Une couverture insuffisante oblige les téléphones à émettre à des puissances plus élevées pour maintenir la connexion, annulant ainsi les bénéfices de la diminution du nombre d’antennes. Une autre solution est de multiplier les émetteurs de faible puissance, mais elle n’est pas sans répercussion sur l’empreinte énergétique globale, puisqu’il faut à la fois construire et faire fonctionner tous ces émetteurs. Le projet JEN cherche donc à équilibrer au mieux ces différentes contraintes pour offrir une solution globalement acceptable, à la fois sur le plan énergétique et sanitaire.

CEM : ça capte mal

Cet équilibre est d’autant plus difficile à trouver que la mesure des CEM dans l’environnement local pose des problèmes méthodologiques fondamentaux : « Tous les travaux menés actuellement se limitent à des mesures ponctuelles visant uniquement la conformité aux normes. Par exemple, est-ce qu’en téléphonant depuis une cave – le téléphone émet alors plus pour rejoindre la station de base que depuis un jardin – la puissance moyenne rayonnée se situe bien largement en-dessous des limites fixées par les règlementations ? », constate Joe Wiart. Or l’objectif du projet JEN n’est pas de se limiter au respect des valeurs seuils, mais à « ne pas avoir plus d’exposition que nécessaire », rappelle le chercheur. Les scientifiques essaient donc de construire des indicateurs avancés pour évaluer l’exposition de manière globale et dynamique.

Pour capter les niveaux de CEM, deux approches sont possibles : l’utilisation de réseaux IoT fixes pour construire un modèle global, ou le recours à des capteurs mobiles distribués. La première approche, testée lors d’un précédent projet autour de la gare de Massy-Palaiseau (91), a montré la nécessité d’un quadrillage très resserré de capteurs pour obtenir une mesure fiable, ce qui s’avère coûteux et contraignant. Face à ce constat, les équipes de JEN ont donc opté pour le développement de capteurs mobiles : des dispositifs montés sur des véhicules, permettant de mesurer l’exposition aux CEM en temps réel dans des environnements urbains.

Des solutions mobiles pour un suivi dynamique

« Le système que nous avons développé est constitué d’une antenne reliée à un analyseur de spectre et à un PC de taille réduite. L’antenne fixée sur un toit de voiture nous permet de capter l’exposition en circulant par les voies de bus et de taxis », décrit Joe Wiart. Si la captation mobile pose quelques questions méthodologiques – comme la vitesse à laquelle doit rouler le véhicule pour assurer la qualité de l’acquisition – cette solution est indiscutablement plus agile que le déploiement d’un réseau IoT : elle nécessite beaucoup moins de capteurs, tout en couvrant des zones vastes et denses.

Autre avantage : elle permet de suivre les variations d’exposition au fil du temps et d’identifier les zones où les niveaux sont élevés de façon continue. « On peut détecter des points chauds d’exposition et réajuster la configuration du réseau pour réduire ces niveaux », précise Joe Wiart. Cette flexibilité est cruciale pour s’assurer que les niveaux d’exposition restent bien en-dessous les seuils recommandés, même dans des environnements très concentrés. Parallèlement, le projet développe des capteurs spécifiques pour évaluer l’exposition induite par les téléphones portables.

In fine, l’ensemble de ces mesures va servir à concevoir des modèles et fournir des indicateurs pour contrôler l’exposition des utilisateurs et utilisatrices, et optimiser le fonctionnement des équipements. Au-delà d’une gestion des périodes de faible utilisation (la nuit notamment), pour éteindre les équipements non nécessaires, l’adaptation dynamique à la demande en temps réel, tout en maintenant des niveaux d’exposition faibles, sera déterminante pour des usages émergents. « On ne peut par exemple pas décider de tout éteindre la nuit, s’il y a des véhicules autonomes sur les routes », souligne Joe Wiart. C’est ainsi tout l’enjeu de l’approche « just enough » de JEN : adapter la consommation et l’exposition en fonction de l’usage et du contexte local, en s’assurant que chaque watt consommé, chaque champ électromagnétique émis, est nécessaire et justifié.

Le slicing : un MUST pour les communications multisectorielles

Dans des situations d’urgence comme un carambolage, la coordination entre les services de secours, de santé, et de transport est essentielle. Pourtant, ces acteurs utilisent souvent des systèmes de communication cloisonnés qui freinent leur efficacité. Le projet NF-MUST vise à créer une architecture réseau dynamique, partagée et flexible qui permet une communication fluide. Il s’appuie sur le slicing et la virtualisation des réseaux pour répondre aux exigences de différents secteurs.

Si vous visualisez un carambolage sur une autoroute et ses conséquences, vous ne projetez probablement pas tous les besoins en télécommunications qu’un tel événement suscite. Et pourtant : les secours doivent se coordonner, les services de santé être informés en temps réel, les opérateurs de transport réorganiser le trafic… Autant d’acteurs qui ont besoin de communiquer efficacement en interne, mais également entre eux. Or les systèmes utilisés par ces différents organes sont souvent cloisonnés, ralentissant la prise de décision et les interventions sur le terrain.

Une telle situation met en lumière le besoin de mettre en place des infrastructures réseaux et de services capables de répondre aux demandes simultanées de plusieurs acteurs de secteurs d’activité différents. Parmi les projets phares du PEPR « 5G et Réseaux du Futur », le projet NF-MUST se propose de combler en partie ce besoin en élaborant une architecture de services adaptée à la coopération des opérations et communications multi-acteurs et multisectorielles.

Un défi car, outre les exigences techniques spécifiques et la diversité des protocoles de communication et de sécurité, la coordination de bout en bout entre les secteurs implique de faire appel à plusieurs opérateurs. « Sachant qu’un opérateur de la 5G ou 6G dispose déjà de segments technologiques hétérogènes, qu’il doit concaténer afin d’établir des infrastructures de bout en bout [sans interruption, ni discontinuité] en mesure de répondre aux besoins des utilisateurs », souligne Djamal Zeghlache, professeur en réseaux et services à Télécom SudParis, porteur et leader du projet NF-MUST. « Pour interconnecter plusieurs opérateurs, il faut donc mettre des réseaux en réseau ! Cela implique d’élargir la notion de slicing au multisectoriel. »

Emprunté au cloud computing, le « slicing » s’est développé avec la 5G, poussé par la virtualisation des services et réseaux. La virtualisation consiste à diviser une même base matérielle en environnements virtuels indépendants, ce qui permet de mutualiser les ressources physiques. Un routeur, par exemple, peut être divisé en compartiments, chacun correspondant à un routeur virtuel servant un utilisateur particulier (tenant). Plusieurs tenants peuvent alors partager les mêmes équipements tout en restant isolés les uns des autres. Ces environnements virtualisés offrent une base flexible et mutualisée sur laquelle peuvent s’exécuter diverses applications ou services – typiquement la communication de services de santé ou de secours, sans requérir à du matériel propre.

Le slicing pousse ce concept plus loin, en partitionnant l’ensemble du réseau, y compris les ressources virtualisées, en « tranches » (slices) dédiées à des « verticaux », comme l’énergie, la santé ou encore les transports. « La notion de partage des ressources, comme le calcul, le stockage ou la mémoire, est élargie au partage des services et des infrastructures réseau », développe Djamal Zeghlache. Concrètement, les opérateurs mettent en offre, à partir de leurs infrastructures réseau 5G et 6G, des tranches configurées de manière personnalisée pour répondre aux exigences des différents verticaux ou d’un tenant particulier. « Comme un mille-feuille dans lequel chaque couche correspond à une part du réseau, dédiée à un secteur ou un tenant », ajoute le chercheur.

Chacun bénéficie alors de son propre slice, qui comprend non seulement la virtualisation des équipements réseau, mais aussi l’allocation dynamique de ressources spécifiques (comme la bande passante, la priorité des flux de trafic, etc.) selon ses besoins. C’est ce qui permet, par exemple, de déployer des infrastructures 5G sur un port intelligent, où les acteurs impliqués (autorité portuaire impliquant armateurs, grutiers, transporteurs…) partagent un réseau tout en bénéficiant de tranches réservées à leurs opérations respectives. « Ces infrastructures sont interconnectées, afin d’offrir des services adaptés aux différents acteurs et tenants qui opèrent dans l’environnement portuaire », complète Zeghlache.

Le défi de la coordination multisectorielle

L’une des ambitions du projet NF-MUST est donc d’étendre le concept de slicing à une échelle multisectorielle. Les secteurs (de l’énergie, de la santé, des transports…) pourraient alors partager une infrastructure commune tout en bénéficiant chacun de slices dédiés, adaptées à leurs besoins spécifiques.

Cela implique d’abord de comprendre le contexte lié à un cas d’usage multisectoriel particulier : identifier les besoins instantanés de tous les acteurs, afin de les transformer en une demande qui sera exprimée envers l’ensemble des réseaux. Ces derniers fourniront ensuite les environnements où s’exécuteront les services nécessaires aux applications de métiers des différents secteurs. Pour reprendre le cas d’un carambolage, l’architecture NF-MUST va donc s’occuper d’offrir un slice de bout en bout afin d’assurer la coopération entre la gendarmerie, les pompiers, les services d’urgence, le service autoroutier… Soit l’ensemble des réseaux et services de communication associés aux implications métiers de tous ces acteurs.

Toutefois, bien que partageant des ressources réseau, ces différents acteurs doivent pouvoir isoler leurs données sensibles. L’architecture bout en bout de NF-MUST doit donc permettre à chacun de fonctionner dans son environnement, et de communiquer avec les autres de manière flexible. « Il faut s’imaginer cela comme un immeuble où chaque étage ou espace (escalier, salle, couloir) serait réservé à un tenant différent, relié ou séparé des autres par des passerelles ou des cloisons. Dans cet environnement, il est possible de changer la configuration – mettre des cloisons, les déplacer, les rendre étanches… – de telle façon que chacun peut y opérer de façon indépendante, ou à l’inverse coopérer avec un partenaire de confiance », illustre Djamal Zeghlache.

Vers une gestion dynamique des ressources

L’autre ambition du projet NF-MUST est de rendre le slicing dynamique et automatisé, afin d’ajuster les ressources en fonction des besoins instantanés des utilisateurs. Actuellement, les slices sont souvent préconçus et prédéfinis, puis mis à disposition dans un catalogue de services. Ces slices prédéfinis sont bien identifiés : ils répondent à des besoins spécifiques et sont choisis selon les exigences des clients. Le slicing dynamique vise à aller au-delà de cette approche prédéfinie.

Il requiert pour cela d’analyser en temps réel l’infrastructure disponible, et de vérifier les ressources non encore allouées. Ces ressources incluent aussi bien les entités virtualisées – permettant à plusieurs clients de les utiliser simultanément – que les entités physiques, qui ne peuvent pas être virtualisées et doivent être partagées successivement entre plusieurs utilisateurs. Les slices doivent ensuite être configurés en fonction des besoins exprimés.

Un catalogue de services personnalisables

L’étape suivante consiste à rendre les catalogues de services accessibles aux utilisateurs, pour qu’ils composent eux-mêmes leurs propres slices en fonction de leurs besoins, à la manière de briques modulables. Lorsqu’un client exprime un besoin, que ce soit de manière technique ou en langage naturel, le système doit traduire puis analyser cette requête afin d’identifier les composants nécessaires à partir du catalogue. Celui-ci fonctionne alors comme une base de connaissances, contenant les briques élémentaires à partir desquelles les slices sont composés. Chaque slice est construit en assemblant différents éléments trouvés dans le catalogue, tout en s’assurant que les utilisateurs sont immuablement authentifiés et possèdent les droits d’accès nécessaires à leurs services., « comme des briques LEGO® à combiner pour répondre à la demande du client », compare Djamal Zeghlache.

La composition d’un slice implique en résumé de découvrir les services disponibles, d’authentifier et comprendre la demande client, de la décomposer en briques élémentaires, et de trouver les composants compatibles dans le catalogue de services. Bien que le catalogue soit central dans ce processus, il reste encore des progrès à faire pour enrichir cette base de connaissances et l’adapter à des usages multisectoriels. « Même si nous sommes nombreux à travailler sur le sujet, les catalogues de services ne sont pas encore très fournis. La procédure n’est pas complètement automatisée. Donc pour le moment, c’est un objectif moyen-terme », tempère Djamal Zeghlache.

NF-NAI, un projet complémentaire

Le projet NF-MUST bénéficie d’une dotation 3,5 millions d’euros, répartie entre Télécom SudParis, l’Inria, le CEA-List et le CNRS. Il s’articule étroitement avec un autre projet issu du PEPR « 5G et Réseaux du Futur », NF-NAI. Alors que NF-MUST se concentre principalement sur la gestion et la coordination des services multi-domaines, NF-NAI s’occupe de la mise en place des infrastructures réseau nécessaires pour garantir l’exécution de ces services. En d’autres termes, NF-NAI fournit les fondations, les technologies de transport et les interconnexions de bout en bout sur lesquelles NF-MUST s’appuie pour orchestrer les services de manière dynamique.

Cette complémentarité permet à NF-MUST de transformer efficacement les demandes des utilisateurs en services concrets, en s’appuyant sur les infrastructures robustes mises en place par NF-NAI. Ainsi, les deux projets s’assurent que l’infrastructure physique et la gestion des services fonctionnent main dans la main, garantissant une interopérabilité fluide et une réponse efficace aux besoins multi-acteurs.

Dernières actualités

,

BOPA : quand l’innovation numérique rencontre le bloc opératoire

La chaire BOPA, née d’une collaboration entre l’AP-HP et l’IMT, via des écoles composantes du Carnot TSN, développe des solutions numériques pour améliorer le travail au bloc opératoire, en alliant technologies et compréhension des pratiques humaines. Découvrez notre article.
, , , ,

[VIDEO] Découvrez la plateforme RAMSES, de Télécom Paris

RAMSES est une plateforme dédiée à l’aide à la conception de systèmes embarqués critiques en temps réel. L'institut Carnot Télécom & Société numérique s'est rendu sur place, à Télécom Paris où se situe la plateforme, pour interroger les chercheurs de RAMSES sur les différents aspects de ses technologies. Découvrez leurs interviews en vidéo.
, , , , , , ,

[FOCUS 5G/6G] De la 5G vers la 6G : l’inexorable avancée des générations

L'institut Carnot TSN vous invite à découvrir divers éclairages pour mieux cerner les défis techniques, mais aussi les questions d’optimisation et de sobriété, qui accompagnent la transition de la 5G vers la 6G.

Besoin d’informations ?