Iot et IA

IoT et IA : convergence des technologies et besoin de normalisation

Dossier : Internet des objetsMagazine N°784 Avril 2023
Par Antoine JEANJEAN (D11)
Par Eric DJAKAM (E18)

L’utilisation crois­sante de l’IA a un impact sig­ni­fi­catif dans nos envi­ron­nements. Elle com­porte à la fois d’énormes pos­si­bil­ités et des risques asso­ciés. Pour maîtris­er les risques, la nor­mal­i­sa­tion sem­ble le moyen d’exploiter effi­cace­ment et de manière fiable ces pos­si­bil­ités. Les con­ver­gences entre IoT et IA ont déjà des appli­ca­tions var­iées dans la vie quo­ti­di­enne : cap­teurs, 5G, opti­mi­sa­tion des tournées de camions-citernes, comp­teurs Linky, détec­tion des fuites d’eau. Le monde de demain se fera avec l’IA, et la con­ver­gence entre l’IA et l’IoT ne fait que commencer.

Pilot­er une entre­prise est un défi. L’informatique, au siè­cle dernier, a per­mis dans ce domaine la mise à dis­po­si­tion de machines qui ont aug­men­té les capac­ités de déci­sion, en inté­grant un nom­bre crois­sant de paramètres. Puis ont com­mencé à appa­raître au sein des entre­pris­es des cap­teurs, dont l’objectif était de con­ver­tir des phénomènes physiques en un sig­nal élec­trique com­préhen­si­ble par un ordi­na­teur. Aujourd’hui, ces cap­teurs occu­pent une fonc­tion essen­tielle d’intermédiaire entre le monde physique et le monde numérique. Leur évo­lu­tion s’est faite en trois étapes : l’ère du hors ligne, l’ère con­nec­tée et enfin l’ère vivante.

Les trois âges des capteurs

L’ère du hors ligne a été car­ac­térisée par des cap­teurs fonc­tion­nant de manière frag­men­tée et sans aucune intel­li­gence déportée, pou­vant per­me­t­tre l’ajustement d’un algo­rithme en fonc­tion des con­traintes vécues par l’objet sur le ter­rain. Un tel mécan­isme néces­site une action humaine local­isée. L’ère con­nec­tée s’est illus­trée par l’ajout de la con­nec­tiv­ité à dis­tance sur les cap­teurs, ce qui per­met un échange de don­nées effi­cace avec le réseau. Les cap­teurs inter­agis­sent de manière con­certée, dans l’objectif d’augmenter la fia­bil­ité de l’information remon­tée au réseau. Ain­si, le sys­tème cen­tral peut iden­ti­fi­er une ten­dance et amorcer les actions cor­rec­tives avant l’apparition d’un défaut.

L’ère vivante cor­re­spond à la capac­ité des cap­teurs à pren­dre des déci­sions locale­ment, grâce à l’intégration de réseaux de neu­rones. On assiste ain­si à une fonc­tion­nal­i­sa­tion de ces réseaux, qui font remon­ter des « fonc­tions » aux sys­tèmes cen­traux. Dans le cas d’un sys­tème de main­te­nance pré­dic­tive, le cap­teur intè­gre ain­si un réseau de neu­rones dont l’apprentissage se fait de manière locale, avec les don­nées qu’il a col­lec­tées. Ce type d’approche est ren­du pos­si­ble par des tech­nolo­gies du type ISPU (intel­li­gent sen­sor pro­cess­ing unit). Il est impor­tant de not­er que ces muta­tions tech­nologiques dans le domaine des cap­teurs aug­mentent forte­ment le nom­bre de points de don­nées disponibles à tout instant. Cela étend les capac­ités des sys­tèmes, qui devi­en­nent de véri­ta­bles aides à la décision.

L’IoT nourrit l’IA, l’IA dépend de l’IoT

Ce rap­proche­ment des tech­nolo­gies IoT et IA, cette con­ver­gence, rend indis­pens­able un dia­logue entre l’ensemble des acteurs de la chaîne de don­nées, depuis leur cap­tage jusqu’à leur exploita­tion. La ques­tion de la fia­bil­ité des don­nées, par exem­ple, est un sujet cap­i­tal : il est néces­saire de s’assurer que les don­nées sont dignes de con­fi­ance, voire cer­ti­fiées. L’efficacité et la fru­gal­ité des sys­tèmes sont égale­ment à opti­miser. Pour autant, cette con­ver­gence est un for­mi­da­ble ter­rain de jeu pour men­er des pro­jets ambitieux, présen­tant un impact fort sur des per­for­mances économiques et envi­ron­nemen­tales. Selon IHS Mark­it, 27 mil­liards d’objets con­nec­tés étaient en ser­vice fin 2017 et le marché devrait attein­dre 125 mil­liards d’objets en 2030. Ces équipements sont de nature hétérogène et ciblent des domaines var­iés, tels que la ville intel­li­gente, l’agriculture, la mai­son, les chaînes indus­trielles ou les trans­ports. Tous ces équipements génèrent des don­nées, elles aus­si de nature hétérogène.

“Mettre en place des standards de partage entre systèmes.”

Cette matière brute vient en entrée de la chaîne de don­nées et ali­mente ensuite les out­ils d’IA. Pour s’assurer de la réus­site de ces pro­jets et afin de garan­tir une exploita­tion opti­male des mines d’informations col­lec­tées, de nom­breuses organ­i­sa­tions ont fait le choix de met­tre en place des cat­a­logues de don­nées. L’usage de ces cat­a­logues est d’abord interne, mais ils peu­vent égale­ment être partagés avec les parte­naires ou prestataires. En con­séquence de cette crois­sance du marché de l’IoT comme une source de don­nées pour l’IA, le besoin de partage d’informations au sein de con­sor­tiums d’organisations a fait naître des groupes de tra­vail nationaux, voire inter­na­tionaux, ayant pour objec­tif de met­tre en place des stan­dards de partage entre systèmes.

Fiabilité et confiance

Dans un envi­ron­nement où la prise de déci­sion par les objets con­nec­tés est de plus en plus automa­tisée, la con­fi­ance que les util­isa­teurs pla­cent dans ces déci­sions devient un sujet cap­i­tal. Afin d’éviter l’effet boîte noire, qui nuit au déploiement de cer­taines solu­tions et à leur adop­tion par les util­isa­teurs, les créa­teurs d’algorithmes cherchent de nou­velles méthodolo­gies, per­me­t­tant plus de trans­parence et de clarté.

Des mou­ve­ments d’hyper-transparence appa­rais­sent déjà dans l’agroalimentaire ou l’e‑commerce, où des sociétés ont fait le choix de partager avec les con­som­ma­teurs les détails pré­cis de la traça­bil­ité de la chaîne logis­tique ou encore les infor­ma­tions sur la struc­ture de coûts com­plète de leur activ­ité, faisant par­fois appel à des tech­nolo­gies de blockchain pour un stock­age cer­ti­fié de ces infor­ma­tions. Suiv­ant la même ten­dance, des entre­pris­es font le choix d’un code infor­ma­tique par­tielle­ment ou totale­ment acces­si­ble en open source, afin d’exposer à l’utilisateur le mode de fonc­tion­nement de leurs algorithmes.


IA et standards IoT

Dif­férents comités se sont penchés sur la manière de faire con­verg­er IA et IoT par le biais des don­nées des appli­ca­tions. Ain­si, le comité SmartM2M (smart Machine-to-Machine, du groupe ETSI) a créé deux TR (tech­ni­cal report) dans le but d’étudier l’IA pour les sys­tèmes IoT. 

Le pre­mier, AI4IoT, traite de l’introduction du ML (machine learn­ing) dans les sys­tèmes IoT et des pos­si­bil­ités d’améliorer les per­for­mances du ML par l’utilisation de la norme hor­i­zon­tale oneM2M (OneM2M est un pro­jet de parte­nar­i­at mon­di­al dont l’objectif est de créer une norme tech­nique mon­di­ale d’interopérabilité con­cer­nant l’architecture, les spé­ci­fi­ca­tions API, les solu­tions de sécu­rité et d’inscription pour les tech­nolo­gies Machine-to-Machine et IoT en fonc­tion des exi­gences fournies par ses mem­bres) et de ses fonc­tions du ser­vice com­mun (CSF ou com­mon ser­vice func­tions).

Le sec­ond TR (TR 103 675 PoCAIoT) développe un pro­to­type ciblant deux inno­va­tions. La pre­mière con­siste à éten­dre les CSF exis­tantes pour pren­dre en charge les nou­velles exi­gences fonc­tion­nelles liées au ML. La sec­onde con­siste à tester le con­cept de nou­velles CSF, qui offrent des capac­ités du ML sur une base as a ser­vice.

“Différents comités se sont penchés sur la manière de faire converger IA et IoT par le biais des données des applications.”

Le oneM2M étudie égale­ment le dou­ble rôle de l’IA dans la séman­tique, via l’architecture TC Smart­BAN (smart body area net­work), définie dans la TS (tech­ni­cal spec­i­fi­ca­tion) 103 327 : comme facil­i­ta­teur du développe­ment et de l’alignement des ontolo­gies et des sig­ni­fi­ca­tions séman­tiques en sou­tien aux experts humains ; pour la mise à dis­po­si­tion de ser­vices d’IA, afin de soutenir l’interopérabilité séman­tique de l’IoT, fondée sur une com­préhen­sion com­mune des infor­ma­tions de l’IoT (pour à la fois les per­son­nes et les machines). 

D’autres normes sont soutenues par des indus­triels, comme l’ISG ARF (aug­ment­ed real­i­ty frame­work), l’Industrial IoT Con­sor­tium (IIC), l’Open Con­nec­tiv­i­ty Foun­da­tion (OCF), l’IP for Smart Objects (IPSO), l’OMA Spec­Works ain­si que le CEI 62056 (ver­sion inter­na­tionale du DLMS/COSEM). Ces quelques normes sont men­tion­nées ici à titre d’exemples ; bien sûr, cette liste n’est pas exhaus­tive. Leur grand nom­bre et leur diver­sité mon­trent que la prob­lé­ma­tique est cru­ciale et encore à résoudre. Les enjeux envi­ron­nemen­taux et la volon­té crois­sante de partage de don­nées, con­cer­nant notam­ment la con­som­ma­tion énergé­tique et l’impact car­bone des entre­pris­es, accélèrent cette normalisation.


Efficacité et frugalité

La fin d’année 2022 aura vu les fac­tures énergé­tiques des entre­pris­es aug­menter forte­ment, à cause du coût crois­sant lié au stock­age des don­nées et à l’exécution des algo­rithmes sur les serveurs. Le prix des abon­nements des offres cloud a aug­men­té mécanique­ment, jus­ti­fi­ant dou­ble­ment la mise en place de pro­jets s’intéressant à l’optimisation des coûts sous-jacents, visant à réduire la quan­tité de don­nées stock­ées. Ain­si, la sobriété numérique est au cœur de la stratégie de nom­breux pro­jets infor­ma­tiques. On cherche à opti­miser les don­nées stock­ées par le net­toy­age, le traçage des redon­dances d’informations ou encore la réduc­tion des infor­ma­tions stockées.

Les organ­i­sa­tions cherchent égale­ment à ren­dre les algo­rithmes plus fru­gaux par le stock­age en cache des résul­tats, le pré­cal­cul des infor­ma­tions, ou en allégeant les codes infor­ma­tiques, surtout si l’algorithme est embar­qué. Les développeurs avaient déjà le dif­fi­cile objec­tif de livr­er rapi­de­ment des codes robustes ; on leur demande désor­mais de penser égale­ment à la con­som­ma­tion énergé­tique sous-jacente. Cet objec­tif va devenir majeur, car de nou­velles oblig­a­tions en ter­mes de pub­li­ca­tion du bilan car­bone des entre­pris­es vont néces­siter des indi­ca­teurs de suivi de la con­som­ma­tion des serveurs de stock­age et de cal­cul. Ain­si, dif­férents nou­veaux out­ils de Green IT, util­isés pour mesur­er la con­som­ma­tion énergé­tique des algo­rithmes ou appli­cations, ont vu le jour, par­mi lesquels nous pou­vons notam­ment citer Green­spec­tor, Scaphan­dre, Frug­gr, ARO.

IA et réseaux 5G

L’IA ouvre un boule­vard d’opportunités, mais aus­si présente des défis pour les sys­tèmes d’information et de com­mu­ni­ca­tion à la base de l’IoT. La stan­dard­i­s­a­tion est un out­il néces­saire, qui per­me­t­tra de tir­er le meilleur du poten­tiel résul­tant de la con­ver­gence entre IA et IoT. Cette ques­tion de la stan­dard­i­s­a­tion ou uni­formi­sa­tion est au cœur des débats de l’ETSI, un organ­isme européen de nor­mal­i­sa­tion (ESO – Euro­pean Stan­dard Orga­ni­za­tion) chargé des télé­com­mu­ni­ca­tions, de la radiod­if­fu­sion et des autres réseaux et ser­vices de com­mu­ni­ca­tions élec­tron­iques. L’ETSI a de nom­breuses activ­ités dans le domaine de la 5G, en col­lab­o­ra­tion avec le 3GPP (3rd gen­er­a­tion part­ner­ship project).

Au sein de la 3GPP 5G, l’IA est référencée dans les deux prin­ci­paux domaines des capac­ités du réseau cen­tral (5G NG Core) et du réseau d’accès radio (5G RAN – radio access net­work). Dans ces deux domaines, l’IA joue le rôle d’une couche aux­il­i­aire per­me­t­tant d’accroître l’automatisation du réseau 5G, afin d’en opti­miser la ges­tion (par exem­ple grâce à un mécan­isme automa­tique de détec­tion et de cor­rec­tion des pannes). L’objectif est de créer une plate­forme de con­nec­tiv­ité unifiée pour de nom­breuses appli­ca­tions, y com­pris celles ren­dues pos­si­bles par l’IA. Cela pour­ra con­duire à une amélio­ra­tion de l’expérience util­isa­teur, en éten­dant les capac­ités des appareils 5G à l’aide de fonc­tion­nal­ités d’IA dans le cloud.

“L’objectif est de créer une plateforme de connectivité unifiée pour de nombreuses applications, y compris celles rendues possibles par l’IA.”

L’IA est dev­enue une fonc­tion sup­plé­men­taire dans la ges­tion des réseaux radioélec­triques et pro­pose une évo­lu­tion vers le mod­èle SON (self orga­niz­ing net­work). Dans ce domaine, le ML (machine learn­ing) offre aux sys­tèmes radio la capac­ité d’apprendre et de s’améliorer automa­tique­ment à par­tir de l’expérience acquise, sans avoir été explicite­ment pro­gram­més. Nous pou­vons imag­in­er le béné­fice d’une telle évo­lu­tion dans des con­textes radio tels que la sélec­tion de la con­fig­u­ra­tion opti­male des fais­ceaux ou des niveaux de puis­sance d’une cel­lule 5G à chaque inter­valle de transmission.

L’apprentissage par le ML peut s’appuyer sur dif­férents élé­ments tels que la col­lecte stan­dard­is­ée de don­nées de con­fig­u­ra­tion du réseau ou les per­for­mances cor­re­spon­dantes du réseau et la dis­tri­b­u­tion du traf­ic, afin de prédire le com­porte­ment du réseau. Une fois for­més, les mod­èles fondés sur le ML peu­vent être déployés dans le RAN afin d’obtenir des con­fig­u­ra­tions opti­males des antennes et des ressources radio. L’objectif ultime de l’automatisation est de créer des réseaux large­ment autonomes, pilotés par des procé­dures de haut niveau ; ces réseaux seront capa­bles de s’autoconfigurer, de s’autosurveiller, de s’autoréparer et de s’auto-optimiser sans inter­ven­tion humaine.

Les secteurs où l’IoT ren­con­tre et sert les intérêts d’algorithmes d’aide à la déci­sion, de sim­u­la­tion ou d’IA autonome sont nom­breux et variés.


Lire aus­si : La tech­nolo­gie 5G comme accéléra­teur de l’Internet des objets


Quand l’IoT aide l’IA : l’optimisation de tournée

Par exem­ple, les lead­ers mon­di­aux dans le domaine du gaz délivrent du gaz en vrac en util­isant des camions-citernes. Leurs tournées doivent être opti­misées afin de lim­iter les dis­tances par­cou­rues et donc l’impact envi­ron­nemen­tal. Pour met­tre en place de telles opti­mi­sa­tions, mesurées en hori­zon tem­porel roulant, il est néces­saire de met­tre en place une chaîne de don­nées effi­cace : tout d’abord récupér­er l’ensemble des infor­ma­tions de local­i­sa­tion des clients et des unités de pro­duc­tion ; ensuite cal­culer de manière pré­cise les prévi­sions de con­som­ma­tion quo­ti­di­ennes de chaque client.

Pour cela, les réser­voirs des clients sont équipés de cap­teurs per­me­t­tant de mesur­er la con­som­ma­tion en temps réel, et donc de déduire le niveau du réser­voir. Ces séries tem­porelles sont col­lec­tées, puis analysées avec des méth­odes sta­tis­tiques per­me­t­tant de déduire des ten­dances par type de clients, puis de cal­culer les prévi­sions per­son­nal­isées de con­som­ma­tion à une fréquence souhaitée. Ces con­som­ma­tions prévi­sion­nelles ser­vent ensuite de don­nées déter­min­istes en entrée du mod­èle d’optimisation des tournées : le but est de pro­duire chaque jour un plan­ning qui sat­is­fera les con­traintes de chaque client et les critères d’accès à leurs points de livrai­son, tout en min­imisant le nom­bre de kilo­mètres par­cou­rus et le nom­bre de camions utilisés.

Le cas des compteurs Linky

Dans un autre domaine, la France compte désor­mais 35 mil­lions de comp­teurs élec­triques per­me­t­tant de faire remon­ter la con­som­ma­tion élec­trique des entre­pris­es et des par­ti­c­uliers. Le comp­teur Linky per­met de récolter des séries tem­porelles bien plus pré­cis­es que les anciens relevés annuels, et donc bien plus adap­tées à l’analyse de don­nées. L’objectif est d’améliorer la con­nais­sance de la con­som­ma­tion, de fab­ri­quer des pro­fils types et d’étudier la com­po­si­tion des pics de con­som­ma­tion ain­si que ses liens avec la météo. Les relevés détail­lés ali­mentent des mod­èles de prévi­sion qui ser­vent de don­nées d’entrée à l’optimisation de la plan­i­fi­ca­tion de la pro­duc­tion d’électricité à court terme, mais aus­si des mod­èles d’optimisation des arrêts de tranche pour la main­te­nance des cen­trales nucléaires à l’horizon de la décennie.


Lire aus­si : IoT et accept­abil­ité sociale de l’innovation : le cas du comp­teur Linky


La détection des fuites d’eau

Enfin, il existe un autre domaine où l’IoT nour­rit des mod­èles d’IA : la détec­tion de fuites dans les réseaux d’eau potable. Des cap­teurs placés à divers points du réseau per­me­t­tent de con­naître le niveau de pres­sion et ain­si de déduire si des fuites ont pu inter­venir entre deux points de mesure. Dans cer­taines villes, près de la moitié de l’eau potable qui quitte la sta­tion d’épuration n’arrive jamais jusqu’au robi­net pour être con­som­mée. Mieux iden­ti­fi­er les fuites est donc un objec­tif non seule­ment économique, mais égale­ment écologique. La nor­mal­i­sa­tion des don­nées partagées, la fia­bil­ité des relevés et la capac­ité à analyser rapi­de­ment ces don­nées cap­tées per­me­t­tent d’améliorer les per­for­mances de ces réseaux de dis­tri­b­u­tion en déclen­chant plus rapi­de­ment des inter­ven­tions de main­te­nance afin de cor­riger des défauts observés.

Poster un commentaire