Iot et IA

IoT et IA : convergence des technologies et besoin de normalisation

Dossier : Internet des objetsMagazine N°784 Avril 2023
Par Antoine JEANJEAN (D11)
Par Eric DJAKAM (E18)

L’utilisation crois­sante de l’IA a un impact signi­fi­ca­tif dans nos envi­ron­ne­ments. Elle com­porte à la fois d’énormes pos­si­bi­li­tés et des risques asso­ciés. Pour maî­tri­ser les risques, la nor­ma­li­sa­tion semble le moyen d’exploiter effi­ca­ce­ment et de manière fiable ces pos­si­bi­li­tés. Les conver­gences entre IoT et IA ont déjà des appli­ca­tions variées dans la vie quo­ti­dienne : cap­teurs, 5G, opti­mi­sa­tion des tour­nées de camions-citernes, comp­teurs Lin­ky, détec­tion des fuites d’eau. Le monde de demain se fera avec l’IA, et la conver­gence entre l’IA et l’IoT ne fait que commencer.

Pilo­ter une entre­prise est un défi. L’informatique, au siècle der­nier, a per­mis dans ce domaine la mise à dis­po­si­tion de machines qui ont aug­men­té les capa­ci­tés de déci­sion, en inté­grant un nombre crois­sant de para­mètres. Puis ont com­men­cé à appa­raître au sein des entre­prises des cap­teurs, dont l’objectif était de conver­tir des phé­no­mènes phy­siques en un signal élec­trique com­pré­hen­sible par un ordi­na­teur. Aujourd’hui, ces cap­teurs occupent une fonc­tion essen­tielle d’intermédiaire entre le monde phy­sique et le monde numé­rique. Leur évo­lu­tion s’est faite en trois étapes : l’ère du hors ligne, l’ère connec­tée et enfin l’ère vivante.

Les trois âges des capteurs

L’ère du hors ligne a été carac­té­ri­sée par des cap­teurs fonc­tion­nant de manière frag­men­tée et sans aucune intel­li­gence dépor­tée, pou­vant per­mettre l’ajustement d’un algo­rithme en fonc­tion des contraintes vécues par l’objet sur le ter­rain. Un tel méca­nisme néces­site une action humaine loca­li­sée. L’ère connec­tée s’est illus­trée par l’ajout de la connec­ti­vi­té à dis­tance sur les cap­teurs, ce qui per­met un échange de don­nées effi­cace avec le réseau. Les cap­teurs inter­agissent de manière concer­tée, dans l’objectif d’augmenter la fia­bi­li­té de l’information remon­tée au réseau. Ain­si, le sys­tème cen­tral peut iden­ti­fier une ten­dance et amor­cer les actions cor­rec­tives avant l’apparition d’un défaut.

L’ère vivante cor­res­pond à la capa­ci­té des cap­teurs à prendre des déci­sions loca­le­ment, grâce à l’intégration de réseaux de neu­rones. On assiste ain­si à une fonc­tion­na­li­sa­tion de ces réseaux, qui font remon­ter des « fonc­tions » aux sys­tèmes cen­traux. Dans le cas d’un sys­tème de main­te­nance pré­dic­tive, le cap­teur intègre ain­si un réseau de neu­rones dont l’apprentissage se fait de manière locale, avec les don­nées qu’il a col­lec­tées. Ce type d’approche est ren­du pos­sible par des tech­no­lo­gies du type ISPU (intel­li­gent sen­sor pro­ces­sing unit). Il est impor­tant de noter que ces muta­tions tech­no­lo­giques dans le domaine des cap­teurs aug­mentent for­te­ment le nombre de points de don­nées dis­po­nibles à tout ins­tant. Cela étend les capa­ci­tés des sys­tèmes, qui deviennent de véri­tables aides à la décision.

L’IoT nourrit l’IA, l’IA dépend de l’IoT

Ce rap­pro­che­ment des tech­no­lo­gies IoT et IA, cette conver­gence, rend indis­pen­sable un dia­logue entre l’ensemble des acteurs de la chaîne de don­nées, depuis leur cap­tage jusqu’à leur exploi­ta­tion. La ques­tion de la fia­bi­li­té des don­nées, par exemple, est un sujet capi­tal : il est néces­saire de s’assurer que les don­nées sont dignes de confiance, voire cer­ti­fiées. L’efficacité et la fru­ga­li­té des sys­tèmes sont éga­le­ment à opti­mi­ser. Pour autant, cette conver­gence est un for­mi­dable ter­rain de jeu pour mener des pro­jets ambi­tieux, pré­sen­tant un impact fort sur des per­for­mances éco­no­miques et envi­ron­ne­men­tales. Selon IHS Mar­kit, 27 mil­liards d’objets connec­tés étaient en ser­vice fin 2017 et le mar­ché devrait atteindre 125 mil­liards d’objets en 2030. Ces équi­pe­ments sont de nature hété­ro­gène et ciblent des domaines variés, tels que la ville intel­li­gente, l’agriculture, la mai­son, les chaînes indus­trielles ou les trans­ports. Tous ces équi­pe­ments génèrent des don­nées, elles aus­si de nature hétérogène.

“Mettre en place des standards de partage entre systèmes.”

Cette matière brute vient en entrée de la chaîne de don­nées et ali­mente ensuite les outils d’IA. Pour s’assurer de la réus­site de ces pro­jets et afin de garan­tir une exploi­ta­tion opti­male des mines d’informations col­lec­tées, de nom­breuses orga­ni­sa­tions ont fait le choix de mettre en place des cata­logues de don­nées. L’usage de ces cata­logues est d’abord interne, mais ils peuvent éga­le­ment être par­ta­gés avec les par­te­naires ou pres­ta­taires. En consé­quence de cette crois­sance du mar­ché de l’IoT comme une source de don­nées pour l’IA, le besoin de par­tage d’informations au sein de consor­tiums d’organisations a fait naître des groupes de tra­vail natio­naux, voire inter­na­tio­naux, ayant pour objec­tif de mettre en place des stan­dards de par­tage entre systèmes.

Fiabilité et confiance

Dans un envi­ron­ne­ment où la prise de déci­sion par les objets connec­tés est de plus en plus auto­ma­ti­sée, la confiance que les uti­li­sa­teurs placent dans ces déci­sions devient un sujet capi­tal. Afin d’éviter l’effet boîte noire, qui nuit au déploie­ment de cer­taines solu­tions et à leur adop­tion par les uti­li­sa­teurs, les créa­teurs d’algorithmes cherchent de nou­velles métho­do­lo­gies, per­met­tant plus de trans­pa­rence et de clarté.

Des mou­ve­ments d’hyper-transparence appa­raissent déjà dans l’agroalimentaire ou l’e‑commerce, où des socié­tés ont fait le choix de par­ta­ger avec les consom­ma­teurs les détails pré­cis de la tra­ça­bi­li­té de la chaîne logis­tique ou encore les infor­ma­tions sur la struc­ture de coûts com­plète de leur acti­vi­té, fai­sant par­fois appel à des tech­no­lo­gies de blo­ck­chain pour un sto­ckage cer­ti­fié de ces infor­ma­tions. Sui­vant la même ten­dance, des entre­prises font le choix d’un code infor­ma­tique par­tiel­le­ment ou tota­le­ment acces­sible en open source, afin d’exposer à l’utilisateur le mode de fonc­tion­ne­ment de leurs algorithmes.


IA et standards IoT

Dif­fé­rents comi­tés se sont pen­chés sur la manière de faire conver­ger IA et IoT par le biais des don­nées des appli­ca­tions. Ain­si, le comi­té SmartM2M (smart Machine-to-Machine, du groupe ETSI) a créé deux TR (tech­ni­cal report) dans le but d’étudier l’IA pour les sys­tèmes IoT. 

Le pre­mier, AI4IoT, traite de l’introduction du ML (machine lear­ning) dans les sys­tèmes IoT et des pos­si­bi­li­tés d’améliorer les per­for­mances du ML par l’utilisation de la norme hori­zon­tale oneM2M (OneM2M est un pro­jet de par­te­na­riat mon­dial dont l’objectif est de créer une norme tech­nique mon­diale d’interopérabilité concer­nant l’architecture, les spé­ci­fi­ca­tions API, les solu­tions de sécu­ri­té et d’inscription pour les tech­no­lo­gies Machine-to-Machine et IoT en fonc­tion des exi­gences four­nies par ses membres) et de ses fonc­tions du ser­vice com­mun (CSF ou com­mon ser­vice func­tions).

Le second TR (TR 103 675 PoCAIoT) déve­loppe un pro­to­type ciblant deux inno­va­tions. La pre­mière consiste à étendre les CSF exis­tantes pour prendre en charge les nou­velles exi­gences fonc­tion­nelles liées au ML. La seconde consiste à tes­ter le concept de nou­velles CSF, qui offrent des capa­ci­tés du ML sur une base as a ser­vice.

« Différents comités se sont penchés sur la manière de faire converger IA et IoT par le biais des données des applications. »

Le oneM2M étu­die éga­le­ment le double rôle de l’IA dans la séman­tique, via l’architecture TC Smart­BAN (smart body area net­work), défi­nie dans la TS (tech­ni­cal spe­ci­fi­ca­tion) 103 327 : comme faci­li­ta­teur du déve­lop­pe­ment et de l’alignement des onto­lo­gies et des signi­fi­ca­tions séman­tiques en sou­tien aux experts humains ; pour la mise à dis­po­si­tion de ser­vices d’IA, afin de sou­te­nir l’interopérabilité séman­tique de l’IoT, fon­dée sur une com­pré­hen­sion com­mune des infor­ma­tions de l’IoT (pour à la fois les per­sonnes et les machines). 

D’autres normes sont sou­te­nues par des indus­triels, comme l’ISG ARF (aug­men­ted rea­li­ty fra­me­work), l’Industrial IoT Consor­tium (IIC), l’Open Connec­ti­vi­ty Foun­da­tion (OCF), l’IP for Smart Objects (IPSO), l’OMA Spec­Works ain­si que le CEI 62056 (ver­sion inter­na­tio­nale du DLMS/COSEM). Ces quelques normes sont men­tion­nées ici à titre d’exemples ; bien sûr, cette liste n’est pas exhaus­tive. Leur grand nombre et leur diver­si­té montrent que la pro­blé­ma­tique est cru­ciale et encore à résoudre. Les enjeux envi­ron­ne­men­taux et la volon­té crois­sante de par­tage de don­nées, concer­nant notam­ment la consom­ma­tion éner­gé­tique et l’impact car­bone des entre­prises, accé­lèrent cette normalisation.


Efficacité et frugalité

La fin d’année 2022 aura vu les fac­tures éner­gé­tiques des entre­prises aug­men­ter for­te­ment, à cause du coût crois­sant lié au sto­ckage des don­nées et à l’exécution des algo­rithmes sur les ser­veurs. Le prix des abon­ne­ments des offres cloud a aug­men­té méca­ni­que­ment, jus­ti­fiant dou­ble­ment la mise en place de pro­jets s’intéressant à l’optimisation des coûts sous-jacents, visant à réduire la quan­ti­té de don­nées sto­ckées. Ain­si, la sobrié­té numé­rique est au cœur de la stra­té­gie de nom­breux pro­jets infor­ma­tiques. On cherche à opti­mi­ser les don­nées sto­ckées par le net­toyage, le tra­çage des redon­dances d’informations ou encore la réduc­tion des infor­ma­tions stockées.

Les orga­ni­sa­tions cherchent éga­le­ment à rendre les algo­rithmes plus fru­gaux par le sto­ckage en cache des résul­tats, le pré­cal­cul des infor­ma­tions, ou en allé­geant les codes infor­ma­tiques, sur­tout si l’algorithme est embar­qué. Les déve­lop­peurs avaient déjà le dif­fi­cile objec­tif de livrer rapi­de­ment des codes robustes ; on leur demande désor­mais de pen­ser éga­le­ment à la consom­ma­tion éner­gé­tique sous-jacente. Cet objec­tif va deve­nir majeur, car de nou­velles obli­ga­tions en termes de publi­ca­tion du bilan car­bone des entre­prises vont néces­si­ter des indi­ca­teurs de sui­vi de la consom­ma­tion des ser­veurs de sto­ckage et de cal­cul. Ain­si, dif­fé­rents nou­veaux outils de Green IT, uti­li­sés pour mesu­rer la consom­ma­tion éner­gé­tique des algo­rithmes ou appli­cations, ont vu le jour, par­mi les­quels nous pou­vons notam­ment citer Greens­pec­tor, Sca­phandre, Frug­gr, ARO.

IA et réseaux 5G

L’IA ouvre un bou­le­vard d’opportunités, mais aus­si pré­sente des défis pour les sys­tèmes d’information et de com­mu­ni­ca­tion à la base de l’IoT. La stan­dar­di­sa­tion est un outil néces­saire, qui per­met­tra de tirer le meilleur du poten­tiel résul­tant de la conver­gence entre IA et IoT. Cette ques­tion de la stan­dar­di­sa­tion ou uni­for­mi­sa­tion est au cœur des débats de l’ETSI, un orga­nisme euro­péen de nor­ma­li­sa­tion (ESO – Euro­pean Stan­dard Orga­ni­za­tion) char­gé des télé­com­mu­ni­ca­tions, de la radio­dif­fu­sion et des autres réseaux et ser­vices de com­mu­ni­ca­tions élec­tro­niques. L’ETSI a de nom­breuses acti­vi­tés dans le domaine de la 5G, en col­la­bo­ra­tion avec le 3GPP (3rd gene­ra­tion part­ner­ship pro­ject).

Au sein de la 3GPP 5G, l’IA est réfé­ren­cée dans les deux prin­ci­paux domaines des capa­ci­tés du réseau cen­tral (5G NG Core) et du réseau d’accès radio (5G RAN – radio access net­work). Dans ces deux domaines, l’IA joue le rôle d’une couche auxi­liaire per­met­tant d’accroître l’automatisation du réseau 5G, afin d’en opti­mi­ser la ges­tion (par exemple grâce à un méca­nisme auto­ma­tique de détec­tion et de cor­rec­tion des pannes). L’objectif est de créer une pla­te­forme de connec­ti­vi­té uni­fiée pour de nom­breuses appli­ca­tions, y com­pris celles ren­dues pos­sibles par l’IA. Cela pour­ra conduire à une amé­lio­ra­tion de l’expérience uti­li­sa­teur, en éten­dant les capa­ci­tés des appa­reils 5G à l’aide de fonc­tion­na­li­tés d’IA dans le cloud.

« L’objectif est de créer une plateforme de connectivité unifiée pour de nombreuses applications, y compris celles rendues possibles par l’IA. »

L’IA est deve­nue une fonc­tion sup­plé­men­taire dans la ges­tion des réseaux radio­élec­triques et pro­pose une évo­lu­tion vers le modèle SON (self orga­ni­zing net­work). Dans ce domaine, le ML (machine lear­ning) offre aux sys­tèmes radio la capa­ci­té d’apprendre et de s’améliorer auto­ma­ti­que­ment à par­tir de l’expérience acquise, sans avoir été expli­ci­te­ment pro­gram­més. Nous pou­vons ima­gi­ner le béné­fice d’une telle évo­lu­tion dans des contextes radio tels que la sélec­tion de la confi­gu­ra­tion opti­male des fais­ceaux ou des niveaux de puis­sance d’une cel­lule 5G à chaque inter­valle de transmission.

L’apprentissage par le ML peut s’appuyer sur dif­fé­rents élé­ments tels que la col­lecte stan­dar­di­sée de don­nées de confi­gu­ra­tion du réseau ou les per­for­mances cor­res­pon­dantes du réseau et la dis­tri­bu­tion du tra­fic, afin de pré­dire le com­por­te­ment du réseau. Une fois for­més, les modèles fon­dés sur le ML peuvent être déployés dans le RAN afin d’obtenir des confi­gu­ra­tions opti­males des antennes et des res­sources radio. L’objectif ultime de l’automatisation est de créer des réseaux lar­ge­ment auto­nomes, pilo­tés par des pro­cé­dures de haut niveau ; ces réseaux seront capables de s’autoconfigurer, de s’autosurveiller, de s’autoréparer et de s’auto-optimiser sans inter­ven­tion humaine.

Les sec­teurs où l’IoT ren­contre et sert les inté­rêts d’algorithmes d’aide à la déci­sion, de simu­la­tion ou d’IA auto­nome sont nom­breux et variés.


Lire aus­si : La tech­no­lo­gie 5G comme accé­lé­ra­teur de l’Internet des objets


Quand l’IoT aide l’IA : l’optimisation de tournée

Par exemple, les lea­ders mon­diaux dans le domaine du gaz délivrent du gaz en vrac en uti­li­sant des camions-citernes. Leurs tour­nées doivent être opti­mi­sées afin de limi­ter les dis­tances par­cou­rues et donc l’impact envi­ron­ne­men­tal. Pour mettre en place de telles opti­mi­sa­tions, mesu­rées en hori­zon tem­po­rel rou­lant, il est néces­saire de mettre en place une chaîne de don­nées effi­cace : tout d’abord récu­pé­rer l’ensemble des infor­ma­tions de loca­li­sa­tion des clients et des uni­tés de pro­duc­tion ; ensuite cal­cu­ler de manière pré­cise les pré­vi­sions de consom­ma­tion quo­ti­diennes de chaque client.

Pour cela, les réser­voirs des clients sont équi­pés de cap­teurs per­met­tant de mesu­rer la consom­ma­tion en temps réel, et donc de déduire le niveau du réser­voir. Ces séries tem­po­relles sont col­lec­tées, puis ana­ly­sées avec des méthodes sta­tis­tiques per­met­tant de déduire des ten­dances par type de clients, puis de cal­cu­ler les pré­vi­sions per­son­na­li­sées de consom­ma­tion à une fré­quence sou­hai­tée. Ces consom­ma­tions pré­vi­sion­nelles servent ensuite de don­nées déter­mi­nistes en entrée du modèle d’optimisation des tour­nées : le but est de pro­duire chaque jour un plan­ning qui satis­fe­ra les contraintes de chaque client et les cri­tères d’accès à leurs points de livrai­son, tout en mini­mi­sant le nombre de kilo­mètres par­cou­rus et le nombre de camions utilisés.

Le cas des compteurs Linky

Dans un autre domaine, la France compte désor­mais 35 mil­lions de comp­teurs élec­triques per­met­tant de faire remon­ter la consom­ma­tion élec­trique des entre­prises et des par­ti­cu­liers. Le comp­teur Lin­ky per­met de récol­ter des séries tem­po­relles bien plus pré­cises que les anciens rele­vés annuels, et donc bien plus adap­tées à l’analyse de don­nées. L’objectif est d’améliorer la connais­sance de la consom­ma­tion, de fabri­quer des pro­fils types et d’étudier la com­po­si­tion des pics de consom­ma­tion ain­si que ses liens avec la météo. Les rele­vés détaillés ali­mentent des modèles de pré­vi­sion qui servent de don­nées d’entrée à l’optimisation de la pla­ni­fi­ca­tion de la pro­duc­tion d’électricité à court terme, mais aus­si des modèles d’optimisation des arrêts de tranche pour la main­te­nance des cen­trales nucléaires à l’horizon de la décennie.


Lire aus­si : IoT et accep­ta­bi­li­té sociale de l’innovation : le cas du comp­teur Linky


La détection des fuites d’eau

Enfin, il existe un autre domaine où l’IoT nour­rit des modèles d’IA : la détec­tion de fuites dans les réseaux d’eau potable. Des cap­teurs pla­cés à divers points du réseau per­mettent de connaître le niveau de pres­sion et ain­si de déduire si des fuites ont pu inter­ve­nir entre deux points de mesure. Dans cer­taines villes, près de la moi­tié de l’eau potable qui quitte la sta­tion d’épuration n’arrive jamais jusqu’au robi­net pour être consom­mée. Mieux iden­ti­fier les fuites est donc un objec­tif non seule­ment éco­no­mique, mais éga­le­ment éco­lo­gique. La nor­ma­li­sa­tion des don­nées par­ta­gées, la fia­bi­li­té des rele­vés et la capa­ci­té à ana­ly­ser rapi­de­ment ces don­nées cap­tées per­mettent d’améliorer les per­for­mances de ces réseaux de dis­tri­bu­tion en déclen­chant plus rapi­de­ment des inter­ven­tions de main­te­nance afin de cor­ri­ger des défauts observés.

Poster un commentaire