Quelques défis scientifiques actuels en météorologie

Dossier : La météorologie partie 1Magazine N°747 Septembre 2019
Par Philippe DANDIN (85)

Les attentes de la socié­té et des usa­gers de la météo­ro­lo­gie imposent un pro­grès constant des savoirs et des ser­vices. Les réponses pro­viennent de la com­mu­nau­té scien­ti­fique, des grands orga­nismes et milieux aca­dé­miques fran­çais, en Europe et dans le monde. Quelques cher­cheurs ont bien vou­lu décrire cer­tains de leurs tra­vaux, qui illus­trent une par­tie de la richesse intel­lec­tuelle déployée pour faire pro­gres­ser la météorologie.

En matière scien­ti­fique, le Centre natio­nal de recherches météo­ro­lo­giques, uni­té mixte de recherche CNRS – Météo-France, tient une place par­ti­cu­lière, liée à sa proxi­mi­té avec les météo­ro­logues opé­ra­tion­nels. Ses cher­cheurs abordent de nom­breux aspects de la chaîne météo­ro­lo­gique, depuis l’observation jusqu’à la valo­ri­sa­tion des pré­vi­sions, et réa­lisent un trans­fert effi­cace et régu­lier des avan­cées scien­ti­fiques aux opérationnels.

La météo­ro­lo­gie ne se limite pas à la phy­sique de l’atmosphère. De nom­breuses sciences sont mobi­li­sées, non seule­ment pour décrire le com­plexe « sys­tème Terre », mais aus­si pour l’observer, trai­ter l’information effi­ca­ce­ment et enfin livrer un mes­sage et un ser­vice qui soient reçus à temps, com­pris et consti­tuent une réelle aide à la déci­sion. Les défis actuels des scien­ti­fiques sont liés aux cou­plages, à la repré­sen­ta­tion expli­cite de pro­ces­sus à des échelles tou­jours plus fines. Ils ciblent des phé­no­mènes atmo­sphé­riques intenses, décrivent plus pré­ci­sé­ment la com­po­si­tion de l’air, la micro­phy­sique, les nuages. L’enjeu est d’aboutir à des modèles numé­riques qui pour­ront être exploi­tés en pré­vi­sion, ou en rejeu du pas­sé, ou bien encore, au-delà des échéances météo­ro­lo­giques, en pro­jec­tions cli­ma­tiques. La recherche ins­tru­men­tale et les cam­pagnes de mesure, comme pour toutes les géos­ciences, sont déter­mi­nantes : com­pré­hen­sion des phé­no­mènes et pro­ces­sus, et pré­pa­ra­tion des capa­ci­tés d’assimilation des don­nées obser­vées dans les modèles numé­riques. Enfin, par­ti­cu­la­ri­té de l’exercice météo­ro­lo­gique, qui impose de lut­ter en per­ma­nence contre le temps qui passe, les cher­cheurs sont éga­le­ment for­te­ment inves­tis sur les aspects infor­ma­tiques et numé­riques, dans un cadre de cal­cul haute performance.

L’exercice de pré­vi­sion opé­ra­tion­nelle est d’une redou­table com­plexi­té… Le sys­tème qu’il faut résoudre est un lieu de chaos – au sens mathé­ma­tique – et une cas­cade d’échelles consé­quente doit être prise en compte, de la molé­cule à la pla­nète. La mar­tin­gale consiste à résoudre les dif­fé­rentes échelles pour espé­rer cap­tu­rer les phé­no­mènes et leurs inter­ac­tions. Elle néces­site de la puis­sance de cal­cul, mais aus­si une com­pré­hen­sion et des repré­sen­ta­tions cohé­rentes de la phy­sique en jeu, sans oublier des obser­va­tions adap­tées pour contraindre la réso­lu­tion des équa­tions. Elle impose tou­jours, in fine, des choix, en fonc­tion des phé­no­mènes ou des échéances ciblées. Enfin, il faut ser­vir la masse d’information pro­duite par les sys­tèmes d’observation et par les modèles numé­riques, désor­mais mis en œuvre en ensembles. D’autres sciences doivent être mobi­li­sées : infor­ma­tion et com­mu­ni­ca­tion, repré­sen­ta­tion, décision…


REPÈRES

L’é­change rap­por­té ici a asso­cié Phi­lippe Dan­din, Marc Boc­quet (91), École des Ponts Paris­Tech, Cerea, Ben­ja­min Méné­trier, Ins­ti­tut de recherche en infor­ma­tique de Tou­louse, et du Centre natio­nal de recherches météo­ro­lo­giques : Ludo­vic Auger (96), Camille Bir­man (2007), Phi­lippe Cham­bon, Phi­lippe Mar­gui­naud (95), Yann Michel (2000), du Groupe de modé­li­sa­tion et assi­mi­la­tion pour la pré­vi­sion, Fran­çois Bout­tier (86), Oli­vier Cau­mont (98), Quen­tin Libois (2007), Benoît Vié (2004), du Groupe de météo­ro­lo­gie à moyenne échelle, Alain Dabas (85), du Groupe de météo­ro­lo­gie expé­ri­men­tale et ins­tru­men­tale, Mat­thieu Plu (98), du Groupe de modé­li­sa­tion de grande échelle et climat. 


Parmi les calamités météorologiques, la grêle, la foudre, les rafales de vent, les tornades, les fortes précipitations qui accompagnent les orages sont à l’origine de pertes matérielles et humaines importantes. Que fait-on sur les orages ?

Oli­vier Cau­mont : Les phé­no­mènes convec­tifs consti­tuent en effet un enjeu impor­tant en métro­pole et dans les Outre-mer, et plus lar­ge­ment dans le monde. Or, leur pré­vi­sion, depuis la cel­lule ora­geuse iso­lée qui se bloque sur un point jusqu’aux amas de grande échelle, reste ardue. Cela est en par­tie dû à la faible pré­vi­si­bi­li­té de ces phé­no­mènes, pro­blème auquel la pré­vi­sion d’ensemble s’attache à remé­dier. Les orages sont en outre de taille modeste en regard des réso­lu­tions spa­tio­tem­po­relles de nos modèles. L’amélioration du réa­lisme des pré­vi­sions d’orages passe donc par une aug­men­ta­tion de la réso­lu­tion, qui pose notam­ment des pro­blèmes numé­riques, mais aus­si par une amé­lio­ra­tion de la repré­sen­ta­tion des pro­ces­sus phy­siques non réso­lus comme la micro­phy­sique, la tur­bu­lence, etc. Autant de sujets aux­quels nous nous attachons.

Ces phénomènes de fine échelle sont mal perçus par les réseaux d’observation. Quelles pistes explorez-vous en la matière ?

Oli­vier Cau­mont : Des obser­va­tions à l’échelle des orages sont néces­saires pour vali­der et ini­tia­li­ser les modèles. Depuis plu­sieurs décen­nies, la télé­dé­tec­tion par radar ou satel­lites a enri­chi les sys­tèmes d’observations clas­siques, et les pro­grès conti­nuent à grands pas, avec les pro­jets de l’ESA et d’Eumetsat. L’exploitation de ces mesures de télé­dé­tec­tion est néan­moins com­pli­quée par leur lien indi­rect aux quan­ti­tés phy­siques pré­vues par les modèles. Par ailleurs, depuis quelques années, l’Inter­net des objets sus­cite un inté­rêt crois­sant. Qu’il s’agisse de cap­teurs embar­qués sur divers types de véhi­cules ou bien de sta­tions météo­ro­lo­giques per­son­nelles, ces objets four­nissent des don­nées en grande quan­ti­té et à maillage fin. Elles sont cepen­dant hété­ro­gènes et de qua­li­té incer­taine, et doivent être trai­tées grâce aux avan­cées de la science des don­nées. Les tra­vaux en la matière sont prometteurs.

“Les phénomènes convectifs constituent un enjeu important
en métropole et dans les Outre-mer”

L’atmosphère est un milieu peuplé d’une quantité de composés, qui jouent des rôles variés dont les moteurs sont les interactions matière-rayonnement. Comment valorisez-vous les campagnes de mesure pour faire progresser la représentation des nuages dans les modèles de prévision ?

Benoît Vié : Bien connaître la com­po­si­tion de l’atmosphère et des nuages, et dis­po­ser de codes aptes à simu­ler les inter­ac­tions com­plexes entre leurs dif­fé­rents com­po­sés, sont deux objec­tifs de nos tra­vaux. Les obser­va­tions détaillées récol­tées au cœur des nuages par drones, bal­lons ou avions per­mettent de mieux sai­sir leur cycle de vie. Le déve­lop­pe­ment d’un nou­veau sché­ma micro­phy­sique, mené avec des col­lègues du CNRS, a conduit à une meilleure repré­sen­ta­tion des pro­ces­sus nua­geux. Capable de pré­voir non seule­ment la masse d’eau conte­nue dans les nuages, mais éga­le­ment le nombre et la taille des hydro­mé­téores (gouttes et cris­taux), il four­nit des infor­ma­tions essen­tielles pour déter­mi­ner leurs impacts, par exemple sur la visibilité.

Comment représentez-vous les interactions matière rayonnement ? Et que faites-vous pour améliorer les prévisions de production des centrales photovoltaïques ?

Quen­tin Libois : Pour répondre au défi de la tran­si­tion éner­gique, Météo-France met son exper­tise au ser­vice de la pré­vi­sion de pro­duc­tion des éner­gies renou­ve­lables, et notam­ment du pho­to­vol­taïque. Cela néces­site des pré­vi­sions plus fiables et très locales du rayon­ne­ment inci­dent en sur­face. Grâce à une des­crip­tion détaillée de la struc­ture tri­di­men­sion­nelle de l’atmosphère, un modèle sta­tis­tique de lan­cer de rayons per­met de cal­cu­ler très pré­ci­sé­ment le rayon­ne­ment inci­dent en sur­face, en sui­vant les tra­jec­toires com­plexes d’un grand nombre de pho­tons à tra­vers l’atmosphère. Cette approche de labo­ra­toire, actuel­le­ment trop coû­teuse pour la pré­vi­sion, devien­dra abor­dable d’ici quelques années, et plus tôt pour des études et du conseil. Nos tra­vaux cou­plant trans­fert radia­tif et micro­phy­sique per­met­tront d’améliorer net­te­ment les pré­vi­sions de pro­duc­tion pho­to­vol­taïque, et aus­si d’autres phé­no­mènes météo­ro­lo­giques à fort impact, tels que le brouillard. La recherche tra­vaille sur ces connais­sances fon­da­men­tales dont les retom­bées seront posi­tives pour l’aviation, l’énergie, la sécu­ri­té et l’économie.

Quels sont les efforts actuels de la communauté météorologique sur ces sujets importants des gaz à effet de serre (CO2, CH4, O3…) et de la qualité de l’air ?

Mat­thieu Plu : L’atmosphère est un creu­set, où molé­cules et par­ti­cules d’origine natu­relle et anthro­pique sont trans­por­tées, mélan­gées et subissent des trans­for­ma­tions phy­si­co­chi­miques. Pré­voir la com­po­si­tion de l’atmosphère pré­sente un inté­rêt en soi, en rai­son de ses effets sur la san­té humaine, le trans­port aérien et la pro­duc­tion d’énergie solaire, entre autres. Ces der­nières décen­nies, la recherche a beau­coup pro­gres­sé pour carac­té­ri­ser les sources de pol­luants, et modé­li­ser les prin­ci­paux méca­nismes chimiques.

Les consti­tuants chi­miques ont aus­si un effet impor­tant sur la météo­ro­lo­gie, par leur inter­ac­tion avec le rayon­ne­ment et avec les gout­te­lettes nua­geuses. On connaît l’impact des gaz à effet de serre et des aéro­sols sur le cli­mat glo­bal. Mais ils influent aus­si sur les phé­no­mènes météo­ro­lo­giques aux échelles plus fines, tel le brouillard, et sur la météo­ro­lo­gie urbaine. L’enjeu aujourd’hui est donc d’intégrer plei­ne­ment la modé­li­sa­tion chi­mique dans les modèles météo­ro­lo­giques. Il s’agit aus­si d’y assi­mi­ler les don­nées satel­li­taires pour esti­mer de façon cohé­rente l’état de l’atmosphère et des sources de pol­lu­tion. Nous tra­vaillons donc entre spé­cia­listes de ces dif­fé­rents domaines pour déve­lop­per un tel cou­plage atmo­sphère-chi­mie-sur­face qui doit pré­fi­gu­rer l’avenir de la pré­vi­sion : des pro­duits et ser­vices inté­grés de l’environnement.

Les événements extrêmes résultent souvent d’interactions entre les compartiments du système Terre : atmosphère-océans-surfaces continentales. Au-delà du couplage entre chimie et physique dans l’atmosphère, comment étudie-t-on ces interactions ?

Camille Bir­man : Un outil pour mieux com­prendre et repré­sen­ter ces phé­no­mènes consiste à cou­pler les dif­fé­rents modèles repré­sen­tant les dif­fé­rents com­par­ti­ments, à faire évo­luer conjoin­te­ment les dif­fé­rents milieux. On gagne en pré­vi­si­bi­li­té et on com­prend mieux les pro­ces­sus grâce à la prise en compte des boucles de rétro­ac­tion et à une repré­sen­ta­tion plus réa­liste des flux aux inter­faces. Le cou­plage entre l’océan et l’atmosphère per­met de mieux pré­voir l’intensification rapide des cyclones tro­pi­caux à l’approche des zones habi­tées ; celui avec les vagues amé­liore la pré­vi­sion du vent, des cou­rants et des flux à l’in­ter­face air-mer ; de même, le cou­plage avec les sur­faces conti­nen­tales per­met de mieux pré­voir les épi­sodes extrêmes : séche­resses, vagues de cha­leur, inon­da­tions… En par­ti­cu­lier en zones de relief, les fortes hété­ro­gé­néi­tés spa­tiales et leur impact sur l’atmosphère sont ain­si mieux explicités.

“Mieux prévoir l’intensification rapide des cyclones tropicaux à l’approche des zones habitées”

Coupler ces modèles, c’est augmenter la complexité du système étudié. Quelles sont les difficultés et les approches envisagées pour les surmonter ?

Camille Bir­man : Ces sys­tèmes cou­plés posent un cer­tain nombre de défis. Outre les dif­fi­cul­tés tech­niques, les modèles cou­plés sont très lourds en coût de cal­cul et néces­sitent des opti­mi­sa­tions des codes numé­riques. Mais le cou­plage ajoute aus­si des degrés de liber­té au sys­tème, qui imposent une uti­li­sa­tion accrue des obser­va­tions. Ain­si, l’assimilation d’observations aux inter­faces est cru­ciale pour contraindre le sys­tème et évi­ter des dérives. La quan­ti­fi­ca­tion des incer­ti­tudes des sys­tèmes cou­plés est aus­si un défi. Les ensembles d’assimilation per­mettent d’apporter des réponses à ces ques­tions, notam­ment en four­nis­sant une mesure des incer­ti­tudes asso­ciées à chaque paramètre.

Que nous apportent les observations aux interfaces des différents compartiments du système Terre ?

Ben­ja­min Méné­trier : Nous savons que cer­taines obser­va­tions apportent de l’information sur plu­sieurs com­par­ti­ments de la Terre, par exemple à la fois sur la tem­pé­ra­ture de sur­face de la mer et celle de l’air envi­ron­nant. Or, les épi­sodes de pré­ci­pi­ta­tions intenses en Médi­ter­ra­née sont par­ti­cu­liè­re­ment sen­sibles à cette inter­face atmo­sphère océan. Le défi majeur est de prendre en compte ce cou­plage dans l’initialisation des modèles mal­gré des géo­mé­tries et des échelles de temps très hété­ro­gènes entre les com­par­ti­ments. Mathé­ma­tiques et sciences numé­riques sont vitales.

La météorologie est en effet avide de technologies numériques. La performance du calcul numérique est critique, tant pour la recherche que pour la réalisation des prévisions. Comment la recherche s’y intéresse-t-elle ?

Phi­lippe Mar­gui­naud : Un de nos sou­cis constants porte effec­ti­ve­ment sur la per­for­mance des algo­rithmes sur HPC (cal­cu­la­teur haute per­for­mance). Les modèles uti­li­sés à Météo-France – Arpège et Arome res­pec­ti­ve­ment pour le glo­bal et le régio­nal, pour les simu­la­tions allant de quelques heures jusqu’aux échéances cli­ma­tiques – s’appuient sur un noyau dyna­mique (i.e. la par­tie spé­ci­fique du logi­ciel dédiée à la réso­lu­tion des équa­tions de Navier-Stokes) très éco­no­mique : déve­lop­pé avec le CEPMMT (Centre euro­péen de pré­vi­sion météo­ro­lo­gique à moyen terme), il tolère des pas de temps éle­vés et per­met d’obtenir une pré­vi­sion en uti­li­sant moins d’étapes que d’autres algo­rithmes. Les pas de temps longs de ce noyau dyna­mique dit « spec­tral, semi-impli­cite, semi-lagran­gien » res­tent suf­fi­sam­ment petits pour décrire cor­rec­te­ment les phé­no­mènes météo­ro­lo­giques. Sa par­ti­cu­la­ri­té est qu’il amor­tit les ondes rapides, telles que les ondes sonores qui n’ont pas d’intérêt pour la pré­vi­sion. Des expé­riences d’intercomparaison avec d’autres modèles de pré­vi­sion numé­rique ont ain­si mon­tré que le noyau dyna­mique uti­li­sé aujourd’hui dans les modèles de Météo-France offre sans contes­ta­tion pos­sible le meilleur rap­port per­for­mance / coût numé­rique du monde.

Si tout va bien, pourquoi s’intéresser à ces sujets numériques et informatiques ?

Phi­lippe Mar­gui­naud : Comme expli­qué pré­cé­dem­ment, la réso­lu­tion et la com­plexi­té des modèles de pré­vi­sion s’accroissent. Or, la fin de la mon­tée régu­lière en fré­quence des pro­ces­seurs uti­li­sés dans les sys­tèmes de cal­cul (loi de Moore) force les modé­li­sa­teurs à uti­li­ser un nombre de pro­ces­seurs de plus en plus éle­vé. Ce détail a son impor­tance, et notre noyau dyna­mique montre des limites en termes de « sca­la­bi­li­té », c’est-à-dire que sa capa­ci­té à uti­li­ser des sys­tèmes infor­ma­tiques com­pre­nant de plus en plus de pro­ces­seurs pour dimi­nuer son temps de res­ti­tu­tion n’est pas infi­nie. Ain­si, par exemple, le pas­sage de la réso­lu­tion d’Arome de 2,5 km à 1,3 km en 2013 aurait théo­ri­que­ment dû requé­rir une aug­men­ta­tion de puis­sance de l’ordre de 10 ; dans la réa­li­té, c’est un fac­teur 14 sur la puis­sance de cal­cul qui a été néces­saire. Notons que les modèles « expli­cites » sont eux aus­si affec­tés par cette perte de scalabilité.

“Les modèles de Météo-France offrent le meilleur rapport
performance / coût numérique du monde”

Quelle peut être l’issue ?

Ludo­vic Auger : Cette rup­ture dans l’évolution de la tech­no­lo­gie, ain­si que d’autres limites ren­con­trées en phy­sique, par exemple dans la repré­sen­ta­tion de l’orographie, conduit Météo-France et les grands centres de pré­vi­sion à revi­si­ter les algo­rithmes uti­li­sés dans les noyaux dyna­miques, ain­si qu’à étu­dier leur pos­sible implé­men­ta­tion sur des archi­tec­tures de type accé­lé­ra­teurs, comme les pro­ces­seurs gra­phiques (GPU).

La puissance de calcul attribuée à la météorologie opérationnelle demeure donc un enjeu vital de progrès ?

Ludo­vic Auger : Oui, par exemple, dans le cadre du pro­jet Dya­mond (inter­com­pa­rai­son de modèles glo­baux non hydro­sta­tiques https://www.esiwace.eu/services/dyamond) en 2018, une simu­la­tion glo­bale à l’échelle 2,5 km de cin­quante jours a été menée avec suc­cès et a requis l’utilisation de 300 nœuds équi­pés de pro­ces­seurs Intel © Broad­well inté­grés dans la machine « Beau­fix » ins­tal­lée dans les locaux de Météo-France par le construc­teur fran­çais Bull. Le modèle fran­çais Arpège a pro­duit des simu­la­tions à très fine échelle com­pa­rable aux meilleurs modèles mon­diaux et pour un coût infor­ma­tique simi­laire. Cette confi­gu­ra­tion à très haute réso­lu­tion, dont l’intérêt est avé­ré pour de mul­tiples appli­ca­tions, ne sera pas uti­li­sée opé­ra­tion­nel­le­ment avant quinze ans, sous réserve que la puis­sance de cal­cul dis­po­nible conti­nue à croître régu­liè­re­ment. Arpège dans sa forme actuelle res­te­ra com­pé­ti­tif sur cette période de temps, et nous y tra­vaillons avec nos homo­logues, notam­ment du CEPMMT.

Quels sont les défis à relever pour initialiser ces modèles du futur, globaux, à résolution kilométrique ?

Yann Michel : Les modèles sont ini­tia­li­sés à par­tir de pré­vi­sions récentes et d’observations variées. Nous chan­geons actuel­le­ment de para­digme pour nous appuyer de plus en plus mas­si­ve­ment sur des ensembles afin de décrire sta­tis­ti­que­ment les erreurs de nos modèles. Le pro­chain défi est de mieux prendre en compte la non-linéa­ri­té, pré­sente à la fois dans la rela­tion entre le modèle et les obser­va­tions et dans le modèle lui-même. Cet aspect devient cru­cial aux échelles fines, quand on s’intéresse à l’initialisation des nuages et des précipitations.

Avant du drone Boréal avec sonde tur­bu­lence et veine de pré­lè­ve­ment pour la mesure d’aérosols (confi­gu­ra­tion pour l’étude des cylones dans le cadre d’une cam­pagne pré­vue début 2019).

L’utilisation des observations spatiales, dans un contexte de forte évolution technologique, doit logiquement faire l’objet de nombreuses recherches ?

Phi­lippe Cham­bon : Les tech­no­lo­gies dis­po­nibles pour l’observation de la Terre depuis l’espace évo­luent effec­ti­ve­ment très vite. Ces évo­lu­tions concernent la concep­tion des ins­tru­ments de télé­dé­tec­tion, ame­nant à une den­si­té spa­tio­tem­po­relle d’observations accrue, mais aus­si la concep­tion des pla­te­formes satel­li­taires qui se minia­tu­risent. Le nombre de mesures dis­po­nibles pour contraindre les modèles chan­ge­ra d’ordre de gran­deur dans les pro­chaines années. Des cap­teurs nou­veaux appa­raî­tront. Les défis scien­ti­fiques pour exploi­ter le conte­nu en infor­ma­tion de ces obser­va­tions sont nom­breux. Nous tra­vaillons dès les phases d’appels à idées émises par les agences spa­tiales, pré­pa­rons aus­si long­temps que pos­sible à l’avance nos outils numé­riques pour qu’ils soient prêts à tirer le meilleur des obser­va­tions quand elles appa­raissent. Les pro­grès de la phy­sique et des cou­plages per­mettent aus­si de mieux exploi­ter les don­nées mesu­rées depuis l’espace. Les défis sont aus­si tech­no­lo­giques autour des réseaux de com­mu­ni­ca­tion et du sto­ckage. Des ques­tions sont éga­le­ment posées sur l’accès à des don­nées pou­vant être déte­nues par des opé­ra­teurs pri­vés, le New Space… Nous veillons aus­si ces évo­lu­tions pos­sibles du marché.

L’amélioration de la physique représentée dans les modèles, traitant les échelles fines et les couplages, permet et impose d’exploiter davantage d’observations spatiales.
Que peut-on attendre de l’intelligence artificielle dans ce registre et plus largement en météorologie ?

Marc Boc­quet : L’IA peut amé­lio­rer le fil­trage et le pré-trai­te­ment des grandes masses d’observations à assi­mi­ler dans les modèles. On envi­sage éga­le­ment que des réseaux de neu­rones puissent se sub­sti­tuer à des par­ties du modèle de pré­vi­sion par­ti­cu­liè­re­ment com­plexes comme les para­mé­tri­sa­tions de la convec­tion pro­fonde ou de l’impact de la tur­bu­lence aux échelles non réso­lues par le modèle. On peut aus­si espé­rer que l’apprentissage pro­fond soit en mesure d’extraire de l’information rési­duelle des ana­lyses météo­ro­lo­giques pro­duites par les méthodes clas­siques, et ain­si contri­buer à réduire davan­tage les biais entre le modèle et la réa­li­té. La com­mu­nau­té scien­ti­fique s’organise actuel­le­ment pour pro­gres­ser sur ces axes et sur d’autres sec­teurs pour les­quels l’IA semble consti­tuer une approche pro­met­teuse. De nom­breux tests sont démar­rés dans tous les labo­ra­toires, et la com­mu­nau­té s’organise pour sti­mu­ler le déve­lop­pe­ment de l’IA en géosciences.

Cata­pul­tage du drone Boréal pour l’étude des inter­ac­tions océan-atmo­sphère, lors d’essais dans les Landes.

L’observation apparaît plus que jamais essentielle. Quels objectifs poursuit la recherche ?

Alain Dabas : La météo­ro­lo­gie repose sur l’observation. Obser­va­tion pour com­prendre la phy­sique des phé­no­mènes et pou­voir les simu­ler dans les modèles numé­riques, pour défi­nir l’état ini­tial de l’atmosphère pour une pré­vi­sion, pour carac­té­ri­ser l’évolution du cli­mat. Les variables à mesu­rer sont nom­breuses et variées : les variables de base (pres­sion, tem­pé­ra­ture, humi­di­té), la concen­tra­tion et la nature des aéro­sols, la com­po­si­tion chi­mique, notam­ment en gaz à effet de serre, la concen­tra­tion et la taille des gouttes d’eau dans les nuages, les pré­ci­pi­ta­tions, les flux d’échange d’énergie et de matière entre les sur­faces conti­nen­tales ou mari­times… Elles doivent aus­si si pos­sible cou­vrir tout le globe, sur terre et mer, du sol jusqu’à la stratosphère !

Que se passe-t-il au sol ?

Alain Dabas : La majeure par­tie des obser­va­tions réa­li­sées au niveau du sol pro­vient de réseaux de cap­teurs opé­rés par des agences éta­tiques qui échangent gra­tui­te­ment leurs don­nées. Des sources d’informations alter­na­tives com­mencent à être dis­po­nibles. Mesu­rées par des cap­teurs embar­qués sur des objets connec­tés – cap­teurs de pres­sion sur smart­phone, de tem­pé­ra­ture sur voi­ture, sta­tions météo­ro­lo­giques grand public – ou déri­vées de sys­tèmes non pen­sés pour la météo­ro­lo­gie – par exemple l’atténuation de puis­sance des fais­ceaux hert­ziens entre relais télé­pho­niques, qui per­met de remon­ter à des taux d’humidité… – ces don­nées vont se mul­ti­plier, mais posent des pro­blèmes de qua­li­té, de volume et de pro­prié­tés qu’il faut résoudre pour en tirer plei­ne­ment profit.

“La masse de données d’observations météorologiques disponibles
devrait exploser dans le futur”

Observe-t-on cette tendance en altitude aussi ?

Alain Dabas : En alti­tude, la source prin­ci­pale pro­vient des satel­lites météo­ro­lo­giques. Ils embarquent des cap­teurs de télé­dé­tec­tion de plus en plus sophis­ti­qués : radio­mètres ima­geurs optiques fonc­tion­nant dans l’UV, le visible ou l’infrarouge avec des réso­lu­tions spec­trales de plus en plus fines, radars à hautes fré­quences (de 10 à 100 GHz) et des lidars. Tous ces sys­tèmes doivent pou­voir être éta­lon­nés régu­liè­re­ment pour ne pas intro­duire de dérive ins­tru­men­tale dans les longues séries et s’appuient pour cela sur le réseau mon­dial de radio­son­dage (sonde accro­chée à un bal­lon gon­flé à l’hélium ou l’hydrogène, trans­met­tant ses mesures in situ par radio). Le sys­tème est com­plé­té par des mesures sur avion de ligne par des cap­teurs propres (mesure de la vitesse de l’air par sonde Pitot par exemple) ou embar­qués spé­ci­fi­que­ment pour cela (mesures de com­po­si­tion atmo­sphé­rique par le pro­gramme Iagos par exemple). D’autres hori­zons s’ouvrent, avec les satel­lites bon mar­ché et de très petite taille, sujets sur les­quels nous exer­çons une veille active avec les agences spatiales.

Sonde de tur­bu­lence por­tée par un bal­lon cap­tif lors d’une cam­pagne de mesures.

New Space, mais aussi drones, technologies innovantes de mesure, miniaturisation…,
autant de sujets faisant l’objet de travaux ?

Alain Dabas : Oui, ce sont autant de sujets sur les­quels nous tra­vaillons avec nos par­te­naires aca­dé­miques et indus­triels, tou­lou­sains, et qui font l’objet de pros­pec­tives avec l’Insu et le Cnes.

L’utilisation des drones se déve­loppe, réser­vée pour l’instant à des obser­va­tions de recherche dans des volumes dif­fi­ciles d’accès (vols dans des zones pol­luées, à quelques mètres au-des­sus de la sur­face océa­nique…) : moyen­nant un savoir-faire consé­quent de minia­tu­ri­sa­tion des cap­teurs, ces pla­te­formes sont fas­ci­nantes pour son­der l’atmosphère. La même logique per­met d’imaginer embar­quer des cap­teurs dans le futur sur des avions solaires ou des diri­geables volant plu­sieurs mois de suite en basse stra­to­sphère, et sur des nuées de nanosatellites.

La masse de don­nées d’observations météo­ro­lo­giques dis­po­nibles devrait explo­ser dans le futur. Ces volumes astro­no­miques posent des ques­tions de trans­mis­sion et de trai­te­ment. De la com­pres­sion de don­nées embar­quée sur les cap­teurs devra être mise en œuvre, et des tech­niques de trai­te­ment adap­tées au big data devront être déve­lop­pées pour les appli­ca­tions météorologiques.

La volumétrie est aussi un sujet pour les ensembles de simulation qui sont réalisés, et plus fondamentalement se pose la question de leur exploitation et de l’extraction de l’information ?

Fran­çois Bout­tier : Cette approche de modé­li­sa­tion avec des ensembles consti­tue un chan­ge­ment de para­digme pour les uti­li­sa­teurs de la météo­ro­lo­gie. C’est une évo­lu­tion mar­quante pour la pré­vi­sion météo­ro­lo­gique. Pour bien uti­li­ser une pré­vi­sion, cette der­nière doit être la meilleure pos­sible, mais il faut aus­si connaître ses incer­ti­tudes, qui changent chaque jour. Cela concerne les phé­no­mènes à la limite de ce qui est pré­vi­sible (orages, brouillards, pré­vi­sions à plu­sieurs jours d’avance…), mais aus­si les phé­no­mènes à fort impact : par exemple, si les pluies pré­vues sont à la limite du déclen­che­ment de crues catas­tro­phiques, mais que leur inten­si­té est incer­taine, on a inté­rêt à émettre un aver­tis­se­ment si les coûts d’une alerte man­quée excèdent ceux d’une fausse alarme.

Cette approche de la pré­vi­sion, ana­logue aux tech­niques finan­cières, néces­site des outils de pré­vi­sion dédiés à la pro­duc­tion d’information météo­ro­lo­gique pro­ba­bi­liste. Leur fer de lance est effec­ti­ve­ment la pré­vi­sion d’ensemble, qui consiste à injec­ter intel­li­gem­ment du bruit numé­rique dans les modèles de pré­vi­sion : leur réac­tion à ce bruit va indi­quer en temps réel l’incertitude sur tous les para­mètres météo­ro­lo­giques modé­li­sés. Dans cette approche, il est moins impor­tant de pro­duire la meilleure pré­vi­sion caté­go­rique que d’évaluer hon­nê­te­ment ce que l’on sait ou pas sur la pré­vi­sion. Ce type d’information a une grande valeur pour les acteurs éco­no­miques et la pré­ven­tion des catas­trophes… La pré­vi­sion d’ensemble est donc en train de rem­pla­cer pro­gres­si­ve­ment les algo­rithmes plus tra­di­tion­nels de pré­vi­sion, déter­mi­nistes. C’est une révo­lu­tion en cours des tech­niques de pré­vi­sion, mais aus­si de la com­mu­ni­ca­tion de l’information météo­ro­lo­gique, qu’il faut désor­mais pré­sen­ter de manière pro­ba­bi­liste mais intel­li­gible, y com­pris pour les usa­gers qui s’en ser­vi­ront in fine pour des déci­sions caté­go­riques. Les recherches dans ces domaines sont pas­sion­nantes car elles touchent à de mul­tiples dis­ci­plines et doivent impé­ra­ti­ve­ment se faire en lien avec les utilisateurs.

Poster un commentaire