Quelques défis scientifiques actuels en météorologie

Dossier : La météorologie partie 1Magazine N°747 Septembre 2019
Par Philippe DANDIN (85)

Les attentes de la société et des usagers de la météorolo­gie imposent un pro­grès con­stant des savoirs et des ser­vices. Les répons­es provi­en­nent de la com­mu­nauté sci­en­tifique, des grands organ­ismes et milieux académiques français, en Europe et dans le monde. Quelques chercheurs ont bien voulu décrire cer­tains de leurs travaux, qui illus­trent une par­tie de la richesse intel­lectuelle déployée pour faire pro­gress­er la météorologie.

En matière sci­en­tifique, le Cen­tre nation­al de recherch­es météorologiques, unité mixte de recherche CNRS – Météo-France, tient une place par­ti­c­ulière, liée à sa prox­im­ité avec les météoro­logues opéra­tionnels. Ses chercheurs abor­dent de nom­breux aspects de la chaîne météorologique, depuis l’observation jusqu’à la val­ori­sa­tion des prévi­sions, et réalisent un trans­fert effi­cace et réguli­er des avancées sci­en­tifiques aux opérationnels.

La météorolo­gie ne se lim­ite pas à la physique de l’atmosphère. De nom­breuses sci­ences sont mobil­isées, non seule­ment pour décrire le com­plexe « sys­tème Terre », mais aus­si pour l’observer, traiter l’information effi­cace­ment et enfin livr­er un mes­sage et un ser­vice qui soient reçus à temps, com­pris et con­stituent une réelle aide à la déci­sion. Les défis actuels des sci­en­tifiques sont liés aux cou­plages, à la représen­ta­tion explicite de proces­sus à des échelles tou­jours plus fines. Ils ciblent des phénomènes atmo­sphériques intens­es, décrivent plus pré­cisé­ment la com­po­si­tion de l’air, la micro­physique, les nuages. L’enjeu est d’aboutir à des mod­èles numériques qui pour­ront être exploités en prévi­sion, ou en rejeu du passé, ou bien encore, au-delà des échéances météorologiques, en pro­jec­tions cli­ma­tiques. La recherche instru­men­tale et les cam­pagnes de mesure, comme pour toutes les géo­sciences, sont déter­mi­nantes : com­préhen­sion des phénomènes et proces­sus, et pré­pa­ra­tion des capac­ités d’assimilation des don­nées observées dans les mod­èles numériques. Enfin, par­tic­u­lar­ité de l’exercice météorologique, qui impose de lut­ter en per­ma­nence con­tre le temps qui passe, les chercheurs sont égale­ment forte­ment investis sur les aspects infor­ma­tiques et numériques, dans un cadre de cal­cul haute performance.

L’exercice de prévi­sion opéra­tionnelle est d’une red­outable com­plex­ité… Le sys­tème qu’il faut résoudre est un lieu de chaos – au sens math­é­ma­tique – et une cas­cade d’échelles con­séquente doit être prise en compte, de la molécule à la planète. La mar­tin­gale con­siste à résoudre les dif­férentes échelles pour espér­er cap­tur­er les phénomènes et leurs inter­ac­tions. Elle néces­site de la puis­sance de cal­cul, mais aus­si une com­préhen­sion et des représen­ta­tions cohérentes de la physique en jeu, sans oubli­er des obser­va­tions adap­tées pour con­train­dre la réso­lu­tion des équa­tions. Elle impose tou­jours, in fine, des choix, en fonc­tion des phénomènes ou des échéances ciblées. Enfin, il faut servir la masse d’information pro­duite par les sys­tèmes d’observation et par les mod­èles numériques, désor­mais mis en œuvre en ensem­bles. D’autres sci­ences doivent être mobil­isées : infor­ma­tion et com­mu­ni­ca­tion, représen­ta­tion, décision…


REPÈRES

L’échange rap­porté ici a asso­cié Philippe Dandin, Marc Boc­quet (91), École des Ponts Paris­Tech, Cerea, Ben­jamin Ménétri­er, Insti­tut de recherche en infor­ma­tique de Toulouse, et du Cen­tre nation­al de recherch­es météorologiques : Ludovic Auger (96), Camille Bir­man (2007), Philippe Cham­bon, Philippe Mar­guin­aud (95), Yann Michel (2000), du Groupe de mod­éli­sa­tion et assim­i­la­tion pour la prévi­sion, François Bout­ti­er (86), Olivi­er Cau­mont (98), Quentin Libois (2007), Benoît Vié (2004), du Groupe de météorolo­gie à moyenne échelle, Alain Dabas (85), du Groupe de météorolo­gie expéri­men­tale et instru­men­tale, Matthieu Plu (98), du Groupe de mod­éli­sa­tion de grande échelle et climat. 


Parmi les calamités météorologiques, la grêle, la foudre, les rafales de vent, les tornades, les fortes précipitations qui accompagnent les orages sont à l’origine de pertes matérielles et humaines importantes. Que fait-on sur les orages ?

Olivi­er Cau­mont : Les phénomènes con­vec­tifs con­stituent en effet un enjeu impor­tant en métro­pole et dans les Out­re-mer, et plus large­ment dans le monde. Or, leur prévi­sion, depuis la cel­lule orageuse isolée qui se bloque sur un point jusqu’aux amas de grande échelle, reste ardue. Cela est en par­tie dû à la faible prévis­i­bil­ité de ces phénomènes, prob­lème auquel la prévi­sion d’ensemble s’attache à remédi­er. Les orages sont en out­re de taille mod­este en regard des réso­lu­tions spa­tiotem­porelles de nos mod­èles. L’amélioration du réal­isme des prévi­sions d’orages passe donc par une aug­men­ta­tion de la réso­lu­tion, qui pose notam­ment des prob­lèmes numériques, mais aus­si par une amélio­ra­tion de la représen­ta­tion des proces­sus physiques non réso­lus comme la micro­physique, la tur­bu­lence, etc. Autant de sujets aux­quels nous nous attachons.

Ces phénomènes de fine échelle sont mal perçus par les réseaux d’observation. Quelles pistes explorez-vous en la matière ?

Olivi­er Cau­mont : Des obser­va­tions à l’échelle des orages sont néces­saires pour valid­er et ini­tialis­er les mod­èles. Depuis plusieurs décen­nies, la télédé­tec­tion par radar ou satel­lites a enrichi les sys­tèmes d’observations clas­siques, et les pro­grès con­tin­u­ent à grands pas, avec les pro­jets de l’ESA et d’Eumetsat. L’exploitation de ces mesures de télédé­tec­tion est néan­moins com­pliquée par leur lien indi­rect aux quan­tités physiques prévues par les mod­èles. Par ailleurs, depuis quelques années, l’Inter­net des objets sus­cite un intérêt crois­sant. Qu’il s’agisse de cap­teurs embar­qués sur divers types de véhicules ou bien de sta­tions météorologiques per­son­nelles, ces objets four­nissent des don­nées en grande quan­tité et à mail­lage fin. Elles sont cepen­dant hétérogènes et de qual­ité incer­taine, et doivent être traitées grâce aux avancées de la sci­ence des don­nées. Les travaux en la matière sont prometteurs.

“Les phénomènes convectifs constituent un enjeu important
en métropole et dans les Outre-mer”

L’atmosphère est un milieu peuplé d’une quantité de composés, qui jouent des rôles variés dont les moteurs sont les interactions matière-rayonnement. Comment valorisez-vous les campagnes de mesure pour faire progresser la représentation des nuages dans les modèles de prévision ?

Benoît Vié : Bien con­naître la com­po­si­tion de l’atmosphère et des nuages, et dis­pos­er de codes aptes à simuler les inter­ac­tions com­plex­es entre leurs dif­férents com­posés, sont deux objec­tifs de nos travaux. Les obser­va­tions détail­lées récoltées au cœur des nuages par drones, bal­lons ou avions per­me­t­tent de mieux saisir leur cycle de vie. Le développe­ment d’un nou­veau sché­ma micro­physique, mené avec des col­lègues du CNRS, a con­duit à une meilleure représen­ta­tion des proces­sus nuageux. Capa­ble de prévoir non seule­ment la masse d’eau con­tenue dans les nuages, mais égale­ment le nom­bre et la taille des hydrométéores (gouttes et cristaux), il four­nit des infor­ma­tions essen­tielles pour déter­min­er leurs impacts, par exem­ple sur la visibilité.

Comment représentez-vous les interactions matière rayonnement ? Et que faites-vous pour améliorer les prévisions de production des centrales photovoltaïques ?

Quentin Libois : Pour répon­dre au défi de la tran­si­tion énergique, Météo-France met son exper­tise au ser­vice de la prévi­sion de pro­duc­tion des éner­gies renou­ve­lables, et notam­ment du pho­to­voltaïque. Cela néces­site des prévi­sions plus fiables et très locales du ray­on­nement inci­dent en sur­face. Grâce à une descrip­tion détail­lée de la struc­ture tridi­men­sion­nelle de l’atmosphère, un mod­èle sta­tis­tique de lancer de rayons per­met de cal­culer très pré­cisé­ment le ray­on­nement inci­dent en sur­face, en suiv­ant les tra­jec­toires com­plex­es d’un grand nom­bre de pho­tons à tra­vers l’atmosphère. Cette approche de lab­o­ra­toire, actuelle­ment trop coû­teuse pour la prévi­sion, devien­dra abor­d­able d’ici quelques années, et plus tôt pour des études et du con­seil. Nos travaux cou­plant trans­fert radi­atif et micro­physique per­me­t­tront d’améliorer net­te­ment les prévi­sions de pro­duc­tion pho­to­voltaïque, et aus­si d’autres phénomènes météorologiques à fort impact, tels que le brouil­lard. La recherche tra­vaille sur ces con­nais­sances fon­da­men­tales dont les retombées seront pos­i­tives pour l’aviation, l’énergie, la sécu­rité et l’économie.

Quels sont les efforts actuels de la communauté météorologique sur ces sujets importants des gaz à effet de serre (CO2, CH4, O3…) et de la qualité de l’air ?

Matthieu Plu : L’atmosphère est un creuset, où molécules et par­tic­ules d’origine naturelle et anthropique sont trans­portées, mélangées et subis­sent des trans­for­ma­tions physic­ochim­iques. Prévoir la com­po­si­tion de l’atmosphère présente un intérêt en soi, en rai­son de ses effets sur la san­té humaine, le trans­port aérien et la pro­duc­tion d’énergie solaire, entre autres. Ces dernières décen­nies, la recherche a beau­coup pro­gressé pour car­ac­téris­er les sources de pol­lu­ants, et mod­élis­er les prin­ci­paux mécan­ismes chimiques.

Les con­sti­tu­ants chim­iques ont aus­si un effet impor­tant sur la météorolo­gie, par leur inter­ac­tion avec le ray­on­nement et avec les gout­telettes nuageuses. On con­naît l’impact des gaz à effet de serre et des aérosols sur le cli­mat glob­al. Mais ils influ­ent aus­si sur les phénomènes météorologiques aux échelles plus fines, tel le brouil­lard, et sur la météorolo­gie urbaine. L’enjeu aujourd’hui est donc d’intégrer pleine­ment la mod­éli­sa­tion chim­ique dans les mod­èles météorologiques. Il s’agit aus­si d’y assim­i­l­er les don­nées satel­li­taires pour estimer de façon cohérente l’état de l’atmosphère et des sources de pol­lu­tion. Nous tra­vail­lons donc entre spé­cial­istes de ces dif­férents domaines pour dévelop­per un tel cou­plage atmo­sphère-chimie-sur­face qui doit pré­fig­ur­er l’avenir de la prévi­sion : des pro­duits et ser­vices inté­grés de l’environnement.

Les événements extrêmes résultent souvent d’interactions entre les compartiments du système Terre : atmosphère-océans-surfaces continentales. Au-delà du couplage entre chimie et physique dans l’atmosphère, comment étudie-t-on ces interactions ?

Camille Bir­man : Un out­il pour mieux com­pren­dre et représen­ter ces phénomènes con­siste à cou­pler les dif­férents mod­èles représen­tant les dif­férents com­par­ti­ments, à faire évoluer con­join­te­ment les dif­férents milieux. On gagne en prévis­i­bil­ité et on com­prend mieux les proces­sus grâce à la prise en compte des boucles de rétroac­tion et à une représen­ta­tion plus réal­iste des flux aux inter­faces. Le cou­plage entre l’océan et l’atmosphère per­met de mieux prévoir l’intensification rapi­de des cyclones trop­i­caux à l’approche des zones habitées ; celui avec les vagues améliore la prévi­sion du vent, des courants et des flux à l’in­ter­face air-mer ; de même, le cou­plage avec les sur­faces con­ti­nen­tales per­met de mieux prévoir les épisodes extrêmes : sécher­ess­es, vagues de chaleur, inon­da­tions… En par­ti­c­uli­er en zones de relief, les fortes hétérogénéités spa­tiales et leur impact sur l’atmosphère sont ain­si mieux explicités.

“Mieux prévoir l’intensification rapide des cyclones tropicaux à l’approche des zones habitées”

Coupler ces modèles, c’est augmenter la complexité du système étudié. Quelles sont les difficultés et les approches envisagées pour les surmonter ?

Camille Bir­man : Ces sys­tèmes cou­plés posent un cer­tain nom­bre de défis. Out­re les dif­fi­cultés tech­niques, les mod­èles cou­plés sont très lourds en coût de cal­cul et néces­si­tent des opti­mi­sa­tions des codes numériques. Mais le cou­plage ajoute aus­si des degrés de lib­erté au sys­tème, qui imposent une util­i­sa­tion accrue des obser­va­tions. Ain­si, l’assimilation d’observations aux inter­faces est cru­ciale pour con­train­dre le sys­tème et éviter des dérives. La quan­tifi­ca­tion des incer­ti­tudes des sys­tèmes cou­plés est aus­si un défi. Les ensem­bles d’assimilation per­me­t­tent d’apporter des répons­es à ces ques­tions, notam­ment en four­nissant une mesure des incer­ti­tudes asso­ciées à chaque paramètre.

Que nous apportent les observations aux interfaces des différents compartiments du système Terre ?

Ben­jamin Ménétri­er : Nous savons que cer­taines obser­va­tions appor­tent de l’information sur plusieurs com­par­ti­ments de la Terre, par exem­ple à la fois sur la tem­péra­ture de sur­face de la mer et celle de l’air envi­ron­nant. Or, les épisodes de pré­cip­i­ta­tions intens­es en Méditer­ranée sont par­ti­c­ulière­ment sen­si­bles à cette inter­face atmo­sphère océan. Le défi majeur est de pren­dre en compte ce cou­plage dans l’initialisation des mod­èles mal­gré des géométries et des échelles de temps très hétérogènes entre les com­par­ti­ments. Math­é­ma­tiques et sci­ences numériques sont vitales.

La météorologie est en effet avide de technologies numériques. La performance du calcul numérique est critique, tant pour la recherche que pour la réalisation des prévisions. Comment la recherche s’y intéresse-t-elle ?

Philippe Mar­guin­aud : Un de nos soucis con­stants porte effec­tive­ment sur la per­for­mance des algo­rithmes sur HPC (cal­cu­la­teur haute per­for­mance). Les mod­èles util­isés à Météo-France – Arpège et Arome respec­tive­ment pour le glob­al et le région­al, pour les sim­u­la­tions allant de quelques heures jusqu’aux échéances cli­ma­tiques – s’appuient sur un noy­au dynamique (i.e. la par­tie spé­ci­fique du logi­ciel dédiée à la réso­lu­tion des équa­tions de Navier-Stokes) très économique : dévelop­pé avec le CEPMMT (Cen­tre européen de prévi­sion météorologique à moyen terme), il tolère des pas de temps élevés et per­met d’obtenir une prévi­sion en util­isant moins d’étapes que d’autres algo­rithmes. Les pas de temps longs de ce noy­au dynamique dit « spec­tral, semi-implicite, semi-lagrang­ien » restent suff­isam­ment petits pour décrire cor­recte­ment les phénomènes météorologiques. Sa par­tic­u­lar­ité est qu’il amor­tit les ondes rapi­des, telles que les ondes sonores qui n’ont pas d’intérêt pour la prévi­sion. Des expéri­ences d’intercomparaison avec d’autres mod­èles de prévi­sion numérique ont ain­si mon­tré que le noy­au dynamique util­isé aujourd’hui dans les mod­èles de Météo-France offre sans con­tes­ta­tion pos­si­ble le meilleur rap­port per­for­mance / coût numérique du monde.

Si tout va bien, pourquoi s’intéresser à ces sujets numériques et informatiques ?

Philippe Mar­guin­aud : Comme expliqué précédem­ment, la réso­lu­tion et la com­plex­ité des mod­èles de prévi­sion s’accroissent. Or, la fin de la mon­tée régulière en fréquence des processeurs util­isés dans les sys­tèmes de cal­cul (loi de Moore) force les mod­élisa­teurs à utilis­er un nom­bre de processeurs de plus en plus élevé. Ce détail a son impor­tance, et notre noy­au dynamique mon­tre des lim­ites en ter­mes de « scal­a­bil­ité », c’est-à-dire que sa capac­ité à utilis­er des sys­tèmes infor­ma­tiques com­prenant de plus en plus de processeurs pour dimin­uer son temps de resti­tu­tion n’est pas infinie. Ain­si, par exem­ple, le pas­sage de la réso­lu­tion d’Arome de 2,5 km à 1,3 km en 2013 aurait théorique­ment dû requérir une aug­men­ta­tion de puis­sance de l’ordre de 10 ; dans la réal­ité, c’est un fac­teur 14 sur la puis­sance de cal­cul qui a été néces­saire. Notons que les mod­èles « explicites » sont eux aus­si affec­tés par cette perte de scalabilité.

“Les modèles de Météo-France offrent le meilleur rapport
performance / coût numérique du monde”

Quelle peut être l’issue ?

Ludovic Auger : Cette rup­ture dans l’évolution de la tech­nolo­gie, ain­si que d’autres lim­ites ren­con­trées en physique, par exem­ple dans la représen­ta­tion de l’orographie, con­duit Météo-France et les grands cen­tres de prévi­sion à revis­iter les algo­rithmes util­isés dans les noy­aux dynamiques, ain­si qu’à étudi­er leur pos­si­ble implé­men­ta­tion sur des archi­tec­tures de type accéléra­teurs, comme les processeurs graphiques (GPU).

La puissance de calcul attribuée à la météorologie opérationnelle demeure donc un enjeu vital de progrès ?

Ludovic Auger : Oui, par exem­ple, dans le cadre du pro­jet Dya­mond (inter­com­para­i­son de mod­èles globaux non hydro­sta­tiques https://www.esiwace.eu/services/dyamond) en 2018, une sim­u­la­tion glob­ale à l’échelle 2,5 km de cinquante jours a été menée avec suc­cès et a req­uis l’utilisation de 300 nœuds équipés de processeurs Intel © Broad­well inté­grés dans la machine « Beau­fix » instal­lée dans les locaux de Météo-France par le con­struc­teur français Bull. Le mod­èle français Arpège a pro­duit des sim­u­la­tions à très fine échelle com­pa­ra­ble aux meilleurs mod­èles mon­di­aux et pour un coût infor­ma­tique sim­i­laire. Cette con­fig­u­ra­tion à très haute réso­lu­tion, dont l’intérêt est avéré pour de mul­ti­ples appli­ca­tions, ne sera pas util­isée opéra­tionnelle­ment avant quinze ans, sous réserve que la puis­sance de cal­cul disponible con­tin­ue à croître régulière­ment. Arpège dans sa forme actuelle restera com­péti­tif sur cette péri­ode de temps, et nous y tra­vail­lons avec nos homo­logues, notam­ment du CEPMMT.

Quels sont les défis à relever pour initialiser ces modèles du futur, globaux, à résolution kilométrique ?

Yann Michel : Les mod­èles sont ini­tial­isés à par­tir de prévi­sions récentes et d’observations var­iées. Nous changeons actuelle­ment de par­a­digme pour nous appuy­er de plus en plus mas­sive­ment sur des ensem­bles afin de décrire sta­tis­tique­ment les erreurs de nos mod­èles. Le prochain défi est de mieux pren­dre en compte la non-linéar­ité, présente à la fois dans la rela­tion entre le mod­èle et les obser­va­tions et dans le mod­èle lui-même. Cet aspect devient cru­cial aux échelles fines, quand on s’intéresse à l’initialisation des nuages et des précipitations.

Avant du drone Boréal avec sonde tur­bu­lence et veine de prélève­ment pour la mesure d’aérosols (con­fig­u­ra­tion pour l’étude des cylones dans le cadre d’une cam­pagne prévue début 2019).

L’utilisation des observations spatiales, dans un contexte de forte évolution technologique, doit logiquement faire l’objet de nombreuses recherches ?

Philippe Cham­bon : Les tech­nolo­gies disponibles pour l’observation de la Terre depuis l’espace évolu­ent effec­tive­ment très vite. Ces évo­lu­tions con­cer­nent la con­cep­tion des instru­ments de télédé­tec­tion, amenant à une den­sité spa­tiotem­porelle d’observations accrue, mais aus­si la con­cep­tion des plate­formes satel­li­taires qui se minia­turisent. Le nom­bre de mesures disponibles pour con­train­dre les mod­èles chang­era d’ordre de grandeur dans les prochaines années. Des cap­teurs nou­veaux appa­raîtront. Les défis sci­en­tifiques pour exploiter le con­tenu en infor­ma­tion de ces obser­va­tions sont nom­breux. Nous tra­vail­lons dès les phas­es d’appels à idées émis­es par les agences spa­tiales, pré­parons aus­si longtemps que pos­si­ble à l’avance nos out­ils numériques pour qu’ils soient prêts à tir­er le meilleur des obser­va­tions quand elles appa­rais­sent. Les pro­grès de la physique et des cou­plages per­me­t­tent aus­si de mieux exploiter les don­nées mesurées depuis l’espace. Les défis sont aus­si tech­nologiques autour des réseaux de com­mu­ni­ca­tion et du stock­age. Des ques­tions sont égale­ment posées sur l’accès à des don­nées pou­vant être détenues par des opéra­teurs privés, le New Space… Nous veil­lons aus­si ces évo­lu­tions pos­si­bles du marché.

L’amélioration de la physique représentée dans les modèles, traitant les échelles fines et les couplages, permet et impose d’exploiter davantage d’observations spatiales.
Que peut-on attendre de l’intelligence artificielle dans ce registre et plus largement en météorologie ?

Marc Boc­quet : L’IA peut amélior­er le fil­trage et le pré-traite­ment des grandes mass­es d’observations à assim­i­l­er dans les mod­èles. On envis­age égale­ment que des réseaux de neu­rones puis­sent se sub­stituer à des par­ties du mod­èle de prévi­sion par­ti­c­ulière­ment com­plex­es comme les paramétri­sa­tions de la con­vec­tion pro­fonde ou de l’impact de la tur­bu­lence aux échelles non résolues par le mod­èle. On peut aus­si espér­er que l’apprentissage pro­fond soit en mesure d’extraire de l’information résidu­elle des analy­ses météorologiques pro­duites par les méth­odes clas­siques, et ain­si con­tribuer à réduire davan­tage les biais entre le mod­èle et la réal­ité. La com­mu­nauté sci­en­tifique s’organise actuelle­ment pour pro­gress­er sur ces axes et sur d’autres secteurs pour lesquels l’IA sem­ble con­stituer une approche promet­teuse. De nom­breux tests sont démar­rés dans tous les lab­o­ra­toires, et la com­mu­nauté s’organise pour stim­uler le développe­ment de l’IA en géosciences.

Cat­a­pul­t­age du drone Boréal pour l’étude des inter­ac­tions océan-atmo­sphère, lors d’essais dans les Landes.

L’observation apparaît plus que jamais essentielle. Quels objectifs poursuit la recherche ?

Alain Dabas : La météorolo­gie repose sur l’observation. Obser­va­tion pour com­pren­dre la physique des phénomènes et pou­voir les simuler dans les mod­èles numériques, pour définir l’état ini­tial de l’atmosphère pour une prévi­sion, pour car­ac­téris­er l’évolution du cli­mat. Les vari­ables à mesur­er sont nom­breuses et var­iées : les vari­ables de base (pres­sion, tem­péra­ture, humid­ité), la con­cen­tra­tion et la nature des aérosols, la com­po­si­tion chim­ique, notam­ment en gaz à effet de serre, la con­cen­tra­tion et la taille des gouttes d’eau dans les nuages, les pré­cip­i­ta­tions, les flux d’échange d’énergie et de matière entre les sur­faces con­ti­nen­tales ou mar­itimes… Elles doivent aus­si si pos­si­ble cou­vrir tout le globe, sur terre et mer, du sol jusqu’à la stratosphère !

Que se passe-t-il au sol ?

Alain Dabas : La majeure par­tie des obser­va­tions réal­isées au niveau du sol provient de réseaux de cap­teurs opérés par des agences éta­tiques qui échangent gra­tu­ite­ment leurs don­nées. Des sources d’informations alter­na­tives com­men­cent à être disponibles. Mesurées par des cap­teurs embar­qués sur des objets con­nec­tés – cap­teurs de pres­sion sur smart­phone, de tem­péra­ture sur voiture, sta­tions météorologiques grand pub­lic – ou dérivées de sys­tèmes non pen­sés pour la météorolo­gie – par exem­ple l’atténuation de puis­sance des fais­ceaux hertziens entre relais télé­phoniques, qui per­met de remon­ter à des taux d’humidité… – ces don­nées vont se mul­ti­pli­er, mais posent des prob­lèmes de qual­ité, de vol­ume et de pro­priétés qu’il faut résoudre pour en tir­er pleine­ment profit.

“La masse de données d’observations météorologiques disponibles
devrait exploser dans le futur”

Observe-t-on cette tendance en altitude aussi ?

Alain Dabas : En alti­tude, la source prin­ci­pale provient des satel­lites météorologiques. Ils embar­quent des cap­teurs de télédé­tec­tion de plus en plus sophis­tiqués : radiomètres imageurs optiques fonc­tion­nant dans l’UV, le vis­i­ble ou l’infrarouge avec des réso­lu­tions spec­trales de plus en plus fines, radars à hautes fréquences (de 10 à 100 GHz) et des lidars. Tous ces sys­tèmes doivent pou­voir être étalon­nés régulière­ment pour ne pas intro­duire de dérive instru­men­tale dans les longues séries et s’appuient pour cela sur le réseau mon­di­al de radiosondage (sonde accrochée à un bal­lon gon­flé à l’hélium ou l’hydrogène, trans­met­tant ses mesures in situ par radio). Le sys­tème est com­plété par des mesures sur avion de ligne par des cap­teurs pro­pres (mesure de la vitesse de l’air par sonde Pitot par exem­ple) ou embar­qués spé­ci­fique­ment pour cela (mesures de com­po­si­tion atmo­sphérique par le pro­gramme Iagos par exem­ple). D’autres hori­zons s’ouvrent, avec les satel­lites bon marché et de très petite taille, sujets sur lesquels nous exerçons une veille active avec les agences spatiales.

Sonde de tur­bu­lence portée par un bal­lon cap­tif lors d’une cam­pagne de mesures.

New Space, mais aussi drones, technologies innovantes de mesure, miniaturisation…,
autant de sujets faisant l’objet de travaux ?

Alain Dabas : Oui, ce sont autant de sujets sur lesquels nous tra­vail­lons avec nos parte­naires académiques et indus­triels, toulou­sains, et qui font l’objet de prospec­tives avec l’Insu et le Cnes.

L’utilisation des drones se développe, réservée pour l’instant à des obser­va­tions de recherche dans des vol­umes dif­fi­ciles d’accès (vols dans des zones pol­luées, à quelques mètres au-dessus de la sur­face océanique…) : moyen­nant un savoir-faire con­séquent de minia­tur­i­sa­tion des cap­teurs, ces plate­formes sont fasci­nantes pour son­der l’atmosphère. La même logique per­met d’imaginer embar­quer des cap­teurs dans le futur sur des avions solaires ou des dirige­ables volant plusieurs mois de suite en basse stratosphère, et sur des nuées de nanosatellites.

La masse de don­nées d’observations météorologiques disponibles devrait explos­er dans le futur. Ces vol­umes astronomiques posent des ques­tions de trans­mis­sion et de traite­ment. De la com­pres­sion de don­nées embar­quée sur les cap­teurs devra être mise en œuvre, et des tech­niques de traite­ment adap­tées au big data devront être dévelop­pées pour les appli­ca­tions météorologiques.

La volumétrie est aussi un sujet pour les ensembles de simulation qui sont réalisés, et plus fondamentalement se pose la question de leur exploitation et de l’extraction de l’information ?

François Bout­ti­er : Cette approche de mod­éli­sa­tion avec des ensem­bles con­stitue un change­ment de par­a­digme pour les util­isa­teurs de la météorolo­gie. C’est une évo­lu­tion mar­quante pour la prévi­sion météorologique. Pour bien utilis­er une prévi­sion, cette dernière doit être la meilleure pos­si­ble, mais il faut aus­si con­naître ses incer­ti­tudes, qui changent chaque jour. Cela con­cerne les phénomènes à la lim­ite de ce qui est prévis­i­ble (orages, brouil­lards, prévi­sions à plusieurs jours d’avance…), mais aus­si les phénomènes à fort impact : par exem­ple, si les pluies prévues sont à la lim­ite du déclenche­ment de crues cat­a­strophiques, mais que leur inten­sité est incer­taine, on a intérêt à émet­tre un aver­tisse­ment si les coûts d’une alerte man­quée excè­dent ceux d’une fausse alarme.

Cette approche de la prévi­sion, ana­logue aux tech­niques finan­cières, néces­site des out­ils de prévi­sion dédiés à la pro­duc­tion d’information météorologique prob­a­biliste. Leur fer de lance est effec­tive­ment la prévi­sion d’ensemble, qui con­siste à injecter intel­ligem­ment du bruit numérique dans les mod­èles de prévi­sion : leur réac­tion à ce bruit va indi­quer en temps réel l’incertitude sur tous les paramètres météorologiques mod­élisés. Dans cette approche, il est moins impor­tant de pro­duire la meilleure prévi­sion caté­gorique que d’évaluer hon­nête­ment ce que l’on sait ou pas sur la prévi­sion. Ce type d’information a une grande valeur pour les acteurs économiques et la préven­tion des cat­a­stro­phes… La prévi­sion d’ensemble est donc en train de rem­plac­er pro­gres­sive­ment les algo­rithmes plus tra­di­tion­nels de prévi­sion, déter­min­istes. C’est une révo­lu­tion en cours des tech­niques de prévi­sion, mais aus­si de la com­mu­ni­ca­tion de l’information météorologique, qu’il faut désor­mais présen­ter de manière prob­a­biliste mais intel­li­gi­ble, y com­pris pour les usagers qui s’en servi­ront in fine pour des déci­sions caté­goriques. Les recherch­es dans ces domaines sont pas­sion­nantes car elles touchent à de mul­ti­ples dis­ci­plines et doivent impéra­tive­ment se faire en lien avec les utilisateurs.

Poster un commentaire