Allumage d'une chambre de combustion (réel et calculé)

Modélisation et simulation en ingénierie et sciences physiques

Dossier : Simulation et supercalculateursMagazine N°732 Février 2018
Par Patrick Le TALLEC (73)

Le tra­vail de simu­la­tion exige de prendre de grandes pré­cau­tions. Ce n’est pas une action « presse-bou­ton » qui per­met de bran­dir ensuite avec une confiance aveugle de belles images de résul­tats. On doit s’as­su­rer à chaque fois du res­pect des exi­gences scien­ti­fiques et de la maî­trise du niveau d’erreur et d’incertitude.

Un nou­veau mar­ché se des­sine en ingé­nie­rie, concen­tré autour de quelques grands édi­teurs de logi­ciels (Ansys, Nas­tran, Aba­qus) omni­pré­sents et des socié­tés de ser­vices assu­rant l’interfaçage avec les besoins des dif­fé­rents bureaux d’études.

Une socié­té comme Simu­lia créa­teur d’Abaqus, fon­dée en 1977 par Dave Hib­bitt et rache­tée par Das­sault Sys­tèmes en 2005, a un chiffre d’affaires de plu­sieurs cen­taines de mil­lions d’euros dans un mar­ché mon­dial esti­mé par CIM­da­ta et par de nom­breux ana­lystes à plus de 5 mil­liards de dollars. 

De même, dans les grands domaines scien­ti­fiques (météo­ro­lo­gie, chi­mie), il existe des logi­ciels de réfé­rence soit com­mer­ciaux soit libres d’accès et déve­lop­pés par des labo­ra­toires publics inter­na­tio­naux (VASP pour la chi­mie quan­tique, LAMMPS en dyna­mique moléculaire). 

REPÈRES

Tous les domaines d’activité sont concernés par la simulation. On simule ainsi le fonctionnement en roulage nominal ou extrême d’un pneumatique, l’environnement acoustique d’une automobile, des amerrissages d’avion de ligne, la diffusion grande échelle d’une pollution aérienne, des comportements accidentels de réacteurs nucléaires, l’effet potentiel d’un incendie dans un bâtiment, la résistance au choc d’un téléphone portable, le comportement local d’une microsoudure dans un circuit électronique. On assiste aussi à un développement récent vers la microélectronique de masse.

GAINS DE TEMPS ET D’ARGENT

La simu­la­tion ouvre de nou­veaux hori­zons : conce­voir plus vite, mieux vali­der les domaines d’utilisation des pro­duits, réduire les essais, tes­ter de nou­veaux concepts, mieux com­prendre le fonc­tion­ne­ment en ayant accès à des infor­ma­tions inac­ces­sibles (situées à l’intérieur de l’objet ou obser­vables à des échelles sub­mi­cro­niques ou kilo­mé­triques dif­fi­ciles d’accès), étu­dier des situa­tions acci­den­telles ou des uti­li­sa­tions en mode hos­tile inac­ces­sibles à l’expérience.

“ L’absence de modèle sous-jacent empêche une validation scientifique des résultats obtenus ”

Dans cet envi­ron­ne­ment, l’ingénieur peut-il main­te­nant se conten­ter d’un tra­vail de mise en don­nées de son pro­blème, avant de cli­quer pour obte­nir son résul­tat, et de le visua­li­ser sous la forme de belles images ou vidéos en couleur ? 

De manière plus géné­rale, que cachent les belles images de simu­la­tion ? Quelles tech­niques mobi­lisent-elles ? À quoi nous donnent-elles accès ? Peut-on leur faire confiance ? Quels sont les axes de développement ? 

UNE GRANDE EXIGENCE SCIENTIFIQUE

La pre­mière leçon de trente années de simu­la­tions à grande échelle est le res­pect des exi­gences scientifiques. 

Elles néces­sitent un fon­de­ment phy­sique, un cadre mathé­ma­tique pré­cis, l’accès à des don­nées expé­ri­men­tales per­met­tant de para­mé­trer et vali­der le modèle, mais aus­si une com­plexi­té maî­tri­sée, et la capa­ci­té à trans­for­mer des algo­rithmes en outil de simu­la­tion par prise en compte des contraintes et détails tech­no­lo­giques (qui dépendent des appli­ca­tions et des métiers). 

ALLUMAGE CIRCULAIRE D’UNE CHAMBRE DE COMBUSTION ANNULAIRE


© LABORATOIRE EM2C, ÉCOLE CENTRALE SUPÉLEC

Le système désigné sous le nom de MICCA est constitué d’un foyer annulaire muni de parois latérales cylindriques en quartz permettant un accès optique à la zone de combustion. Le fond de chambre est équipé de 16 injecteurs comportant chacun une vrille. Les injecteurs sont alimentés par un mélange d’air et de propane.
Les colonnes 1 et 3 montrent des instantanés de l’émission de lumière de la flamme, représentative de l’intensité de la réaction (le niveau d’intensité est représenté sur une gamme de couleurs allant du brun au jaune clair). Ces images donnent la position de la flamme au cours de l’allumage circulaire (light-round).
Les colonnes 2 et 4 donnent les résultats de calculs réalisés par simulation des grandes échelles (Large Eddy Simulation). La flamme est représentée par une isosurface de température colorée par la vitesse axiale. Le code AVBP du Cerfacs et d’IFPEN est utilisé pour ces simulations. Le système est discrétisé sur 55 millions de nœuds correspondant à 310 millions de mailles. Le calcul demande 1 million d’heures (plus d’un siècle) et il est réalisé en parallèle en quelques mois sur 6 000 processeurs.

DES MODÈLES CONFORMES AUX LOIS DE LA PHYSIQUE

L’objectif est de simu­ler le réel, il faut donc d’abord en avoir un modèle, sous forme d’équations (lois de bilan et/ou équa­tions aux déri­vées par­tielles) qui trans­crivent les grandes lois de conser­va­tion phy­sique (masse, quan­ti­té de mou­ve­ment, éner­gie, entro­pie) et qui prennent en compte les com­por­te­ments réels des matériaux. 

“ Le grand danger est de faire une confiance aveugle aux résultats obtenus ”

À défaut, la simu­la­tion est limi­tée à un domaine étroit d’utilisation vali­dé après un fas­ti­dieux cali­brage, et qui devient caduque dès que les para­mètres de la simu­la­tion changent. Par ailleurs, l’absence de modèle sous-jacent empêche une vali­da­tion scien­ti­fique des résul­tats obtenus. 

L’activité de recherche sur le déve­lop­pe­ment de modèles adap­tés a été par­ti­cu­liè­re­ment féconde les trente der­nières années, avec par exemple en méca­nique une prise en compte de phé­no­mènes clés comme la plas­ti­ci­té, la fatigue, l’endommagement, les effets de tem­pé­ra­ture, la tur­bu­lence, la combustion. 

DES TECHNIQUES MATHÉMATIQUEMENT FONDÉES

Les tech­niques de simu­la­tion s’appuient aus­si sur de grandes tech­niques numé­riques qui ont été intro­duites et déve­lop­pées dans les cin­quante der­nières années et qui sont indis­pen­sables à leur mise en œuvre : méthode des élé­ments finis, des dif­fé­rences finies, des volumes finis, méthodes particulaires… 

Un ingénieur peut-il se contenter de travailler sur son ordinateur ?
Un ingé­nieur peut-il se conten­ter de tra­vailler sur son ordinateur ?
© GOODLUZ

Ces tech­niques tra­vaillent sur un même prin­cipe de base : une mul­ti­tude (plu­sieurs mil­lions, voire quelques mil­liards) d’agents en inter­ac­tion qui effec­tuent des opé­ra­tions simples. Il s’agit d’une écri­ture locale du prin­cipe des puis­sances vir­tuelles sur un grand nombre de géo­mé­tries élé­men­taires pour la méthode des élé­ments finis, de la véri­fi­ca­tion en un grand nombre de points de dis­cré­ti­sa­tion d’une équa­tion aux déri­vées par­tielles pour la méthode des dif­fé­rences finies, de l’écriture de lois de bilan sur des mil­lions de volumes de contrôle pour les volumes finis, d’intégration élé­men­taire sur des mil­lions de par­ti­cules des lois de la dyna­mique du point avec simu­la­tion déter­mi­niste ou aléa­toire des col­li­sions pour les méthodes particulaires. 

Un cadre mathé­ma­tique adap­té est néces­saire pour démon­trer le pas­sage à la limite quand le nombre d’agents aug­mente, pour garan­tir la sta­bi­li­té du cal­cul (robus­tesse aux bruits, aux impré­ci­sions numé­riques ou aux erreurs de don­nées) et pour amé­lio­rer l’efficacité (réduire le nombre d’opérations ou le temps de cal­cul sur une archi­tec­ture don­née) à niveau de qua­li­té égale. 

C’est le domaine du cal­cul scien­ti­fique et de l’analyse numé­rique. Pour être effi­cace, il faut dis­po­ser d’un tel cadre, savoir gérer la dis­cré­ti­sa­tion (à savoir le nombre et la loca­li­sa­tion des ins­tants phy­siques et des points en espace uti­li­sés dans les simu­la­tions), avoir à dis­po­si­tion des algo­rithmes robustes et rapides d’algèbre linéaire afin d’effectuer les nom­breuses opé­ra­tions matri­cielles rencontrées. 

NOUVELLES APPROCHES

Structure composite tissée à calculerCALCUL MULTIÉCHELLES D’UNE STRUCTURE COMPOSITE TISSÉE

Dans cet exemple, il y a prise en compte en chaque point du comportement mécanique élémentaire de chacune des mèches du tissu et leurs interactions locales — Safran Group Simulation.

Les pro­grès récents de l’analyse numé­rique ont per­mis de déve­lop­per des tech­niques de maillage adap­ta­tif, de meilleurs sol­veurs non linéaires, des méthodes de décom­po­si­tion de domaines per­met­tant de réduire la taille et de paral­lé­li­ser les calculs. 

Cela per­met de réduire le nombre d’inconnues néces­saires à la solu­tion du pro­blème (plu­sieurs mil­lions d’inconnues à iden­ti­fier sur plu­sieurs mil­liers de pas de temps) et d’obtenir une solu­tion avec un nombre d’opérations élé­men­taires pro­por­tion­nel au nombre d’inconnues et non pas au nombre d’inconnues au car­ré comme on peut l’obtenir avec des approches plus naïves. 

L’INDISPENSABLE MAÎTRISE DES RÉSULTATS

Reste à savoir maî­tri­ser le niveau d’erreur et d’incertitude dans les résul­tats obte­nus. Il s’agit d’un point clé des simu­la­tions actuelles. Le grand dan­ger avec les nou­velles tech­niques de concep­tion est de faire une confiance aveugle aux résul­tats obtenus. 

Erreurs ou impré­ci­sions dans les don­nées ou hypo­thèses tacites inap­pro­priées peuvent consi­dé­ra­ble­ment faus­ser le résul­tat. Les acci­dents indus­triels majeurs sont ain­si sou­vent liés à des ana­lyses de fonc­tion­ne­ment ou de sûre­té s’appuyant sur des simu­la­tions mal validées. 

Citons par exemple le nau­frage de la pla­te­forme Deep­wa­ter Hori­zon au Texas ou l’effondrement du ter­mi­nal 2E à Rois­sy. Pour sur­mon­ter ces dan­gers, il est pos­sible de s’appuyer sur des tech­niques de cal­culs d’erreur et d’incertitude, mais celles-ci sont encore en déve­lop­pe­ment, et ne sont pas dis­po­nibles en exploitation. 

De plus, elles ne rem­pla­ce­ront jamais l’art de l’ingénieur pour détec­ter les inco­hé­rences de modèle ou de résul­tats. L’ingénieur moderne doit savoir vali­der un résul­tat ou remettre en cause les nom­breuses hypo­thèses et approxi­ma­tions sous-jacentes à sa modélisation. 

La simu­la­tion sur des sujets cri­tiques doit aus­si se confron­ter à des essais en petit nombre, mais per­ti­nents et bien maîtrisés. 

DE NOUVELLES FRONTIÈRES

Où sont les enjeux du futur dans un pay­sage où nous pou­vons dis­po­ser de modèles per­ti­nents, de tech­niques numé­riques effi­caces, de logi­ciels de simu­la­tion de qua­li­té indus­trielle, d’interfaces métiers ? Nous venons de voir une pre­mière fron­tière : savoir gar­der la maî­trise de sa simu­la­tion et éva­luer sa per­ti­nence et sa qualité. 

“ Les simulations doivent marier des modèles à grande échelle et des modèles à petite échelle ”

La deuxième concerne les simu­la­tions mul­tié­chelles ou mul­ti­phy­siques. Dans de nom­breuses appli­ca­tions cri­tiques, le com­por­te­ment glo­bal du sys­tème est for­te­ment influen­cé par les phé­no­mènes mis en jeu à petite échelle, phé­no­mènes qui peuvent cou­pler divers domaines scien­ti­fiques : c’est le cas de la tur­bu­lence en aéro­dy­na­mique ou en météo­ro­lo­gie, c’est aus­si le cas en science des maté­riaux où il est néces­saire de maî­tri­ser la micro­struc­ture du maté­riau (du nano­mètre au micron) pour obte­nir un maté­riau per­for­mant et durable, ou pour lui don­ner des fonc­tions nouvelles. 

Dans ces deux situa­tions, les simu­la­tions doivent marier des modèles à grande échelle et des modèles à petite échelle. 

On doit alors s’appuyer sur des tech­niques nou­velles telles les Large Eddy Simu­la­tions (LES) en méca­nique des fluides, les tech­niques d’homogénéisation en méca­nique des solides ou en élec­tro­ma­gné­tique des milieux denses, et savoir maî­tri­ser des cou­plages forts entre ondes et matière par exemple. 

CONFRONTER SIMULATIONS ET OBSERVATIONS

Une der­nière fron­tière par­ti­cu­liè­re­ment impor­tante concerne enfin le dia­logue essais-cal­culs et plus géné­ra­le­ment la maî­trise des échanges entre simu­la­tion et obser­va­tion. Les tech­niques de cal­cul ont consi­dé­ra­ble­ment évo­lué en trente ans. 

Il en est de même des obser­va­tions, avec le déve­lop­pe­ment sys­té­ma­tique des obser­va­tions à dif­fé­rentes échelles et du trai­te­ment d’image.

La vélo­ci­mé­trie laser, le déve­lop­pe­ment des camé­ras rapides, les obser­va­tions sous micro­scope élec­tro­nique de maté­riaux sou­mis à char­ge­ment, les essais sous rayons X, sous camé­ra infra­rouge ou sous tomo­graphe per­mettent de mesu­rer des champs de vitesse, de défor­ma­tion ou de tem­pé­ra­ture en tout point de l’espace, qu’il est alors pos­sible de confron­ter ou de cou­pler au cal­cul (enca­dré ci-des­sous) soit pour iden­ti­fier des para­mètres incon­nus, soit pour vali­der des résul­tats de simulation. 

Cœur avec ou sans pacemaker (calcul de l'effet)CALCUL PRÉDICTIF

Dans cet exemple de calcul prédictif, on part d’un modèle cardiaque sur base des données recueillies sur une patiente. On évalue le gain de fonction cardiaque, à travers l’augmentation du débit cardiaque, lors de la pose d’un pacemaker bipolaire (deux électrodes). Cette simulation de propagation de signal électrique associée à un calcul de débit cardiaque compare le fonctionnement du cœur avant et après pose de pacemaker.
Obtenue par le simulateur cardiaque par éléments finis de l’équipe M3DISIM (conjointe entre Inria et l’École polytechnique), elle est un des premiers résultats de simulation prédictive à partir des données recueillies sur une patiente lors d’une intervention de resynchronisation cardiaque au Saint-Thomas Hospital de Londres.
Ce travail illustre les perspectives du dialogue essais-calculs qui se met actuellement en place.

Poster un commentaire