Allumage d'une chambre de combustion (réel et calculé)

Modélisation et simulation en ingénierie et sciences physiques

Dossier : Simulation et supercalculateursMagazine N°732 Février 2018
Par Patrick Le TALLEC (73)

Le tra­vail de sim­u­la­tion exige de pren­dre de grandes pré­cau­tions. Ce n’est pas une action « presse-bou­ton » qui per­met de brandir ensuite avec une con­fi­ance aveu­gle de belles images de résul­tats. On doit s’as­sur­er à chaque fois du respect des exi­gences sci­en­tifiques et de la maîtrise du niveau d’erreur et d’incertitude.

Un nou­veau marché se des­sine en ingénierie, con­cen­tré autour de quelques grands édi­teurs de logi­ciels (Ansys, Nas­tran, Abaqus) omniprésents et des sociétés de ser­vices assur­ant l’interfaçage avec les besoins des dif­férents bureaux d’études.

Une société comme Simu­lia créa­teur d’Abaqus, fondée en 1977 par Dave Hib­bitt et rachetée par Das­sault Sys­tèmes en 2005, a un chiffre d’affaires de plusieurs cen­taines de mil­lions d’euros dans un marché mon­di­al estimé par CIM­da­ta et par de nom­breux ana­lystes à plus de 5 mil­liards de dollars. 

De même, dans les grands domaines sci­en­tifiques (météorolo­gie, chimie), il existe des logi­ciels de référence soit com­mer­ci­aux soit libres d’accès et dévelop­pés par des lab­o­ra­toires publics inter­na­tionaux (VASP pour la chimie quan­tique, LAMMPS en dynamique moléculaire). 

REPÈRES

Tous les domaines d’activité sont concernés par la simulation. On simule ainsi le fonctionnement en roulage nominal ou extrême d’un pneumatique, l’environnement acoustique d’une automobile, des amerrissages d’avion de ligne, la diffusion grande échelle d’une pollution aérienne, des comportements accidentels de réacteurs nucléaires, l’effet potentiel d’un incendie dans un bâtiment, la résistance au choc d’un téléphone portable, le comportement local d’une microsoudure dans un circuit électronique. On assiste aussi à un développement récent vers la microélectronique de masse.

GAINS DE TEMPS ET D’ARGENT

La sim­u­la­tion ouvre de nou­veaux hori­zons : con­cevoir plus vite, mieux valid­er les domaines d’utilisation des pro­duits, réduire les essais, tester de nou­veaux con­cepts, mieux com­pren­dre le fonc­tion­nement en ayant accès à des infor­ma­tions inac­ces­si­bles (situées à l’intérieur de l’objet ou observ­ables à des échelles sub­mi­croniques ou kilo­métriques dif­fi­ciles d’accès), étudi­er des sit­u­a­tions acci­den­telles ou des util­i­sa­tions en mode hos­tile inac­ces­si­bles à l’expérience.

“ L’absence de modèle sous-jacent empêche une validation scientifique des résultats obtenus ”

Dans cet envi­ron­nement, l’ingénieur peut-il main­tenant se con­tenter d’un tra­vail de mise en don­nées de son prob­lème, avant de cli­quer pour obtenir son résul­tat, et de le visu­alis­er sous la forme de belles images ou vidéos en couleur ? 

De manière plus générale, que cachent les belles images de sim­u­la­tion ? Quelles tech­niques mobilisent-elles ? À quoi nous don­nent-elles accès ? Peut-on leur faire con­fi­ance ? Quels sont les axes de développement ? 

UNE GRANDE EXIGENCE SCIENTIFIQUE

La pre­mière leçon de trente années de sim­u­la­tions à grande échelle est le respect des exi­gences scientifiques. 

Elles néces­si­tent un fonde­ment physique, un cadre math­é­ma­tique pré­cis, l’accès à des don­nées expéri­men­tales per­me­t­tant de paramétr­er et valid­er le mod­èle, mais aus­si une com­plex­ité maîtrisée, et la capac­ité à trans­former des algo­rithmes en out­il de sim­u­la­tion par prise en compte des con­traintes et détails tech­nologiques (qui dépen­dent des appli­ca­tions et des métiers). 

ALLUMAGE CIRCULAIRE D’UNE CHAMBRE DE COMBUSTION ANNULAIRE


© LABORATOIRE EM2C, ÉCOLE CENTRALE SUPÉLEC

Le système désigné sous le nom de MICCA est constitué d’un foyer annulaire muni de parois latérales cylindriques en quartz permettant un accès optique à la zone de combustion. Le fond de chambre est équipé de 16 injecteurs comportant chacun une vrille. Les injecteurs sont alimentés par un mélange d’air et de propane.
Les colonnes 1 et 3 montrent des instantanés de l’émission de lumière de la flamme, représentative de l’intensité de la réaction (le niveau d’intensité est représenté sur une gamme de couleurs allant du brun au jaune clair). Ces images donnent la position de la flamme au cours de l’allumage circulaire (light-round).
Les colonnes 2 et 4 donnent les résultats de calculs réalisés par simulation des grandes échelles (Large Eddy Simulation). La flamme est représentée par une isosurface de température colorée par la vitesse axiale. Le code AVBP du Cerfacs et d’IFPEN est utilisé pour ces simulations. Le système est discrétisé sur 55 millions de nœuds correspondant à 310 millions de mailles. Le calcul demande 1 million d’heures (plus d’un siècle) et il est réalisé en parallèle en quelques mois sur 6 000 processeurs.

DES MODÈLES CONFORMES AUX LOIS DE LA PHYSIQUE

L’objectif est de simuler le réel, il faut donc d’abord en avoir un mod­èle, sous forme d’équations (lois de bilan et/ou équa­tions aux dérivées par­tielles) qui tran­scrivent les grandes lois de con­ser­va­tion physique (masse, quan­tité de mou­ve­ment, énergie, entropie) et qui pren­nent en compte les com­porte­ments réels des matériaux. 

“ Le grand danger est de faire une confiance aveugle aux résultats obtenus ”

À défaut, la sim­u­la­tion est lim­itée à un domaine étroit d’utilisation validé après un fas­ti­dieux cal­i­brage, et qui devient caduque dès que les paramètres de la sim­u­la­tion changent. Par ailleurs, l’absence de mod­èle sous-jacent empêche une val­i­da­tion sci­en­tifique des résul­tats obtenus. 

L’activité de recherche sur le développe­ment de mod­èles adap­tés a été par­ti­c­ulière­ment féconde les trente dernières années, avec par exem­ple en mécanique une prise en compte de phénomènes clés comme la plas­tic­ité, la fatigue, l’endommagement, les effets de tem­péra­ture, la tur­bu­lence, la combustion. 

DES TECHNIQUES MATHÉMATIQUEMENT FONDÉES

Les tech­niques de sim­u­la­tion s’appuient aus­si sur de grandes tech­niques numériques qui ont été intro­duites et dévelop­pées dans les cinquante dernières années et qui sont indis­pens­ables à leur mise en œuvre : méth­ode des élé­ments finis, des dif­férences finies, des vol­umes finis, méth­odes particulaires… 

Un ingénieur peut-il se contenter de travailler sur son ordinateur ?
Un ingénieur peut-il se con­tenter de tra­vailler sur son ordinateur ?
© GOODLUZ

Ces tech­niques tra­vail­lent sur un même principe de base : une mul­ti­tude (plusieurs mil­lions, voire quelques mil­liards) d’agents en inter­ac­tion qui effectuent des opéra­tions sim­ples. Il s’agit d’une écri­t­ure locale du principe des puis­sances virtuelles sur un grand nom­bre de géométries élé­men­taires pour la méth­ode des élé­ments finis, de la véri­fi­ca­tion en un grand nom­bre de points de dis­créti­sa­tion d’une équa­tion aux dérivées par­tielles pour la méth­ode des dif­férences finies, de l’écriture de lois de bilan sur des mil­lions de vol­umes de con­trôle pour les vol­umes finis, d’intégration élé­men­taire sur des mil­lions de par­tic­ules des lois de la dynamique du point avec sim­u­la­tion déter­min­iste ou aléa­toire des col­li­sions pour les méth­odes particulaires. 

Un cadre math­é­ma­tique adap­té est néces­saire pour démon­tr­er le pas­sage à la lim­ite quand le nom­bre d’agents aug­mente, pour garan­tir la sta­bil­ité du cal­cul (robustesse aux bruits, aux impré­ci­sions numériques ou aux erreurs de don­nées) et pour amélior­er l’efficacité (réduire le nom­bre d’opérations ou le temps de cal­cul sur une archi­tec­ture don­née) à niveau de qual­ité égale. 

C’est le domaine du cal­cul sci­en­tifique et de l’analyse numérique. Pour être effi­cace, il faut dis­pos­er d’un tel cadre, savoir gér­er la dis­créti­sa­tion (à savoir le nom­bre et la local­i­sa­tion des instants physiques et des points en espace util­isés dans les sim­u­la­tions), avoir à dis­po­si­tion des algo­rithmes robustes et rapi­des d’algèbre linéaire afin d’effectuer les nom­breuses opéra­tions matricielles rencontrées. 

NOUVELLES APPROCHES

Structure composite tissée à calculerCALCUL MULTIÉCHELLES D’UNE STRUCTURE COMPOSITE TISSÉE

Dans cet exemple, il y a prise en compte en chaque point du comportement mécanique élémentaire de chacune des mèches du tissu et leurs interactions locales — Safran Group Simulation.

Les pro­grès récents de l’analyse numérique ont per­mis de dévelop­per des tech­niques de mail­lage adap­tatif, de meilleurs solveurs non linéaires, des méth­odes de décom­po­si­tion de domaines per­me­t­tant de réduire la taille et de par­al­lélis­er les calculs. 

Cela per­met de réduire le nom­bre d’inconnues néces­saires à la solu­tion du prob­lème (plusieurs mil­lions d’inconnues à iden­ti­fi­er sur plusieurs mil­liers de pas de temps) et d’obtenir une solu­tion avec un nom­bre d’opérations élé­men­taires pro­por­tion­nel au nom­bre d’inconnues et non pas au nom­bre d’inconnues au car­ré comme on peut l’obtenir avec des approches plus naïves. 

L’INDISPENSABLE MAÎTRISE DES RÉSULTATS

Reste à savoir maîtris­er le niveau d’erreur et d’incertitude dans les résul­tats obtenus. Il s’agit d’un point clé des sim­u­la­tions actuelles. Le grand dan­ger avec les nou­velles tech­niques de con­cep­tion est de faire une con­fi­ance aveu­gle aux résul­tats obtenus. 

Erreurs ou impré­ci­sions dans les don­nées ou hypothès­es tacites inap­pro­priées peu­vent con­sid­érable­ment fauss­er le résul­tat. Les acci­dents indus­triels majeurs sont ain­si sou­vent liés à des analy­ses de fonc­tion­nement ou de sûreté s’appuyant sur des sim­u­la­tions mal validées. 

Citons par exem­ple le naufrage de la plate­forme Deep­wa­ter Hori­zon au Texas ou l’effondrement du ter­mi­nal 2E à Rois­sy. Pour sur­mon­ter ces dan­gers, il est pos­si­ble de s’appuyer sur des tech­niques de cal­culs d’erreur et d’incertitude, mais celles-ci sont encore en développe­ment, et ne sont pas disponibles en exploitation. 

De plus, elles ne rem­placeront jamais l’art de l’ingénieur pour détecter les inco­hérences de mod­èle ou de résul­tats. L’ingénieur mod­erne doit savoir valid­er un résul­tat ou remet­tre en cause les nom­breuses hypothès­es et approx­i­ma­tions sous-jacentes à sa modélisation. 

La sim­u­la­tion sur des sujets cri­tiques doit aus­si se con­fron­ter à des essais en petit nom­bre, mais per­ti­nents et bien maîtrisés. 

DE NOUVELLES FRONTIÈRES

Où sont les enjeux du futur dans un paysage où nous pou­vons dis­pos­er de mod­èles per­ti­nents, de tech­niques numériques effi­caces, de logi­ciels de sim­u­la­tion de qual­ité indus­trielle, d’interfaces métiers ? Nous venons de voir une pre­mière fron­tière : savoir garder la maîtrise de sa sim­u­la­tion et éval­uer sa per­ti­nence et sa qualité. 

“ Les simulations doivent marier des modèles à grande échelle et des modèles à petite échelle ”

La deux­ième con­cerne les sim­u­la­tions mul­ti­échelles ou mul­ti­physiques. Dans de nom­breuses appli­ca­tions cri­tiques, le com­porte­ment glob­al du sys­tème est forte­ment influ­encé par les phénomènes mis en jeu à petite échelle, phénomènes qui peu­vent cou­pler divers domaines sci­en­tifiques : c’est le cas de la tur­bu­lence en aéro­dy­namique ou en météorolo­gie, c’est aus­si le cas en sci­ence des matéri­aux où il est néces­saire de maîtris­er la microstruc­ture du matéri­au (du nanomètre au micron) pour obtenir un matéri­au per­for­mant et durable, ou pour lui don­ner des fonc­tions nouvelles. 

Dans ces deux sit­u­a­tions, les sim­u­la­tions doivent mari­er des mod­èles à grande échelle et des mod­èles à petite échelle. 

On doit alors s’appuyer sur des tech­niques nou­velles telles les Large Eddy Sim­u­la­tions (LES) en mécanique des flu­ides, les tech­niques d’homogénéisation en mécanique des solides ou en élec­tro­mag­né­tique des milieux dens­es, et savoir maîtris­er des cou­plages forts entre ondes et matière par exemple. 

CONFRONTER SIMULATIONS ET OBSERVATIONS

Une dernière fron­tière par­ti­c­ulière­ment impor­tante con­cerne enfin le dia­logue essais-cal­culs et plus générale­ment la maîtrise des échanges entre sim­u­la­tion et obser­va­tion. Les tech­niques de cal­cul ont con­sid­érable­ment évolué en trente ans. 

Il en est de même des obser­va­tions, avec le développe­ment sys­té­ma­tique des obser­va­tions à dif­férentes échelles et du traite­ment d’image.

La vélocimétrie laser, le développe­ment des caméras rapi­des, les obser­va­tions sous micro­scope élec­tron­ique de matéri­aux soumis à charge­ment, les essais sous rayons X, sous caméra infrarouge ou sous tomo­graphe per­me­t­tent de mesur­er des champs de vitesse, de défor­ma­tion ou de tem­péra­ture en tout point de l’espace, qu’il est alors pos­si­ble de con­fron­ter ou de cou­pler au cal­cul (encadré ci-dessous) soit pour iden­ti­fi­er des paramètres incon­nus, soit pour valid­er des résul­tats de simulation. 

Cœur avec ou sans pacemaker (calcul de l'effet)CALCUL PRÉDICTIF

Dans cet exemple de calcul prédictif, on part d’un modèle cardiaque sur base des données recueillies sur une patiente. On évalue le gain de fonction cardiaque, à travers l’augmentation du débit cardiaque, lors de la pose d’un pacemaker bipolaire (deux électrodes). Cette simulation de propagation de signal électrique associée à un calcul de débit cardiaque compare le fonctionnement du cœur avant et après pose de pacemaker.
Obtenue par le simulateur cardiaque par éléments finis de l’équipe M3DISIM (conjointe entre Inria et l’École polytechnique), elle est un des premiers résultats de simulation prédictive à partir des données recueillies sur une patiente lors d’une intervention de resynchronisation cardiaque au Saint-Thomas Hospital de Londres.
Ce travail illustre les perspectives du dialogue essais-calculs qui se met actuellement en place.

Poster un commentaire