La maîtrise statistique des processus

Dossier : Libres proposMagazine N°563 Mars 2001Par : Jean-Marie GOGUE, professeur à l'Ecole spéciale des Travaux publics

Les grandes écoles, depuis de nom­breuses années, for­ment les futurs ingénieurs et cadres aux méth­odes sta­tis­tiques. Bien que tout le monde n’ait pas l’oc­ca­sion de les pra­ti­quer, cha­cun sait qu’elles aident à résoudre de nom­breux prob­lèmes tech­niques dans la recherche et dans l’in­dus­trie. En revanche, les décideurs ignorent sou­vent qu’elles per­me­t­tent de réduire facile­ment les marges d’in­cer­ti­tude qui s’at­tachent aux prévi­sions, notam­ment dans le com­merce, la finance et l’ad­min­is­tra­tion. C’est pourquoi nous allons présen­ter ici des méth­odes des­tinées par­ti­c­ulière­ment aux prévi­sions et aux décisions.

Ce ne sont pas des idées nou­velles : elles sont util­isées depuis cinquante ans sous le titre ” MSP ” (Maîtrise sta­tis­tique des proces­sus) ou en anglais ” SPC ” (Sta­tis­ti­cal Process Con­trol)1. Mais comme elles sont con­nues presque unique­ment des ingénieurs qui tra­vail­lent dans le domaine de la qual­ité, on a ten­dance à croire qu’elles ne s’ap­pliquent pas dans les autres domaines, ce qui est man­i­feste­ment faux. Nous ver­rons par ailleurs qu’elles ne peu­vent don­ner de bons résul­tats que si elles s’ac­com­pa­g­nent d’un cer­tain état d’e­sprit nom­mé ” sens des vari­a­tions “2.

Il est utile, pour com­mencer, de situer la MSP dans l’ensem­ble des méth­odes sta­tis­tiques. Dis­tin­guons tout d’abord deux grandes caté­gories d’é­tudes sta­tis­tiques : les études énuméra­tives, ayant pour but de décrire les car­ac­téris­tiques d’une pop­u­la­tion finie, et les études ana­ly­tiques, ayant pour but d’amélior­er un proces­sus. Les études démo­graphiques, par exem­ple, appar­ti­en­nent à la pre­mière caté­gorie ; les études de mise au point d’un pro­duit dans un lab­o­ra­toire appar­ti­en­nent à la sec­onde. Nous ne nous attarderons pas sur la sta­tis­tique énuméra­tive, si impor­tante qu’elle soit, car notre prob­lème se rat­tache entière­ment à la sta­tis­tique ana­ly­tique ; mais remar­quons dès main­tenant que la notion de pop­u­la­tion, essen­tielle dans une étude énuméra­tive, est mineure dans une étude ana­ly­tique, où les notions de sys­tème et de proces­sus sont pré­dom­i­nantes. Cette dif­férence est rarement sig­nalée dans les cours de sta­tis­tiques ; nous y reviendrons.

La statistique analytique

La sta­tis­tique ana­ly­tique est née à l’aube du XXe siè­cle lorsque Karl Pear­son, pro­fesseur de math­é­ma­tiques au Lon­don Uni­ver­si­ty Col­lege, inven­ta une méth­ode de test per­me­t­tant de véri­fi­er si un ensem­ble de don­nées numériques se rat­tache à un mod­èle math­é­ma­tique déter­miné (sou­vent, en pra­tique, c’est la dis­tri­b­u­tion nor­male). Les idées de Pear­son se sont imposées rapi­de­ment. Bien que d’autres modes de cal­cul sta­tis­tique soient util­isés aujour­d’hui, grâce à l’in­for­ma­tique, les ingénieurs ont presque tous enten­du par­ler du test du ” khi-deux “. Cette inven­tion con­sid­érable a ouvert la voie aux méth­odes mod­ernes de prévi­sion et de juge­ment sur échan­til­lon, que l’on pour­rait définir en quelques mots par la présence d’un inter­valle de vari­a­tion autour de la moyenne.

Hen­ri Poin­caré a fait remar­quer en 1902 que les sci­ences naturelles, depuis des temps très anciens, avaient ten­dance à élim­in­er les vari­a­tions aléa­toires des résul­tats d’une expéri­ence. Cette ten­dance sim­pli­fi­ca­trice n’é­tait pas le fait du hasard, mais une option philosophique. L’idée était per­ti­nente, car c’est en nég­ligeant délibéré­ment dans leurs obser­va­tions une mul­ti­tude de petites vari­a­tions que les savants ont pu imag­in­er des théories qui ont fait pro­gress­er la con­nais­sance de la nature. Encore aujour­d’hui, il n’est pas un élève ingénieur qui n’ait été amené un jour, en séance de travaux pra­tiques, à trac­er une courbe pas­sant entre des points dis­posés irrégulière­ment. Mais le fait de pren­dre en con­sid­éra­tion les vari­a­tions aléa­toires avec de nou­veaux out­ils math­é­ma­tiques (analyse linéaire) a per­mis à la sci­ence du XXe siè­cle de faire un grand bond en avant. C’est effec­tive­ment de cette manière, par exem­ple, que s’est élaborée la mécanique quantique.

À la même époque, William Gos­sett, un col­lègue de Karl Pear­son qui écrivait sous le pseu­do­nyme de Stu­dent, inven­ta une méth­ode sta­tis­tique con­sis­tant à com­par­er des mesures faites sur deux échan­til­lons prélevés dans des lots d’o­rig­ines dif­férentes, afin de faire un choix économique. Cette méth­ode fut appliquée aus­sitôt avec suc­cès dans les brasseries Gui­ness pour amélior­er la qual­ité du produit.

La théorie de Stu­dent fut la pre­mière util­i­sa­tion de la vari­ance dans un prob­lème de com­para­i­son d’échan­til­lons. Cer­tains l’op­posent à la loi des grands nom­bres, parce que les cal­culs de Stu­dent n’u­tilisent ordi­naire­ment qu’un petit nom­bre de don­nées ; mais en y regar­dant de plus près on voit bien que c’est un faux débat, car cette loi s’ap­plique à un autre type de problème.

Cette loi est sim­ple­ment la tra­duc­tion du théorème de Bernoul­li suiv­ant lequel la fréquence des résul­tats de tirages indépen­dants dans une pop­u­la­tion bino­mi­ale con­verge en prob­a­bil­ité vers la pro­por­tion qui car­ac­térise cette pop­u­la­tion. Or dans le prob­lème traité par Stu­dent, il n’ex­iste pas de pop­u­la­tion, mais un proces­sus qui pro­duit des don­nées. La dif­férence est encore plus évi­dente dès que l’on a com­pris que la loi des grands nom­bres con­cerne les études énuméra­tives tan­dis que la théorie de Stu­dent con­cerne les études analytiques.

L’analyse de variance

La théorie de Stu­dent fut général­isée au bout de quelques années sous le titre d’analyse de vari­ance, afin d’é­tudi­er simul­tané­ment plus de deux échan­til­lons et plusieurs fac­teurs de vari­a­tion con­cer­nant un même proces­sus. Vers 1920, Ronald Fish­er inven­ta la méth­ode dite des plans d’ex­péri­ence. Ingénieur agronome, Fish­er avait com­mencé à tra­vailler au cen­tre de recherch­es de Rotham­st­ed, une ferme expéri­men­tale de la région de Lon­dres. Les chercheurs de cet étab­lisse­ment voulaient trou­ver les meilleures méth­odes pour cul­tiv­er des légumes et des céréales.

Si les expéri­ences avaient été faites dans des ser­res, en véri­fi­ant soigneuse­ment la tem­péra­ture, l’hu­mid­ité et la com­po­si­tion du sol, les con­clu­sions n’au­raient pas été applic­a­bles à des cul­tures faites dans des con­di­tions nor­males. C’est pourquoi Fish­er a décidé d’é­tudi­er ce qui se pas­sait en plein champ. Le prob­lème était de réalis­er des expéri­ences dans des con­di­tions fixées par la nature, c’est-à-dire dif­fi­ciles à con­trôler. Fish­er a mon­tré com­ment s’y pren­dre, en util­isant les vari­ances, et ses idées ont été adop­tées dans le monde entier, notam­ment aux États-Unis.

Les sci­en­tifiques n’ont pas com­pris tout de suite que l’œu­vre de Fish­er mar­quait un tour­nant décisif dans l’his­toire des sci­ences, et que ses idées ne se lim­i­taient pas à l’a­gri­cul­ture. Il a mon­tré pour la pre­mière fois com­ment la démarche expéri­men­tale pou­vait sor­tir du lab­o­ra­toire. Ses méth­odes ont entraîné des pro­grès con­sid­érables en médecine et en biolo­gie ; à par­tir de 1960, grâce à Taguchi, elles ont eu des effets spec­tac­u­laires dans l’in­dus­trie japonaise.

Après ce rapi­de sur­vol de la prin­ci­pale branche de la sta­tis­tique descrip­tive3, nous allons présen­ter la théorie des variations.

La théorie des variations et la MSP

Un autre courant de la pen­sée sta­tis­tique est apparu à la même époque et dans les mêmes con­di­tions. Son inven­teur est Wal­ter She­whart, un chercheur améri­cain qui tra­vail­lait aux Bell Tele­phone Lab­o­ra­to­ries à New-York. En 1924, la direc­tion tech­nique de cette société avait for­mé un départe­ment d’as­sur­ance qual­ité dont le but était d’op­ti­miser la pro­duc­tion de l’u­sine tout en sat­is­faisant les besoins des clients (ce qui était nova­teur, à l’époque !).

Aucune autre société au monde n’avait un départe­ment de ce genre. Tous ses mem­bres étaient de jeunes doc­teurs ès sci­ences issus des meilleures uni­ver­sités. She­whart fut chargé d’é­tudi­er le prob­lème de l’u­til­i­sa­tion de séries de don­nées pour amélior­er les proces­sus de production.

Pub­liées en 1931, les con­clu­sions de l’é­tude de She­whart sont à l’o­rig­ine de la MSP, et plus générale­ment de la théorie des vari­a­tions. La MSP est fondée sur un nou­veau con­cept, celui de l’é­tat sta­ble. Il est indis­pens­able de bien con­naître ce con­cept pour utilis­er cor­recte­ment la méth­ode ; prenons donc ici le soin de l’expliquer.

Sup­posons que l’on enreg­istre une série de résul­tats con­cer­nant une opéra­tion répéti­tive, par exem­ple les ventes heb­do­madaires d’une société com­mer­ciale. Les résul­tats seront portés sur un graphique dans l’or­dre chronologique. Une pre­mière déf­i­ni­tion con­siste à dire que la série est dans un état sta­ble quand le fait d’obtenir une série de même pro­fil par des tirages aléa­toires dans une pop­u­la­tion homogène n’est pas une chose excep­tion­nelle. Bien enten­du, cette déf­i­ni­tion ” physique ” de l’é­tat sta­ble, cor­re­spon­dant à notre intu­ition, n’est pas util­is­able en pratique.

D’autre part le terme ” excep­tion­nel ” n’est pas sat­is­faisant pour un esprit sci­en­tifique. C’est pourquoi She­whart a fixé des critères de sta­bil­ité — ou plutôt d’in­sta­bil­ité — qui se cal­cu­lent à par­tir des valeurs numériques de la série expéri­men­tale. Le nom­bre de points req­uis doit être au moins égal à 30. En appelant m la moyenne et s l’é­cart type de la série, les deux prin­ci­paux critères d’in­sta­bil­ité sont :

  1. un point est en dehors de l’in­ter­valle [(m — 3s), (m + 3s)] ;
  2. huit points suc­ces­sifs sont du même côté de la moyenne.


Un sys­tème sta­ble se présente comme un sys­tème dont les per­for­mances sont prévis­i­bles, puisque les don­nées sont dis­tribuées de façon aléa­toire autour d’une moyenne. Au con­traire un sys­tème insta­ble est absol­u­ment imprévis­i­ble, math­é­ma­tique­ment parlant.

Il en résulte que la sta­bil­ité est une chose éminem­ment souhaitable, et qu’elle doit être recher­chée comme un fac­teur d’é­conomie. On com­prend bien, par exem­ple, que la sta­bil­ité des ventes d’une société de dis­tri­b­u­tion per­met de mieux gér­er les stocks. La sta­bil­ité est égale­ment le point de départ de toute amélio­ra­tion rationnelle.

La méth­ode pro­pre­ment dite se com­pose de deux par­ties. La pre­mière con­siste à porter un juge­ment sur la sta­bil­ité de la car­ac­téris­tique con­sid­érée ; la sec­onde à remédi­er, le cas échéant, aux caus­es d’in­sta­bil­ité. Le juge­ment sur la sta­bil­ité entraîne deux approches dif­férentes et complémentaires :

a) sys­tème insta­ble. Stratégie d’ac­tion inten­sive pour iden­ti­fi­er le plus tôt pos­si­ble les caus­es d’in­sta­bil­ité, puis les élim­in­er autant que pos­si­ble, ou au moins y remédier ;

b) sys­tème sta­ble. Stratégie de veille pour détecter des signes éventuels d’in­sta­bil­ité. Il est pos­si­ble égale­ment dans un tel sys­tème de déplac­er la moyenne et de dimin­uer la vari­abil­ité, pour des raisons économiques.

Tout l’in­térêt de la MSP réside dans le choix d’une stratégie effi­cace. Des prob­lèmes exis­tent aus­si bien dans un sys­tème sta­ble que dans un sys­tème insta­ble, mais dans le pre­mier cas ils sont imputa­bles au sys­tème lui-même, alors que dans le sec­ond ils sont imputa­bles à des événe­ments particuliers.

C’est pourquoi, face à un prob­lème, celui qui ne con­naît pas la méth­ode risque de faire deux types d’er­reurs. Adopter une stratégie d’ac­tion inten­sive dans un sys­tème sta­ble, c’est rechercher des caus­es qui n’ex­is­tent pas ; adopter une stratégie de veille dans un sys­tème insta­ble, c’est nég­liger des occa­sions favor­ables pour amélior­er le système.

Cer­taines per­son­nes ayant le sens des vari­a­tions savent adopter d’in­stinct la bonne stratégie, mais dans le doute il est tou­jours préférable de porter quelques don­nées sur un graphique et d’u­tilis­er les critères d’instabilité.

L’interaction entre statistique et psychologie

La sta­tis­tique ana­ly­tique, mal­gré l’ob­sti­na­tion de beau­coup de sta­tis­ti­ciens à ne con­sid­ér­er que son aspect math­é­ma­tique, est insé­para­ble de la psy­cholo­gie. Par exem­ple, l’ex­pres­sion ” degré de con­fi­ance ” qui revient si sou­vent dans les cours de sta­tis­tique est man­i­feste­ment le reflet de notre psy­cholo­gie. Il faut être bien naïf pour croire que l’analyse de vari­ance ou la MSP con­duisent à des déci­sions par­faite­ment objec­tives. C’est pourquoi les entre­pris­es qui veu­lent les appli­quer de façon mécanique, comme des ” boîtes à out­ils “, ne peu­vent en tir­er aucun profit.

La psy­cholo­gie est aus­si impor­tante dans la MSP que dans l’analyse de vari­ance. L’ap­pli­ca­tion de la MSP est générale­ment une action col­lec­tive. Si la pre­mière par­tie de la méth­ode est faite cor­recte­ment (ce qui n’est pas tou­jours le cas), un prob­lème appa­raî­tra dans la sec­onde par­tie quand il fau­dra décider de la façon de rechercher les caus­es d’in­sta­bil­ité. Cer­tains respon­s­ables s’op­poseront peut-être à ce qu’une inves­ti­ga­tion soit faite dans leur départe­ment. Un autre prob­lème se posera ensuite pour élim­in­er la cause d’in­sta­bil­ité. La direc­tion refusera peut-être, con­tre l’avis des ingénieurs, de faire un investisse­ment impor­tant mais néces­saire. Ce sont des prob­lèmes psy­chologiques et poli­tiques qu’il faut sur­mon­ter sous peine d’échec.

La MSP et l’analyse de vari­ance sont com­plé­men­taires. La théorie de l’in­for­ma­tion mon­tre que l’analyse de vari­ance ne peut s’ap­pli­quer que sur un sys­tème sta­ble ; dans ce cas elle sera util­isée pour amélior­er les per­for­mances en déplaçant la moyenne et en dimin­u­ant la vari­abil­ité. La MSP ne présente pas grand intérêt en agronomie, en médecine ou en biolo­gie, parce que les sys­tèmes étudiés sont générale­ment sta­bles au départ4. Dans l’in­dus­trie au con­traire, où les sys­tèmes ont ten­dance à être insta­bles, la MSP est absol­u­ment néces­saire pour ouvrir la voie à l’analyse de variance.

Conclusion

La MSP est conçue pour don­ner à tous les mem­bres d’une entre­prise un lan­gage com­mun qui leur per­met de mieux utilis­er les don­nées recueil­lies sur les proces­sus ; cha­cun tra­vaille alors dans de meilleures conditions.

Cette méth­ode n’est pas réservée à des spé­cial­istes ; on peut même remar­quer qu’elle est vouée à l’échec chaque fois que des spé­cial­istes en font une chas­se gardée.

Elle est à la portée de tous, et cha­cun doit appren­dre à la pra­ti­quer de façon intel­li­gente. Un sou­tien per­ma­nent de la direc­tion générale est néces­saire. En retour, la direc­tion générale aura une meilleure vision de l’avenir parce qu’elle aura affaire plus sou­vent à des sys­tèmes stables.

_______________________________
1. Les sociétés français­es utilisent habituelle­ment le sigle MSP, mais celles qui tra­vail­lent en parte­nar­i­at avec des sociétés étrangères utilisent plutôt le sigle SPC.
2. Nous n’abor­dons pas ici les méth­odes d’aide à la déci­sion inspirées de la théorie des jeux, qui sont utiles dans cer­taines sit­u­a­tions mais ne nous con­cer­nent pas directement.
3. D’autres méth­odes sont util­isées par­al­lèle­ment à l’analyse de vari­ance : les régres­sions, les cor­réla­tions, l’analyse de covari­ance, etc.
4. Mais de nos jours, où l’on s’in­ter­roge sur la sta­bil­ité du cli­mat, la MSP présente un regain d’in­térêt en agronomie et, bien sûr, en météorologie.

Derniers livres de l’auteur
Man­age­ment de la qual­ité, Eco­nom­i­ca, 1997.
Le par­a­digme de la qual­ité, Eco­nom­i­ca, 1997.
La qual­ité à l’é­cole, Eco­nom­i­ca, 1998.
Traité de la qual­ité, Eco­nom­i­ca, 2000.

Poster un commentaire