La maîtrise statistique des processus

Dossier : Libres proposMagazine N°563 Mars 2001Par : Jean-Marie GOGUE, professeur à l'Ecole spéciale des Travaux publics

Les grandes écoles, depuis de nom­breuses années, forment les futurs ingé­nieurs et cadres aux méthodes sta­tis­tiques. Bien que tout le monde n’ait pas l’oc­ca­sion de les pra­ti­quer, cha­cun sait qu’elles aident à résoudre de nom­breux pro­blèmes tech­niques dans la recherche et dans l’in­dus­trie. En revanche, les déci­deurs ignorent sou­vent qu’elles per­mettent de réduire faci­le­ment les marges d’in­cer­ti­tude qui s’at­tachent aux pré­vi­sions, notam­ment dans le com­merce, la finance et l’ad­mi­nis­tra­tion. C’est pour­quoi nous allons pré­sen­ter ici des méthodes des­ti­nées par­ti­cu­liè­re­ment aux pré­vi­sions et aux décisions.

Ce ne sont pas des idées nou­velles : elles sont uti­li­sées depuis cin­quante ans sous le titre » MSP » (Maî­trise sta­tis­tique des pro­ces­sus) ou en anglais » SPC » (Sta­tis­ti­cal Pro­cess Control)1. Mais comme elles sont connues presque uni­que­ment des ingé­nieurs qui tra­vaillent dans le domaine de la qua­li­té, on a ten­dance à croire qu’elles ne s’ap­pliquent pas dans les autres domaines, ce qui est mani­fes­te­ment faux. Nous ver­rons par ailleurs qu’elles ne peuvent don­ner de bons résul­tats que si elles s’ac­com­pagnent d’un cer­tain état d’es­prit nom­mé » sens des varia­tions « 2.

Il est utile, pour com­men­cer, de situer la MSP dans l’en­semble des méthodes sta­tis­tiques. Dis­tin­guons tout d’a­bord deux grandes caté­go­ries d’é­tudes sta­tis­tiques : les études énu­mé­ra­tives, ayant pour but de décrire les carac­té­ris­tiques d’une popu­la­tion finie, et les études ana­ly­tiques, ayant pour but d’a­mé­lio­rer un pro­ces­sus. Les études démo­gra­phiques, par exemple, appar­tiennent à la pre­mière caté­go­rie ; les études de mise au point d’un pro­duit dans un labo­ra­toire appar­tiennent à la seconde. Nous ne nous attar­de­rons pas sur la sta­tis­tique énu­mé­ra­tive, si impor­tante qu’elle soit, car notre pro­blème se rat­tache entiè­re­ment à la sta­tis­tique ana­ly­tique ; mais remar­quons dès main­te­nant que la notion de popu­la­tion, essen­tielle dans une étude énu­mé­ra­tive, est mineure dans une étude ana­ly­tique, où les notions de sys­tème et de pro­ces­sus sont pré­do­mi­nantes. Cette dif­fé­rence est rare­ment signa­lée dans les cours de sta­tis­tiques ; nous y reviendrons.

La statistique analytique

La sta­tis­tique ana­ly­tique est née à l’aube du XXe siècle lorsque Karl Pear­son, pro­fes­seur de mathé­ma­tiques au Lon­don Uni­ver­si­ty Col­lege, inven­ta une méthode de test per­met­tant de véri­fier si un ensemble de don­nées numé­riques se rat­tache à un modèle mathé­ma­tique déter­mi­né (sou­vent, en pra­tique, c’est la dis­tri­bu­tion nor­male). Les idées de Pear­son se sont impo­sées rapi­de­ment. Bien que d’autres modes de cal­cul sta­tis­tique soient uti­li­sés aujourd’­hui, grâce à l’in­for­ma­tique, les ingé­nieurs ont presque tous enten­du par­ler du test du » khi-deux « . Cette inven­tion consi­dé­rable a ouvert la voie aux méthodes modernes de pré­vi­sion et de juge­ment sur échan­tillon, que l’on pour­rait défi­nir en quelques mots par la pré­sence d’un inter­valle de varia­tion autour de la moyenne.

Hen­ri Poin­ca­ré a fait remar­quer en 1902 que les sciences natu­relles, depuis des temps très anciens, avaient ten­dance à éli­mi­ner les varia­tions aléa­toires des résul­tats d’une expé­rience. Cette ten­dance sim­pli­fi­ca­trice n’é­tait pas le fait du hasard, mais une option phi­lo­so­phique. L’i­dée était per­ti­nente, car c’est en négli­geant déli­bé­ré­ment dans leurs obser­va­tions une mul­ti­tude de petites varia­tions que les savants ont pu ima­gi­ner des théo­ries qui ont fait pro­gres­ser la connais­sance de la nature. Encore aujourd’­hui, il n’est pas un élève ingé­nieur qui n’ait été ame­né un jour, en séance de tra­vaux pra­tiques, à tra­cer une courbe pas­sant entre des points dis­po­sés irré­gu­liè­re­ment. Mais le fait de prendre en consi­dé­ra­tion les varia­tions aléa­toires avec de nou­veaux outils mathé­ma­tiques (ana­lyse linéaire) a per­mis à la science du XXe siècle de faire un grand bond en avant. C’est effec­ti­ve­ment de cette manière, par exemple, que s’est éla­bo­rée la méca­nique quantique.

À la même époque, William Gos­sett, un col­lègue de Karl Pear­son qui écri­vait sous le pseu­do­nyme de Student, inven­ta une méthode sta­tis­tique consis­tant à com­pa­rer des mesures faites sur deux échan­tillons pré­le­vés dans des lots d’o­ri­gines dif­fé­rentes, afin de faire un choix éco­no­mique. Cette méthode fut appli­quée aus­si­tôt avec suc­cès dans les bras­se­ries Gui­ness pour amé­lio­rer la qua­li­té du produit.

La théo­rie de Student fut la pre­mière uti­li­sa­tion de la variance dans un pro­blème de com­pa­rai­son d’é­chan­tillons. Cer­tains l’op­posent à la loi des grands nombres, parce que les cal­culs de Student n’u­ti­lisent ordi­nai­re­ment qu’un petit nombre de don­nées ; mais en y regar­dant de plus près on voit bien que c’est un faux débat, car cette loi s’ap­plique à un autre type de problème.

Cette loi est sim­ple­ment la tra­duc­tion du théo­rème de Ber­noul­li sui­vant lequel la fré­quence des résul­tats de tirages indé­pen­dants dans une popu­la­tion bino­miale converge en pro­ba­bi­li­té vers la pro­por­tion qui carac­té­rise cette popu­la­tion. Or dans le pro­blème trai­té par Student, il n’existe pas de popu­la­tion, mais un pro­ces­sus qui pro­duit des don­nées. La dif­fé­rence est encore plus évi­dente dès que l’on a com­pris que la loi des grands nombres concerne les études énu­mé­ra­tives tan­dis que la théo­rie de Student concerne les études analytiques.

L’analyse de variance

La théo­rie de Student fut géné­ra­li­sée au bout de quelques années sous le titre d’ana­lyse de variance, afin d’é­tu­dier simul­ta­né­ment plus de deux échan­tillons et plu­sieurs fac­teurs de varia­tion concer­nant un même pro­ces­sus. Vers 1920, Ronald Fisher inven­ta la méthode dite des plans d’ex­pé­rience. Ingé­nieur agro­nome, Fisher avait com­men­cé à tra­vailler au centre de recherches de Rotham­sted, une ferme expé­ri­men­tale de la région de Londres. Les cher­cheurs de cet éta­blis­se­ment vou­laient trou­ver les meilleures méthodes pour culti­ver des légumes et des céréales.

Si les expé­riences avaient été faites dans des serres, en véri­fiant soi­gneu­se­ment la tem­pé­ra­ture, l’hu­mi­di­té et la com­po­si­tion du sol, les conclu­sions n’au­raient pas été appli­cables à des cultures faites dans des condi­tions nor­males. C’est pour­quoi Fisher a déci­dé d’é­tu­dier ce qui se pas­sait en plein champ. Le pro­blème était de réa­li­ser des expé­riences dans des condi­tions fixées par la nature, c’est-à-dire dif­fi­ciles à contrô­ler. Fisher a mon­tré com­ment s’y prendre, en uti­li­sant les variances, et ses idées ont été adop­tées dans le monde entier, notam­ment aux États-Unis.

Les scien­ti­fiques n’ont pas com­pris tout de suite que l’œuvre de Fisher mar­quait un tour­nant déci­sif dans l’his­toire des sciences, et que ses idées ne se limi­taient pas à l’a­gri­cul­ture. Il a mon­tré pour la pre­mière fois com­ment la démarche expé­ri­men­tale pou­vait sor­tir du labo­ra­toire. Ses méthodes ont entraî­né des pro­grès consi­dé­rables en méde­cine et en bio­lo­gie ; à par­tir de 1960, grâce à Tagu­chi, elles ont eu des effets spec­ta­cu­laires dans l’in­dus­trie japonaise.

Après ce rapide sur­vol de la prin­ci­pale branche de la sta­tis­tique des­crip­tive3, nous allons pré­sen­ter la théo­rie des variations.

La théorie des variations et la MSP

Un autre cou­rant de la pen­sée sta­tis­tique est appa­ru à la même époque et dans les mêmes condi­tions. Son inven­teur est Wal­ter Shew­hart, un cher­cheur amé­ri­cain qui tra­vaillait aux Bell Tele­phone Labo­ra­to­ries à New-York. En 1924, la direc­tion tech­nique de cette socié­té avait for­mé un dépar­te­ment d’as­su­rance qua­li­té dont le but était d’op­ti­mi­ser la pro­duc­tion de l’u­sine tout en satis­fai­sant les besoins des clients (ce qui était nova­teur, à l’époque !).

Aucune autre socié­té au monde n’a­vait un dépar­te­ment de ce genre. Tous ses membres étaient de jeunes doc­teurs ès sciences issus des meilleures uni­ver­si­tés. Shew­hart fut char­gé d’é­tu­dier le pro­blème de l’u­ti­li­sa­tion de séries de don­nées pour amé­lio­rer les pro­ces­sus de production.

Publiées en 1931, les conclu­sions de l’é­tude de Shew­hart sont à l’o­ri­gine de la MSP, et plus géné­ra­le­ment de la théo­rie des varia­tions. La MSP est fon­dée sur un nou­veau concept, celui de l’é­tat stable. Il est indis­pen­sable de bien connaître ce concept pour uti­li­ser cor­rec­te­ment la méthode ; pre­nons donc ici le soin de l’expliquer.

Sup­po­sons que l’on enre­gistre une série de résul­tats concer­nant une opé­ra­tion répé­ti­tive, par exemple les ventes heb­do­ma­daires d’une socié­té com­mer­ciale. Les résul­tats seront por­tés sur un gra­phique dans l’ordre chro­no­lo­gique. Une pre­mière défi­ni­tion consiste à dire que la série est dans un état stable quand le fait d’ob­te­nir une série de même pro­fil par des tirages aléa­toires dans une popu­la­tion homo­gène n’est pas une chose excep­tion­nelle. Bien enten­du, cette défi­ni­tion » phy­sique » de l’é­tat stable, cor­res­pon­dant à notre intui­tion, n’est pas uti­li­sable en pratique.

D’autre part le terme » excep­tion­nel » n’est pas satis­fai­sant pour un esprit scien­ti­fique. C’est pour­quoi Shew­hart a fixé des cri­tères de sta­bi­li­té – ou plu­tôt d’ins­ta­bi­li­té – qui se cal­culent à par­tir des valeurs numé­riques de la série expé­ri­men­tale. Le nombre de points requis doit être au moins égal à 30. En appe­lant m la moyenne et s l’é­cart type de la série, les deux prin­ci­paux cri­tères d’ins­ta­bi­li­té sont :

  1. un point est en dehors de l’in­ter­valle [(m – 3s), (m + 3s)] ;
  2. huit points suc­ces­sifs sont du même côté de la moyenne.


Un sys­tème stable se pré­sente comme un sys­tème dont les per­for­mances sont pré­vi­sibles, puisque les don­nées sont dis­tri­buées de façon aléa­toire autour d’une moyenne. Au contraire un sys­tème instable est abso­lu­ment impré­vi­sible, mathé­ma­ti­que­ment parlant.

Il en résulte que la sta­bi­li­té est une chose émi­nem­ment sou­hai­table, et qu’elle doit être recher­chée comme un fac­teur d’é­co­no­mie. On com­prend bien, par exemple, que la sta­bi­li­té des ventes d’une socié­té de dis­tri­bu­tion per­met de mieux gérer les stocks. La sta­bi­li­té est éga­le­ment le point de départ de toute amé­lio­ra­tion rationnelle.

La méthode pro­pre­ment dite se com­pose de deux par­ties. La pre­mière consiste à por­ter un juge­ment sur la sta­bi­li­té de la carac­té­ris­tique consi­dé­rée ; la seconde à remé­dier, le cas échéant, aux causes d’ins­ta­bi­li­té. Le juge­ment sur la sta­bi­li­té entraîne deux approches dif­fé­rentes et complémentaires :

a) sys­tème instable. Stra­té­gie d’ac­tion inten­sive pour iden­ti­fier le plus tôt pos­sible les causes d’ins­ta­bi­li­té, puis les éli­mi­ner autant que pos­sible, ou au moins y remédier ;

b) sys­tème stable. Stra­té­gie de veille pour détec­ter des signes éven­tuels d’ins­ta­bi­li­té. Il est pos­sible éga­le­ment dans un tel sys­tème de dépla­cer la moyenne et de dimi­nuer la varia­bi­li­té, pour des rai­sons économiques.

Tout l’in­té­rêt de la MSP réside dans le choix d’une stra­té­gie effi­cace. Des pro­blèmes existent aus­si bien dans un sys­tème stable que dans un sys­tème instable, mais dans le pre­mier cas ils sont impu­tables au sys­tème lui-même, alors que dans le second ils sont impu­tables à des évé­ne­ments particuliers.

C’est pour­quoi, face à un pro­blème, celui qui ne connaît pas la méthode risque de faire deux types d’er­reurs. Adop­ter une stra­té­gie d’ac­tion inten­sive dans un sys­tème stable, c’est recher­cher des causes qui n’existent pas ; adop­ter une stra­té­gie de veille dans un sys­tème instable, c’est négli­ger des occa­sions favo­rables pour amé­lio­rer le système.

Cer­taines per­sonnes ayant le sens des varia­tions savent adop­ter d’ins­tinct la bonne stra­té­gie, mais dans le doute il est tou­jours pré­fé­rable de por­ter quelques don­nées sur un gra­phique et d’u­ti­li­ser les cri­tères d’instabilité.

L’interaction entre statistique et psychologie

La sta­tis­tique ana­ly­tique, mal­gré l’obs­ti­na­tion de beau­coup de sta­tis­ti­ciens à ne consi­dé­rer que son aspect mathé­ma­tique, est insé­pa­rable de la psy­cho­lo­gie. Par exemple, l’ex­pres­sion » degré de confiance » qui revient si sou­vent dans les cours de sta­tis­tique est mani­fes­te­ment le reflet de notre psy­cho­lo­gie. Il faut être bien naïf pour croire que l’a­na­lyse de variance ou la MSP conduisent à des déci­sions par­fai­te­ment objec­tives. C’est pour­quoi les entre­prises qui veulent les appli­quer de façon méca­nique, comme des » boîtes à outils « , ne peuvent en tirer aucun profit.

La psy­cho­lo­gie est aus­si impor­tante dans la MSP que dans l’a­na­lyse de variance. L’ap­pli­ca­tion de la MSP est géné­ra­le­ment une action col­lec­tive. Si la pre­mière par­tie de la méthode est faite cor­rec­te­ment (ce qui n’est pas tou­jours le cas), un pro­blème appa­raî­tra dans la seconde par­tie quand il fau­dra déci­der de la façon de recher­cher les causes d’ins­ta­bi­li­té. Cer­tains res­pon­sables s’op­po­se­ront peut-être à ce qu’une inves­ti­ga­tion soit faite dans leur dépar­te­ment. Un autre pro­blème se pose­ra ensuite pour éli­mi­ner la cause d’ins­ta­bi­li­té. La direc­tion refu­se­ra peut-être, contre l’a­vis des ingé­nieurs, de faire un inves­tis­se­ment impor­tant mais néces­saire. Ce sont des pro­blèmes psy­cho­lo­giques et poli­tiques qu’il faut sur­mon­ter sous peine d’échec.

La MSP et l’a­na­lyse de variance sont com­plé­men­taires. La théo­rie de l’in­for­ma­tion montre que l’a­na­lyse de variance ne peut s’ap­pli­quer que sur un sys­tème stable ; dans ce cas elle sera uti­li­sée pour amé­lio­rer les per­for­mances en dépla­çant la moyenne et en dimi­nuant la varia­bi­li­té. La MSP ne pré­sente pas grand inté­rêt en agro­no­mie, en méde­cine ou en bio­lo­gie, parce que les sys­tèmes étu­diés sont géné­ra­le­ment stables au départ4. Dans l’in­dus­trie au contraire, où les sys­tèmes ont ten­dance à être instables, la MSP est abso­lu­ment néces­saire pour ouvrir la voie à l’a­na­lyse de variance.

Conclusion

La MSP est conçue pour don­ner à tous les membres d’une entre­prise un lan­gage com­mun qui leur per­met de mieux uti­li­ser les don­nées recueillies sur les pro­ces­sus ; cha­cun tra­vaille alors dans de meilleures conditions.

Cette méthode n’est pas réser­vée à des spé­cia­listes ; on peut même remar­quer qu’elle est vouée à l’é­chec chaque fois que des spé­cia­listes en font une chasse gardée.

Elle est à la por­tée de tous, et cha­cun doit apprendre à la pra­ti­quer de façon intel­li­gente. Un sou­tien per­ma­nent de la direc­tion géné­rale est néces­saire. En retour, la direc­tion géné­rale aura une meilleure vision de l’a­ve­nir parce qu’elle aura affaire plus sou­vent à des sys­tèmes stables.

_______________________________
1. Les socié­tés fran­çaises uti­lisent habi­tuel­le­ment le sigle MSP, mais celles qui tra­vaillent en par­te­na­riat avec des socié­tés étran­gères uti­lisent plu­tôt le sigle SPC.
2. Nous n’a­bor­dons pas ici les méthodes d’aide à la déci­sion ins­pi­rées de la théo­rie des jeux, qui sont utiles dans cer­taines situa­tions mais ne nous concernent pas directement.
3. D’autres méthodes sont uti­li­sées paral­lè­le­ment à l’a­na­lyse de variance : les régres­sions, les cor­ré­la­tions, l’a­na­lyse de cova­riance, etc.
4. Mais de nos jours, où l’on s’in­ter­roge sur la sta­bi­li­té du cli­mat, la MSP pré­sente un regain d’in­té­rêt en agro­no­mie et, bien sûr, en météorologie.

Der­niers livres de l’auteur
Mana­ge­ment de la qua­li­té, Eco­no­mi­ca, 1997.
Le para­digme de la qua­li­té, Eco­no­mi­ca, 1997.
La qua­li­té à l’é­cole, Eco­no­mi­ca, 1998.
Trai­té de la qua­li­té, Eco­no­mi­ca, 2000.

Poster un commentaire