Value at risk

Risk Management et transparence des risques financiers

Dossier : La banqueMagazine N°580 Décembre 2002
Par Olivier Le MAROIS (82)
Par Raphaël DOUADY

Le manque de trans­parence des risques, bien plus que les prob­lèmes de compt­abil­ités, est le véri­ta­ble fonde­ment de la crise de con­fi­ance majeure que les marchés financiers ont con­nue en 2002.
La compt­abil­ité même sincère ne peut en soi ren­dre compte des risques pesant sur la valeur future d’une entre­prise. Les fail­lites World­Com et Enron ne résul­tent pas unique­ment de la fraude compt­able, mais bien de la matéri­al­i­sa­tion de risques depuis longtemps quan­tifi­ables, sur lesquels les marchés ont été aveu­gles, faute de trans­parence. Restau­r­er la con­fi­ance des investis­seurs impose donc de généralis­er la trans­parence de risques, au tra­vers d’une exten­sion du risk man­age­ment à la ges­tion d’actifs.
Cette exten­sion se heurte toute­fois aux coûts très élevés de la col­lecte et de la con­sol­i­da­tion des risques le long des chaînes de valeur ajoutée. Elle ne devient en pra­tique pos­si­ble qu’avec le développe­ment d’une représen­ta­tion addi­tive et uni­verselle des risques.

La nécessaire extension du domaine du risk management

L’adéquation des fonds propres

La créa­tiv­ité des marchés financiers en ter­mes d’in­stru­ments dérivés, qui s’est accom­pa­g­née de quelques sin­istres reten­tis­sants, a con­duit la com­mu­nauté finan­cière à se dot­er au cours des années 1990 de nou­velles règles de déter­mi­na­tion des fonds pro­pres min­i­maux req­uis pour men­er une activ­ité ban­caire (Basle I — Cap­i­tal ade­qua­cy). En effet, l’ap­proche tra­di­tion­nelle par ratios de bilan devient totale­ment inap­pro­priée quand se mul­ti­plient à l’in­fi­ni les engage­ments ” hors bilan ” et les effets de levi­er implicites que l’on trou­ve dans tous les instru­ments financiers.

On est donc revenu à une déf­i­ni­tion naturelle des fonds pro­pres req­uis : ils doivent per­me­t­tre de cou­vrir les pertes poten­tielles résul­tant des engage­ments financiers nets. C’est bien là effec­tive­ment la fonc­tion des fonds pro­pres que d’être capa­ble d’ab­sorber les pertes futures. Cette déf­i­ni­tion logique néces­site une quan­tifi­ca­tion de la notion de pertes poten­tielles : c’est la Val­ue at risk.

Les principes déter­mi­nant sa mesure reposent sur une méthodolo­gie rigoureuse et un ensem­ble de pra­tiques éprou­vées, mis en œuvre par une pro­fes­sion recon­nue dans les ban­ques : les risk man­agers.

La budgétisation des risques

Il est essen­tiel pour l’in­vestis­seur d’avoir un pro­fil de risque de son act­if qui soit cohérent avec celui de son pas­sif. Ain­si, jouer l’ar­gent des prochaines vacances en valeurs du nou­veau marché n’est pas recom­mandé. Plus sérieuse­ment, avoir pour une grande com­pag­nie d’as­sur­ances beau­coup d’ac­tions des com­pag­nies qu’elle assure peut être un moyen très sûr de max­imiser son risque en min­imisant ses performances.

Les investis­seurs n’ont certes pas atten­du le risk man­age­ment pour ten­ter d’im­pos­er une con­trainte de risque, en fix­ant des oblig­a­tions de moyens aux ges­tion­naires d’ac­t­ifs, telles que les lim­ites des traders, les man­dats des gérants, la cor­po­rate gov­er­nance pour les dirigeants d’en­tre­prise, etc.

Le prob­lème est que ces oblig­a­tions de moyens n’of­frent pas de garantie réelle en ter­mes d’ex­po­si­tion au risque. Imag­i­nons, par exem­ple, un investis­seur qui ne veut pas de risque pays émer­gents, c’est-à-dire qui ne veut pas voir la valeur de son porte­feuille s’ef­fon­dr­er quand les indices ” pays émer­gents ” plon­gent. Il con­fie au gérant un man­dat lui deman­dant de n’in­ve­stir que dans les valeurs ” Stoxx 50 “.

Ceci ne l’empêchera pas d’avoir un porte­feuille sen­si­ble de manière sig­ni­fica­tive aux dits pays émer­gents, parce que le gérant aura investi dans des actions de ban­ques européennes ayant un porte­feuille sig­ni­fi­catif de prêts à ces pays.Le risk man­age­ment per­met au con­traire d’ob­jec­tiv­er le pro­fil de risque d’un porte­feuille, et donc de définir de manière claire les con­traintes de risque, telles que la volatil­ité ex ante (c’est-à-dire future prédite) du porte­feuille, sa Val­ue at risk, sa Track­ing error ex ante (l’é­cart type des dif­férences de ren­de­ment avec un indice de référence) et ses sen­si­bil­ités par rap­port à des indices thé­ma­tiques (pays, secteurs, styles, etc.).

L’optimisation rendement/risque

La déf­i­ni­tion d’un ” bud­get de risque ” a enfin pour ver­tu d’ob­jec­tiv­er la notion de per­for­mance optimale.

Les décon­v­enues bour­sières de beau­coup d’in­vestis­seurs démon­trent s’il en est besoin qu’une allo­ca­tion de cap­i­taux fondée sur la base des seules per­for­mances his­toriques (ex post) con­duit sou­vent à un désas­tre. La rai­son en est que pour max­imiser son espérance de bonus, un trad­er, un gérant ou un dirigeant d’en­tre­prise (qui n’a à per­dre que son emploi) doit min­imiser la prob­a­bil­ité de pertes pour l’in­vestis­seur, c’est-à-dire en réal­ité max­imiser le risque.

On peut ain­si en tant que gérant gag­n­er très bien sa vie tout en offrant en réal­ité à ses clients une espérance de gain nul, avec des béné­fices réguliers et des pertes haute­ment improb­a­bles, mais monstrueuses.

Tech­nique­ment par­lant, il s’ag­it d’une mar­tin­gale : on cache les pertes dans les queues de distribution.

Dès lors que des con­traintes de risque ex ante claires ont été spé­ci­fiées, la rela­tion investisseur/gérant devient struc­turelle­ment beau­coup plus saine : le gérant a pour man­dat de max­imiser le ren­de­ment sous con­trainte de risque.

Le risk man­age­ment offre en out­re au gérant les tech­niques per­me­t­tant de rechercher la ” fron­tière effi­ciente ” de son porte­feuille : le principe fon­da­men­tal de rechercher la diver­si­fi­ca­tion opti­male, celle où la con­tri­bu­tion mar­ginale de chaque act­if au risque doit être pro­por­tion­nelle à la con­tri­bu­tion mar­ginale de ce même act­if au rendement.

Des coûts de consolidation trop élevés

1 – Val­ue at risk
La Val­ue at risk n’a rien d’ésotérique : il s’agit du mon­tant max­i­mum de la perte pos­si­ble, pour un inter­valle de con­fi­ance et un hori­zon de temps don­nés. Ain­si, les exem­ples cidessous se lisent comme suit : si on achète pour 1 000 dol­lars d’un porte­feuille répli­quant l’Euro Stoxx 50, on a 95 % de chances de per­dre moins de 83 dol­lars dans les deux semaines à venir, et on a 5 % de chances de gag­n­er au moins 98 dol­lars (les gains sont présen­tés comme négat­ifs, puisqu’on par­le de valeur en risque).
Atten­tion ! N’en déduisez pas qu’il faut acheter : l’espérance moyenne de gain est par con­struc­tion proche de zéro (hypothèse dite ” risque neutre ”).

2 — Max­imiser le Return at risk grâce à la diversification
entre une poche actions (A, qui réplique le Dow Jones) et une poche oblig­a­tions (B, Tbonds US avec une durée de cinq ans), en fonc­tion du cap­i­tal alloué à B (sur un mon­tant total de 1 000 euros). La courbe orange est le risque (Val­ue at risk) fonc­tion du mon­tant alloué aux oblig­a­tions. En orange pointil­lé, le risque du porte­feuille si le risque se com­por­tait de manière addi­tive. La sur­face verte représente le Return at risk, c’est-à-dire le ratio entre le gain atten­du et le risque : le vert pointil­lé cor­re­spond au Return at risk qui résul­terait d’un indi­ca­teur de risque additif.
Maximiser le Return at risk grâce à la diversification

Si les objec­tifs sont clairs et la théorie sci­en­tifique bien établie (cf. encadré), leur mise en œuvre soulève des dif­fi­cultés pra­tiques très sérieuses.

En pre­mier lieu, l’ob­jec­tif pra­tique de l’in­vestis­seur aver­ti est de pou­voir col­lecter pour chaque actif/fonds/ gérant les infor­ma­tions de risque, à une fréquence per­ti­nente par rap­port à l’hori­zon de ges­tion de l’in­vestis­seur et du gérant (par exem­ple, pour un day trad­er, col­lecter une fois par mois des infor­ma­tions de risque n’a pas beau­coup de sens).

En sec­ond lieu, il doit pou­voir con­solid­er les infor­ma­tions de risque ain­si col­lec­tées, de manière non seule­ment à mesur­er son expo­si­tion glob­ale en ter­mes de risque, mais égale­ment à gér­er son allo­ca­tion entre fonds pour opti­miser son ratio rendement/ risque.

Cette exi­gence de col­lecte et de con­sol­i­da­tion existe à l’in­térieur d’une entre­prise. Elle est égale­ment essen­tielle entre tous les niveaux de con­sol­i­da­tion, depuis le gérant ou le trad­er en pas­sant jusqu’à l’in­vestis­seur insti­tu­tion­nel, qui doit con­trôler l’adéqua­tion entre le risque de son act­if et le risque de son passif.

Le prob­lème paraît en apparence aus­si sim­ple que de cal­culer la valeur d’un porte­feuille, pour lequel il suf­fit de col­lecter les valeurs des act­ifs et des fonds qui le com­posent, puis de les addi­tion­ner pour cal­culer la valeur de l’ac­t­if consolidé.La réal­ité est beau­coup plus com­plexe, parce que les indi­ca­teurs de risque ne se com­por­tent pas comme les prix.

Pour repren­dre l’ex­em­ple illus­tré dans l’en­cadré 2, si on a dans la poche A 150 euros en actions (Val­ue at risk = 10,2 euros) et dans la poche B 850 euros en oblig­a­tions (Val­ue at risk = 9 euros), le porte­feuille A + B aura lui une Val­ue at risk de 8,5 euros, c’est-à-dire non seule­ment très inférieure à la somme des risques de A et de B, mais même inférieure au risque du moins volatil des deux porte­feuilles : en d’autres ter­mes, il est moins risqué d’avoir un porte­feuille fait de 150 euros d’ac­tions et de 850 euros d’oblig­a­tions que d’avoir un porte­feuille de 1 000 euros d’obligations !

On pour­rait imag­in­er toute­fois que la con­nais­sance du risque de A et celle de B per­me­t­tent d’en déduire le risque de A + B. Il n’en est mal­heureuse­ment rien, car un troisième paramètre se glisse dans l’af­faire, la cor­réla­tion, qui ne dépend ni du risque de A ni du risque de B.

Pour repren­dre l’ex­em­ple ci-dessus, si A était anti­cor­rélé à 100 % avec B, le risque con­solidé serait nul, s’il était cor­rélé à 100 %, le risque serait la somme des deux risques, si la cor­réla­tion est nulle, le risque est la racine car­rée de la somme des carrés.

Le phénomène éton­nant observé sur ce porte­feuille vient du fait que les actions et les oblig­a­tions sont anti­cor­rélées à 45 %.

Les coûts informatiques associés aux modèles de Value at risk

De ce fait, la seule façon de con­solid­er le risque est de revenir à la com­po­si­tion élé­men­taire de chaque sous-jacent, et con­naître toutes les cor­réla­tions croisées entre eux. Si ain­si on investit 1 000 euros dans deux OPVCM, il faut con­naître le détail des posi­tions de chaque OPCVM et les cor­réla­tions croisées entre tous les com­posants élé­men­taires pour pou­voir con­naître le risque global.

Ain­si, les sys­tèmes de risk man­age­ment dévelop­pés par les grandes ban­ques imposent de cen­tralis­er la descrip­tion de tous les porte­feuilles et des instru­ments dérivés, pour être en mesure de pro­duire un chiffre per­ti­nent pour le risque con­solidé de la banque.

En pra­tique, si un tel pro­jet peut aboutir — au prix d’un bud­get con­sid­érable — si le client est unique (par exem­ple la direc­tion des risques d’une grande banque avec des besoins prévis­i­bles et sta­bles), il n’au­ra pas la flex­i­bil­ité per­me­t­tant de répon­dre aux attentes de clients mul­ti­ples en ter­mes de réac­tiv­ité (les salles de marché ont, par exem­ple, besoin de temps réel), de nature de risques à suiv­re (dépen­dant du style de ges­tion), de type de tableaux de bord (pour un asset man­ag­er, en pra­tique autant que d’in­vestis­seurs insti­tu­tion­nels), etc.

L’impossibilité d’intégrer la diversification multimarchés et les produits dérivés dans les modèles factoriels

Les fonds de pen­sion améri­cains ont, dès les années 1980, cher­ché à pro­mou­voir un cadre leur per­me­t­tant de con­solid­er le risque de leurs act­ifs, con­fiés à une mul­ti­tude de gérants. Il était bien sûr exclu d’y par­venir par la créa­tion d’une base de don­nées cen­tral­isée des positions.

Les fonde­ments sci­en­tifiques de la ges­tion des risques

La statistique et le stress test

Le cal­cul du risque des insti­tu­tions finan­cières repose avant tout sur une étude sta­tis­tique des don­nées de marché : cours des actions cotées, taux d’in­térêt et de change, oblig­a­tions, com­mod­ités, pro­duits dérivés (swaps, futures, options…). Une grande var­iété de mod­èles sta­tis­tiques, tant au niveau de chaque act­if pris indi­vidu­elle­ment que de l’ensem­ble des act­ifs con­tenus dans un porte­feuille, ont été étudiés et dévelop­pés. Ces mod­èles vont de la sim­ple analyse en vari­ance-covari­ance à des mod­èles paramétriques sophis­tiqués (lois de Pare­to-Lévy, mod­èles GARCH, etc.), en pas­sant par une analyse prag­ma­tique des com­porte­ments globaux des marchés durant les dif­férentes crises passées.
Le principe d’é­val­u­a­tion du risque con­siste à estimer une dis­tri­b­u­tion de prob­a­bil­ité de la valeur d’un porte­feuille, poten­tielle­ment com­plexe, à un hori­zon de temps déter­miné, ce afin d’op­ti­miser les déci­sions con­cer­nant la ges­tion du portefeuille.
L’ap­proche ” his­torique ” con­siste à trans­pos­er dans la con­fig­u­ra­tion de marché du jour les mou­ve­ments observés dans un passé plus ou moins récent. Notons que cette ” trans­po­si­tion ” présente des dif­fi­cultés dans le cas des pro­duits dérivés, à cause de leur com­porte­ment non linéaire par rap­port aux autres act­ifs. Celles-ci sont sur­mon­tées grâce à l’in­tro­duc­tion de ” vari­ables de marché ” abstraites et faciles à trans­pos­er, par exem­ple, la ” volatil­ité implicite ” des options, issue du mod­èle de Black & Scholes.
L’analyse sta­tis­tique reste incom­plète si on ne lui asso­cie pas une série de stress tests con­sis­tant à étudi­er de manière spé­ci­fique le com­porte­ment du porte­feuille sous l’ef­fet de cer­taines crises passées ou imag­inées. En effet, ces crises cor­re­spon­dent à des événe­ments rares, donc sou­vent hors sta­tis­tiques, mais qu’il serait dan­gereux d’ig­nor­er, l’im­pact effec­tif de ces événe­ments étant plus impor­tant que leur prob­a­bil­ité d’occurrence.

Simulations de Monte-Carlo

D’un point de vue pra­tique, la présence, dans les porte­feuilles, de nom­breux pro­duits dérivés et d’en­gage­ments ” hors bilan ” fait sor­tir leur éval­u­a­tion du cadre linéaire par rap­port aux vari­ables dont on estime la dis­tri­b­u­tion de prob­a­bil­ité. Les tech­niques tra­di­tion­nelles de cal­cul du risque, reposant sur une sim­ple analyse en vari­ance-covari­ance des prix des act­ifs, se mon­trent insuff­isantes — et pas seule­ment pour gag­n­er quelques déci­males de pré­ci­sion, mais bien pour l’or­dre de grandeur de la Val­ue at risk. Ces tech­niques avaient été dévelop­pées à l’époque pour des raisons de maîtrise des temps de cal­cul aujour­d’hui obsolètes. La méthode de sim­u­la­tions pseu­do-aléa­toires dite de ” Monte-Car­lo ” s’avère in fine la plus per­for­mante pour simuler toute la com­plex­ité des act­ifs financiers échangés. En out­re, elle apporte une sou­p­lesse incom­pa­ra­ble dès qu’ap­pa­raît un nou­veau type de pro­duits, se marie aisé­ment aux stress tests et peut, sans dif­fi­culté, inté­gr­er toutes les sub­til­ités des com­porte­ments joints des act­ifs observés sur les séries historiques.

La preuve

L’é­val­u­a­tion d’un mod­èle de cal­cul de risque, voire, plus pré­cisé­ment, d’une procé­dure com­plète de sa mesure, se fait par le back-test­ing. Lorsque, comme aux États-Unis, la météo annonce la pluie avec une prob­a­bil­ité de 60 %, on peut véri­fi­er après coup si, sur l’ensem­ble des jours où la pluie a été prévue avec une telle prob­a­bil­ité, elle a eu lieu dans cette pro­por­tion. Il en va de même pour les risques financiers : le back-test­ing per­met de com­par­er la dis­tri­b­u­tion de prob­a­bil­ité des retours sur investisse­ments effec­tive­ment observés pen­dant une péri­ode don­née avec la série de dis­tri­b­u­tions théoriques fournies par le mod­èle pen­dant cette même péri­ode. Cette méthode per­met de don­ner une assise solide aux dif­férentes approches quan­ti­ta­tives testées, ain­si que de les com­par­er, à l’in­star des expéri­ences in vit­ro, et à l’in­verse des mod­èles macroé­conomiques, néces­saire­ment in vivo.

Limites de validité

Il va de soi que l’é­val­u­a­tion du risque, comme décrite ci-dessus, n’a de sens que si l’évo­lu­tion du marché dans l’avenir ren­tre dans le cadre de ce qui a été observé, même rarement, dans le passé. La sta­tis­tique des marchés étant tout sauf sta­tion­naire — qui peut pré­ten­dre aujour­d’hui que la volatil­ité est une vari­able fixe, comme cela est stip­ulé dans l’ar­ti­cle orig­i­nal de Black & Scholes ? — les deux pro­priétés fon­da­men­tales d’un ” bon ” mod­èle de risque sont la réac­tiv­ité et la sta­bil­ité. En d’autres ter­mes, le mod­èle se doit d’être suff­isam­ment ” lis­sant ” pour que ses paramètres ne saut­ent pas chaque jour, mais assez sou­ple pour réa­gir rapi­de­ment en cas de change­ment de régime. Chaque mod­èle, aus­si pré­cis soit-il, a de fortes chances d’être, un jour ou l’autre, mis en défaut par le com­porte­ment inat­ten­du des marchés. Celui-ci sera trop con­ser­va­teur et sures­timera le risque pen­dant de longues péri­odes, ce qui peut entraîn­er en pra­tique des réduc­tions impor­tantes de per­for­mance cumulées. Celui-là est au con­traire pré­cis la plu­part du temps, mais manque de prévoir la crise majeure, pré­cisé­ment ce que l’on attend de lui. D’une manière générale, l’op­ti­mi­sa­tion des paramètres d’un mod­èle, afin que celui-ci rem­plisse les deux exi­gences de sta­bil­ité et de réac­tiv­ité, est un art qui demande une cer­taine expéri­ence, en même temps que l’ac­cès à des don­nées sta­tis­tiques fiables. C’est pourquoi les mod­èles les plus per­for­mants restent l’a­panage des grandes insti­tu­tions finan­cières ou de quelques entre­pris­es spé­cial­isées dans ce domaine.

Enjeux

Dans toute entre­prise, c’est un lieu com­mun de dire que la ges­tion des risques n’est pas un gad­get et fait par­tie du proces­sus de déci­sion au plus haut niveau. Dans la finance en par­ti­c­uli­er, monde ” chiffres ” s’il en est, cette tâche a la pos­si­bil­ité de se repos­er sur des études quan­ti­ta­tives pré­cis­es. Comme tou­jours, l’en­jeu n’est pas de min­imiser, voire d’élim­in­er totale­ment (fan­tasme !) le risque, mais de le maîtris­er pour mieux en prof­iter. Les fonds de ges­tion alter­na­tive (hedge funds) con­nais­sent bien cette prob­lé­ma­tique, puisque, en bons spécu­la­teurs, leur but, dans la sélec­tion de leurs mar­tin­gales, est que leur chiffre de risque soit le plus proche pos­si­ble de la per­for­mance espérée, ce qui sig­ni­fie qu’ils n’en ont pas lais­sé inutile­ment de côté. D’une manière peut-être plus sage, mais au fond pas si dif­férente, les ges­tion­naires de fonds tra­di­tion­nels ont le même but lorsque, suiv­ant les bons con­seils de MM. Markovitz et Sharpe, ils cherchent à max­imiser le rap­port entre ren­de­ment et risque, ou encore à max­imiser le ren­de­ment pour un chiffre de risque inférieur à une lim­ite don­née. Là encore, l’in­tro­duc­tion mas­sive de pro­duits dérivés dans les porte­feuilles et la diminu­tion du coût du cal­cul ont ren­du incon­tourn­ables les sim­u­la­tions de Monte-Car­lo à des fins d’optimisation.

Cette demande a con­tribué à l’es­sor, côté asset man­age­ment, des mod­èles fac­to­riels de risque, qui ont le grand mérite d’être addi­tifs et donc d’ap­porter une réponse sim­ple à la demande de con­sol­i­da­tion. Le mod­èle le plus sim­ple est celui du ” Bêta “, qui est la sen­si­bil­ité d’un act­if par rap­port à un indice de marché. Par exem­ple, une action qui a un Bêta de 0,8 par rap­port au CAC 40 veut dire qu’en moyenne, quand le CAC aug­mente de 10 %, l’ac­tion aug­mente de 8 %.

Si elle a con­nu de grands raf­fine­ments au cours des années 1990 (essen­tielle­ment, la mul­ti­pli­ca­tion du nom­bre de fac­teurs), cette famille de mod­èles arrive aujour­d’hui en fin de vie pour trois raisons fondamentales.

Tout d’abord, ces mod­èles reposent sur une mod­éli­sa­tion ad hoc des marchés, loin des canons sci­en­tifiques du risk man­age­ment, et ont de ce fait une qual­ité pré­dic­tive médiocre. Les risques sont en général assez sys­té­ma­tique­ment sous-estimés. Or, les ges­tion­naires d’ac­t­ifs sont à juste titre de plus en plus exigeants quant à la qual­ité pré­dic­tive de leurs indi­ca­teurs de risque — car ils sont soumis de fac­to à une oblig­a­tion de résultat.

Ensuite, elle est inapte à don­ner une descrip­tion des risques mul­ti­marchés. On peut dévelop­per un mod­èle fac­to­riel per­ti­nent pour le marché actions, un autre pour les taux. En revanche, il est impos­si­ble d’of­frir un cadre de cette nature sat­is­faisant et com­mun aux deux. De ce fait, ces mod­èles ne per­me­t­tent pas de con­solid­er le risque sur les porte­feuilles diver­si­fiés, ceux-là mêmes qui répon­dent le mieux à la demande de diver­si­fi­ca­tion des investisseurs.

Elle ne per­met pas de traiter des act­ifs non linéaires, tels que les pro­duits de crédit, les dérivés, les asset-backed secu­ri­ties, etc.

Le monopole de fait très contraignant qu’induisent les approches de type ASP

La troisième voie pro­posée aujour­d’hui est celle de l’ASP (Appli­ca­tion ser­vice provider). Elle con­siste à partager entre util­isa­teurs un sys­tème de cal­cul de risque. Partageant le même sys­tème la com­mu­nauté des adhérents de l’ASP peut de ce fait agréger toutes les infor­ma­tions de risque. La con­trepar­tie est l’oblig­a­tion pour les util­isa­teurs de trans­fér­er la total­ité de la com­po­si­tion de leurs porte­feuilles à cet ASP, ce qui représente non seule­ment un coût d’in­té­gra­tion élevé et intro­duit une forte rigid­ité dans le for­mat des analy­ses de risque, mais induit des risques sig­ni­fi­cat­ifs en ter­mes de con­fi­den­tial­ité de l’information.

La logique de ce sys­tème, pour fonc­tion­ner, est que le mail­lon ultime de con­sol­i­da­tion du risque impose à l’ensem­ble de ses gérants, ain­si qu’aux gérants de ses gérants, etc., de trans­met­tre à l’ASP toute l’in­for­ma­tion sur leurs positions.

On est ain­si de fait passé de la notion de ” trans­parence des risques ” à celle de ” trans­parence des posi­tions “, au prix de l’étab­lisse­ment d’un mono­pole de fait.

Rendre le risque additif, sans approximation

Dans tous les cas, les coûts de con­sol­i­da­tion vien­nent en fait du car­ac­tère non addi­tif du risque. La solu­tion est donc de ren­dre le risque additif !

L’in­térêt de l’ad­di­tivé : l’ex­em­ple du mod­èle factoriel

On a vu que les mod­èles fac­to­riels sont addi­tifs, ce qui rend la prob­lé­ma­tique de con­sol­i­da­tion aus­si sim­ple que la con­sol­i­da­tion des valeurs.

De même que : prix (A) + prix (B) = prix (A + B).

On a : risque (A) + risque (B) = risque (A + B).

Dans ce cadre, une réelle trans­parence des risques est pos­si­ble, de même qu’il existe une réelle trans­parence compt­able, sans qu’il soit néces­saire de dévoil­er et de trans­met­tre le détail des posi­tions et engage­ments financiers. Cette trans­parence peut se faire au tra­vers de mul­ti­ples étages de con­sol­i­da­tion, comme elle se fait pour les prix : le gérant d’une poche, puis le fonds, puis l’ac­t­if glob­al (mul­ti­fonds) d’un investis­seur insti­tu­tion­nel, puis après con­sol­i­da­tion avec le pas­sif l’ac­tion­naire, etc.

Le prob­lème des mod­èles fac­to­riels est qu’ils ne sont pas exhaus­tifs. Ils n’in­tè­grent pas les non-linéar­ités, le risque de crédit et les cor­réla­tions avec les act­ifs d’autres marchés.

Un modèle factoriel universel : le risk ticker

Com­ment faire la syn­thèse entre une approche fac­to­rielle — c’est-à-dire l’idée de représen­ter un act­if par un vecteur addi­tif de chiffres — et les tech­niques rigoureuses du risk man­age­ment ?

En d’autres ter­mes, quels sont les fac­teurs uni­versels, sur lesquels on peut pro­jeter tous les act­ifs, quels que soient leur type, leur classe, en ren­dant compte de tous leurs risques spé­ci­fiques ? La réponse est en fait très intu­itive. Quand on pense au risque, on se pose en réal­ité la ques­tion : que va-t-il se pass­er demain sur les marchés financiers (ou dans deux semaines ou dans un mois) ?

On pose la ques­tion à la manière du risk man­age­ment, c’est-à-dire non pas en imag­i­nant un scé­nario pos­si­ble, mais 1 000 (ou 10 000) scé­nar­ios pos­si­bles et équiprob­a­bles pour la journée de demain, ce pour l’ensem­ble des marchés financiers.

Ces 1 000 (ou 10 000) scé­nar­ios con­stituent bien nos fac­teurs universels.

D’abord, je peux pro­jeter tous les act­ifs, quelles que soient leur nature ou leur com­plex­ité, sur ces fac­teurs : si je sais val­oris­er un act­if aujour­d’hui, alors je sais bien cal­culer ses 1 000 valeurs pos­si­bles pour cha­cun des scé­nar­ios de marché imag­inés pour demain, quelles que soient la classe ou la com­plex­ité de l’actif.

Ensuite, je peux être exhaus­tif : quand je procède aux 1 000 réé­val­u­a­tions de l’ac­t­if, rien ne m’in­ter­dit d’in­clure tous les risques spé­ci­fiques, dès lors qu’ils ont un impact sur la valeur de l’ac­t­if — arbi­trage, crédit, liq­uid­ité, etc.

Enfin, je con­serve bien la pro­priété d’ad­di­tiv­ité : le vecteur de 1 000 prix pos­si­bles se com­porte comme un prix.

Cette pro­jec­tion d’un act­if sur les 1 000 scé­nar­ios con­stitue un risk tick­er, c’est-à-dire une représen­ta­tion addi­tive, uni­verselle et exhaus­tive du risque de l’actif.

Une simulation cohérente de l’ensemble des marchés financiers

Approche par scé­nar­ios : un mod­èle additif
Si dans le scé­nario n° 6, mon porte­feuille Actions A vaut 104 euros et mon porte­feuille Oblig­a­tions B vaut 895 euros, alors mon porte­feuille A + B vaut 104 + 895 = 999 euros. Le fait que A et B soient anti­cor­rélés se traduira par le fait qu’en général (mais pas tou­jours) quand A monte, B baisse, et vice ver­sa : de ce fait la dis­per­sion des valeurs A + B sera moin­dre que celle des valeurs A ou celle des valeurs B.
Approche par scénarios : un modèle additif

Cette approche risk tick­er n’a en soi rien de révo­lu­tion­naire : elle exploite une pro­priété bien con­nue des pro­fes­sion­nels du risque, qui est l’ad­di­tiv­ité et la puis­sance des sim­u­la­tions Monte-Car­lo. Elle n’é­tait, jusqu’à récem­ment, pas réal­is­able, pour plusieurs raisons.

D’une part, la pre­mière généra­tion de sys­tèmes de risque a été conçue dans un envi­ron­nement où la mémoire et la puis­sance de cal­cul restaient coû­teuses. Dans ce cadre, représen­ter un act­if par 1 000 chiffres (et les cal­culer 1 000 fois pour les pro­duits dérivés) aurait été trop coû­teux ou trop lent.

D’autre part, une sim­u­la­tion cohérente de l’ensem­ble des marchés financiers — soit des mil­lions de prix expliqués par des dizaines de mil­liers de sous-jacents — pose des prob­lèmes très com­plex­es de sta­bil­ité et de con­ver­gence des algo­rithmes, et de temps de calcul.

La réduc­tion mas­sive des coûts de la puis­sance de cal­cul et de la mémoire, con­juguée aux pro­grès spec­tac­u­laires accom­plis ces dernières années en math­é­ma­tiques finan­cières, a ren­du effec­tive­ment pos­si­ble cette sim­u­la­tion globale.

Les résul­tats enreg­istrés depuis sep­tem­bre 2001, date à laque­lle la pre­mière unité de pro­duc­tion de risk tick­ers a été lancée, ont per­mis à ses pre­miers util­isa­teurs de con­firmer qu’ils tenaient avec le con­cept de risk tick­er la solu­tion per­me­t­tant de répon­dre de manière pré­cise, fiable et économique à la demande de trans­parence des risques.

Poster un commentaire