Value at risk

Risk Management et transparence des risques financiers

Dossier : La banqueMagazine N°580 Décembre 2002
Par Olivier Le MAROIS (82)
Par Raphaël DOUADY

Le manque de trans­pa­rence des risques, bien plus que les pro­blèmes de comp­ta­bi­li­tés, est le véri­table fon­de­ment de la crise de confiance majeure que les mar­chés finan­ciers ont connue en 2002.
La comp­ta­bi­li­té même sin­cère ne peut en soi rendre compte des risques pesant sur la valeur future d’une entre­prise. Les faillites World­Com et Enron ne résultent pas uni­que­ment de la fraude comp­table, mais bien de la maté­ria­li­sa­tion de risques depuis long­temps quan­ti­fiables, sur les­quels les mar­chés ont été aveugles, faute de trans­pa­rence. Res­tau­rer la confiance des inves­tis­seurs impose donc de géné­ra­li­ser la trans­pa­rence de risques, au tra­vers d’une exten­sion du risk mana­ge­ment à la ges­tion d’actifs.
Cette exten­sion se heurte tou­te­fois aux coûts très éle­vés de la col­lecte et de la conso­li­da­tion des risques le long des chaînes de valeur ajou­tée. Elle ne devient en pra­tique pos­sible qu’avec le déve­lop­pe­ment d’une repré­sen­ta­tion addi­tive et uni­ver­selle des risques.

La nécessaire extension du domaine du risk management

L’adéquation des fonds propres

La créa­ti­vi­té des mar­chés finan­ciers en termes d’ins­tru­ments déri­vés, qui s’est accom­pa­gnée de quelques sinistres reten­tis­sants, a conduit la com­mu­nau­té finan­cière à se doter au cours des années 1990 de nou­velles règles de déter­mi­na­tion des fonds propres mini­maux requis pour mener une acti­vi­té ban­caire (Basle I – Capi­tal ade­qua­cy). En effet, l’ap­proche tra­di­tion­nelle par ratios de bilan devient tota­le­ment inap­pro­priée quand se mul­ti­plient à l’in­fi­ni les enga­ge­ments » hors bilan » et les effets de levier impli­cites que l’on trouve dans tous les ins­tru­ments financiers.

On est donc reve­nu à une défi­ni­tion natu­relle des fonds propres requis : ils doivent per­mettre de cou­vrir les pertes poten­tielles résul­tant des enga­ge­ments finan­ciers nets. C’est bien là effec­ti­ve­ment la fonc­tion des fonds propres que d’être capable d’ab­sor­ber les pertes futures. Cette défi­ni­tion logique néces­site une quan­ti­fi­ca­tion de la notion de pertes poten­tielles : c’est la Value at risk.

Les prin­cipes déter­mi­nant sa mesure reposent sur une métho­do­lo­gie rigou­reuse et un ensemble de pra­tiques éprou­vées, mis en œuvre par une pro­fes­sion recon­nue dans les banques : les risk mana­gers.

La budgétisation des risques

Il est essen­tiel pour l’in­ves­tis­seur d’a­voir un pro­fil de risque de son actif qui soit cohé­rent avec celui de son pas­sif. Ain­si, jouer l’argent des pro­chaines vacances en valeurs du nou­veau mar­ché n’est pas recom­man­dé. Plus sérieu­se­ment, avoir pour une grande com­pa­gnie d’as­su­rances beau­coup d’ac­tions des com­pa­gnies qu’elle assure peut être un moyen très sûr de maxi­mi­ser son risque en mini­mi­sant ses performances.

Les inves­tis­seurs n’ont certes pas atten­du le risk mana­ge­ment pour ten­ter d’im­po­ser une contrainte de risque, en fixant des obli­ga­tions de moyens aux ges­tion­naires d’ac­tifs, telles que les limites des tra­ders, les man­dats des gérants, la cor­po­rate gover­nance pour les diri­geants d’en­tre­prise, etc.

Le pro­blème est que ces obli­ga­tions de moyens n’offrent pas de garan­tie réelle en termes d’ex­po­si­tion au risque. Ima­gi­nons, par exemple, un inves­tis­seur qui ne veut pas de risque pays émer­gents, c’est-à-dire qui ne veut pas voir la valeur de son por­te­feuille s’ef­fon­drer quand les indices » pays émer­gents » plongent. Il confie au gérant un man­dat lui deman­dant de n’in­ves­tir que dans les valeurs » Stoxx 50 « .

Ceci ne l’empêchera pas d’a­voir un por­te­feuille sen­sible de manière signi­fi­ca­tive aux dits pays émer­gents, parce que le gérant aura inves­ti dans des actions de banques euro­péennes ayant un por­te­feuille signi­fi­ca­tif de prêts à ces pays.Le risk mana­ge­ment per­met au contraire d’ob­jec­ti­ver le pro­fil de risque d’un por­te­feuille, et donc de défi­nir de manière claire les contraintes de risque, telles que la vola­ti­li­té ex ante (c’est-à-dire future pré­dite) du por­te­feuille, sa Value at risk, sa Tra­cking error ex ante (l’é­cart type des dif­fé­rences de ren­de­ment avec un indice de réfé­rence) et ses sen­si­bi­li­tés par rap­port à des indices thé­ma­tiques (pays, sec­teurs, styles, etc.).

L’optimisation rendement/risque

La défi­ni­tion d’un » bud­get de risque » a enfin pour ver­tu d’ob­jec­ti­ver la notion de per­for­mance optimale.

Les décon­ve­nues bour­sières de beau­coup d’in­ves­tis­seurs démontrent s’il en est besoin qu’une allo­ca­tion de capi­taux fon­dée sur la base des seules per­for­mances his­to­riques (ex post) conduit sou­vent à un désastre. La rai­son en est que pour maxi­mi­ser son espé­rance de bonus, un tra­der, un gérant ou un diri­geant d’en­tre­prise (qui n’a à perdre que son emploi) doit mini­mi­ser la pro­ba­bi­li­té de pertes pour l’in­ves­tis­seur, c’est-à-dire en réa­li­té maxi­mi­ser le risque.

On peut ain­si en tant que gérant gagner très bien sa vie tout en offrant en réa­li­té à ses clients une espé­rance de gain nul, avec des béné­fices régu­liers et des pertes hau­te­ment impro­bables, mais monstrueuses.

Tech­ni­que­ment par­lant, il s’a­git d’une mar­tin­gale : on cache les pertes dans les queues de distribution.

Dès lors que des contraintes de risque ex ante claires ont été spé­ci­fiées, la rela­tion investisseur/gérant devient struc­tu­rel­le­ment beau­coup plus saine : le gérant a pour man­dat de maxi­mi­ser le ren­de­ment sous contrainte de risque.

Le risk mana­ge­ment offre en outre au gérant les tech­niques per­met­tant de recher­cher la » fron­tière effi­ciente » de son por­te­feuille : le prin­cipe fon­da­men­tal de recher­cher la diver­si­fi­ca­tion opti­male, celle où la contri­bu­tion mar­gi­nale de chaque actif au risque doit être pro­por­tion­nelle à la contri­bu­tion mar­gi­nale de ce même actif au rendement.

Des coûts de consolidation trop élevés

1 – Value at risk
La Value at risk n’a rien d’ésotérique : il s’agit du mon­tant maxi­mum de la perte pos­sible, pour un inter­valle de confiance et un hori­zon de temps don­nés. Ain­si, les exemples cides­sous se lisent comme suit : si on achète pour 1 000 dol­lars d’un por­te­feuille répli­quant l’Euro Stoxx 50, on a 95 % de chances de perdre moins de 83 dol­lars dans les deux semaines à venir, et on a 5 % de chances de gagner au moins 98 dol­lars (les gains sont pré­sen­tés comme néga­tifs, puisqu’on parle de valeur en risque).
Atten­tion ! N’en dédui­sez pas qu’il faut ache­ter : l’espérance moyenne de gain est par construc­tion proche de zéro (hypo­thèse dite » risque neutre »).

2 – Maxi­mi­ser le Return at risk grâce à la diversification
entre une poche actions (A, qui réplique le Dow Jones) et une poche obli­ga­tions (B, Tbonds US avec une durée de cinq ans), en fonc­tion du capi­tal alloué à B (sur un mon­tant total de 1 000 euros). La courbe orange est le risque (Value at risk) fonc­tion du mon­tant alloué aux obli­ga­tions. En orange poin­tillé, le risque du por­te­feuille si le risque se com­por­tait de manière addi­tive. La sur­face verte repré­sente le Return at risk, c’est-à-dire le ratio entre le gain atten­du et le risque : le vert poin­tillé cor­res­pond au Return at risk qui résul­te­rait d’un indi­ca­teur de risque additif.
Maximiser le Return at risk grâce à la diversification

Si les objec­tifs sont clairs et la théo­rie scien­ti­fique bien éta­blie (cf. enca­dré), leur mise en œuvre sou­lève des dif­fi­cul­tés pra­tiques très sérieuses.

En pre­mier lieu, l’ob­jec­tif pra­tique de l’in­ves­tis­seur aver­ti est de pou­voir col­lec­ter pour chaque actif/fonds/ gérant les infor­ma­tions de risque, à une fré­quence per­ti­nente par rap­port à l’ho­ri­zon de ges­tion de l’in­ves­tis­seur et du gérant (par exemple, pour un day tra­der, col­lec­ter une fois par mois des infor­ma­tions de risque n’a pas beau­coup de sens).

En second lieu, il doit pou­voir conso­li­der les infor­ma­tions de risque ain­si col­lec­tées, de manière non seule­ment à mesu­rer son expo­si­tion glo­bale en termes de risque, mais éga­le­ment à gérer son allo­ca­tion entre fonds pour opti­mi­ser son ratio rendement/ risque.

Cette exi­gence de col­lecte et de conso­li­da­tion existe à l’in­té­rieur d’une entre­prise. Elle est éga­le­ment essen­tielle entre tous les niveaux de conso­li­da­tion, depuis le gérant ou le tra­der en pas­sant jus­qu’à l’in­ves­tis­seur ins­ti­tu­tion­nel, qui doit contrô­ler l’a­dé­qua­tion entre le risque de son actif et le risque de son passif.

Le pro­blème paraît en appa­rence aus­si simple que de cal­cu­ler la valeur d’un por­te­feuille, pour lequel il suf­fit de col­lec­ter les valeurs des actifs et des fonds qui le com­posent, puis de les addi­tion­ner pour cal­cu­ler la valeur de l’ac­tif consolidé.La réa­li­té est beau­coup plus com­plexe, parce que les indi­ca­teurs de risque ne se com­portent pas comme les prix.

Pour reprendre l’exemple illus­tré dans l’en­ca­dré 2, si on a dans la poche A 150 euros en actions (Value at risk = 10,2 euros) et dans la poche B 850 euros en obli­ga­tions (Value at risk = 9 euros), le por­te­feuille A + B aura lui une Value at risk de 8,5 euros, c’est-à-dire non seule­ment très infé­rieure à la somme des risques de A et de B, mais même infé­rieure au risque du moins vola­til des deux por­te­feuilles : en d’autres termes, il est moins ris­qué d’a­voir un por­te­feuille fait de 150 euros d’ac­tions et de 850 euros d’o­bli­ga­tions que d’a­voir un por­te­feuille de 1 000 euros d’obligations !

On pour­rait ima­gi­ner tou­te­fois que la connais­sance du risque de A et celle de B per­mettent d’en déduire le risque de A + B. Il n’en est mal­heu­reu­se­ment rien, car un troi­sième para­mètre se glisse dans l’af­faire, la cor­ré­la­tion, qui ne dépend ni du risque de A ni du risque de B.

Pour reprendre l’exemple ci-des­sus, si A était anti­cor­ré­lé à 100 % avec B, le risque conso­li­dé serait nul, s’il était cor­ré­lé à 100 %, le risque serait la somme des deux risques, si la cor­ré­la­tion est nulle, le risque est la racine car­rée de la somme des carrés.

Le phé­no­mène éton­nant obser­vé sur ce por­te­feuille vient du fait que les actions et les obli­ga­tions sont anti­cor­ré­lées à 45 %.

Les coûts informatiques associés aux modèles de Value at risk

De ce fait, la seule façon de conso­li­der le risque est de reve­nir à la com­po­si­tion élé­men­taire de chaque sous-jacent, et connaître toutes les cor­ré­la­tions croi­sées entre eux. Si ain­si on inves­tit 1 000 euros dans deux OPVCM, il faut connaître le détail des posi­tions de chaque OPCVM et les cor­ré­la­tions croi­sées entre tous les com­po­sants élé­men­taires pour pou­voir connaître le risque global.

Ain­si, les sys­tèmes de risk mana­ge­ment déve­lop­pés par les grandes banques imposent de cen­tra­li­ser la des­crip­tion de tous les por­te­feuilles et des ins­tru­ments déri­vés, pour être en mesure de pro­duire un chiffre per­ti­nent pour le risque conso­li­dé de la banque.

En pra­tique, si un tel pro­jet peut abou­tir – au prix d’un bud­get consi­dé­rable – si le client est unique (par exemple la direc­tion des risques d’une grande banque avec des besoins pré­vi­sibles et stables), il n’au­ra pas la flexi­bi­li­té per­met­tant de répondre aux attentes de clients mul­tiples en termes de réac­ti­vi­té (les salles de mar­ché ont, par exemple, besoin de temps réel), de nature de risques à suivre (dépen­dant du style de ges­tion), de type de tableaux de bord (pour un asset mana­ger, en pra­tique autant que d’in­ves­tis­seurs ins­ti­tu­tion­nels), etc.

L’impossibilité d’intégrer la diversification multimarchés et les produits dérivés dans les modèles factoriels

Les fonds de pen­sion amé­ri­cains ont, dès les années 1980, cher­ché à pro­mou­voir un cadre leur per­met­tant de conso­li­der le risque de leurs actifs, confiés à une mul­ti­tude de gérants. Il était bien sûr exclu d’y par­ve­nir par la créa­tion d’une base de don­nées cen­tra­li­sée des positions.

Les fon­de­ments scien­ti­fiques de la ges­tion des risques

La statistique et le stress test

Le cal­cul du risque des ins­ti­tu­tions finan­cières repose avant tout sur une étude sta­tis­tique des don­nées de mar­ché : cours des actions cotées, taux d’in­té­rêt et de change, obli­ga­tions, com­mo­di­tés, pro­duits déri­vés (swaps, futures, options…). Une grande varié­té de modèles sta­tis­tiques, tant au niveau de chaque actif pris indi­vi­duel­le­ment que de l’en­semble des actifs conte­nus dans un por­te­feuille, ont été étu­diés et déve­lop­pés. Ces modèles vont de la simple ana­lyse en variance-cova­riance à des modèles para­mé­triques sophis­ti­qués (lois de Pare­to-Lévy, modèles GARCH, etc.), en pas­sant par une ana­lyse prag­ma­tique des com­por­te­ments glo­baux des mar­chés durant les dif­fé­rentes crises passées.
Le prin­cipe d’é­va­lua­tion du risque consiste à esti­mer une dis­tri­bu­tion de pro­ba­bi­li­té de la valeur d’un por­te­feuille, poten­tiel­le­ment com­plexe, à un hori­zon de temps déter­mi­né, ce afin d’op­ti­mi­ser les déci­sions concer­nant la ges­tion du portefeuille.
L’ap­proche » his­to­rique » consiste à trans­po­ser dans la confi­gu­ra­tion de mar­ché du jour les mou­ve­ments obser­vés dans un pas­sé plus ou moins récent. Notons que cette » trans­po­si­tion » pré­sente des dif­fi­cul­tés dans le cas des pro­duits déri­vés, à cause de leur com­por­te­ment non linéaire par rap­port aux autres actifs. Celles-ci sont sur­mon­tées grâce à l’in­tro­duc­tion de » variables de mar­ché » abs­traites et faciles à trans­po­ser, par exemple, la » vola­ti­li­té impli­cite » des options, issue du modèle de Black & Scholes.
L’a­na­lyse sta­tis­tique reste incom­plète si on ne lui asso­cie pas une série de stress tests consis­tant à étu­dier de manière spé­ci­fique le com­por­te­ment du por­te­feuille sous l’ef­fet de cer­taines crises pas­sées ou ima­gi­nées. En effet, ces crises cor­res­pondent à des évé­ne­ments rares, donc sou­vent hors sta­tis­tiques, mais qu’il serait dan­ge­reux d’i­gno­rer, l’im­pact effec­tif de ces évé­ne­ments étant plus impor­tant que leur pro­ba­bi­li­té d’occurrence.

Simulations de Monte-Carlo

D’un point de vue pra­tique, la pré­sence, dans les por­te­feuilles, de nom­breux pro­duits déri­vés et d’en­ga­ge­ments » hors bilan » fait sor­tir leur éva­lua­tion du cadre linéaire par rap­port aux variables dont on estime la dis­tri­bu­tion de pro­ba­bi­li­té. Les tech­niques tra­di­tion­nelles de cal­cul du risque, repo­sant sur une simple ana­lyse en variance-cova­riance des prix des actifs, se montrent insuf­fi­santes — et pas seule­ment pour gagner quelques déci­males de pré­ci­sion, mais bien pour l’ordre de gran­deur de la Value at risk. Ces tech­niques avaient été déve­lop­pées à l’é­poque pour des rai­sons de maî­trise des temps de cal­cul aujourd’­hui obso­lètes. La méthode de simu­la­tions pseu­do-aléa­toires dite de » Monte-Car­lo » s’a­vère in fine la plus per­for­mante pour simu­ler toute la com­plexi­té des actifs finan­ciers échan­gés. En outre, elle apporte une sou­plesse incom­pa­rable dès qu’ap­pa­raît un nou­veau type de pro­duits, se marie aisé­ment aux stress tests et peut, sans dif­fi­cul­té, inté­grer toutes les sub­ti­li­tés des com­por­te­ments joints des actifs obser­vés sur les séries historiques.

La preuve

L’é­va­lua­tion d’un modèle de cal­cul de risque, voire, plus pré­ci­sé­ment, d’une pro­cé­dure com­plète de sa mesure, se fait par le back-tes­ting. Lorsque, comme aux États-Unis, la météo annonce la pluie avec une pro­ba­bi­li­té de 60 %, on peut véri­fier après coup si, sur l’en­semble des jours où la pluie a été pré­vue avec une telle pro­ba­bi­li­té, elle a eu lieu dans cette pro­por­tion. Il en va de même pour les risques finan­ciers : le back-tes­ting per­met de com­pa­rer la dis­tri­bu­tion de pro­ba­bi­li­té des retours sur inves­tis­se­ments effec­ti­ve­ment obser­vés pen­dant une période don­née avec la série de dis­tri­bu­tions théo­riques four­nies par le modèle pen­dant cette même période. Cette méthode per­met de don­ner une assise solide aux dif­fé­rentes approches quan­ti­ta­tives tes­tées, ain­si que de les com­pa­rer, à l’ins­tar des expé­riences in vitro, et à l’in­verse des modèles macroé­co­no­miques, néces­sai­re­ment in vivo.

Limites de validité

Il va de soi que l’é­va­lua­tion du risque, comme décrite ci-des­sus, n’a de sens que si l’é­vo­lu­tion du mar­ché dans l’a­ve­nir rentre dans le cadre de ce qui a été obser­vé, même rare­ment, dans le pas­sé. La sta­tis­tique des mar­chés étant tout sauf sta­tion­naire — qui peut pré­tendre aujourd’­hui que la vola­ti­li­té est une variable fixe, comme cela est sti­pu­lé dans l’ar­ticle ori­gi­nal de Black & Scholes ? — les deux pro­prié­tés fon­da­men­tales d’un » bon » modèle de risque sont la réac­ti­vi­té et la sta­bi­li­té. En d’autres termes, le modèle se doit d’être suf­fi­sam­ment » lis­sant » pour que ses para­mètres ne sautent pas chaque jour, mais assez souple pour réagir rapi­de­ment en cas de chan­ge­ment de régime. Chaque modèle, aus­si pré­cis soit-il, a de fortes chances d’être, un jour ou l’autre, mis en défaut par le com­por­te­ment inat­ten­du des mar­chés. Celui-ci sera trop conser­va­teur et sur­es­ti­me­ra le risque pen­dant de longues périodes, ce qui peut entraî­ner en pra­tique des réduc­tions impor­tantes de per­for­mance cumu­lées. Celui-là est au contraire pré­cis la plu­part du temps, mais manque de pré­voir la crise majeure, pré­ci­sé­ment ce que l’on attend de lui. D’une manière géné­rale, l’op­ti­mi­sa­tion des para­mètres d’un modèle, afin que celui-ci rem­plisse les deux exi­gences de sta­bi­li­té et de réac­ti­vi­té, est un art qui demande une cer­taine expé­rience, en même temps que l’ac­cès à des don­nées sta­tis­tiques fiables. C’est pour­quoi les modèles les plus per­for­mants res­tent l’a­pa­nage des grandes ins­ti­tu­tions finan­cières ou de quelques entre­prises spé­cia­li­sées dans ce domaine.

Enjeux

Dans toute entre­prise, c’est un lieu com­mun de dire que la ges­tion des risques n’est pas un gad­get et fait par­tie du pro­ces­sus de déci­sion au plus haut niveau. Dans la finance en par­ti­cu­lier, monde » chiffres » s’il en est, cette tâche a la pos­si­bi­li­té de se repo­ser sur des études quan­ti­ta­tives pré­cises. Comme tou­jours, l’en­jeu n’est pas de mini­mi­ser, voire d’é­li­mi­ner tota­le­ment (fan­tasme !) le risque, mais de le maî­tri­ser pour mieux en pro­fi­ter. Les fonds de ges­tion alter­na­tive (hedge funds) connaissent bien cette pro­blé­ma­tique, puisque, en bons spé­cu­la­teurs, leur but, dans la sélec­tion de leurs mar­tin­gales, est que leur chiffre de risque soit le plus proche pos­sible de la per­for­mance espé­rée, ce qui signi­fie qu’ils n’en ont pas lais­sé inuti­le­ment de côté. D’une manière peut-être plus sage, mais au fond pas si dif­fé­rente, les ges­tion­naires de fonds tra­di­tion­nels ont le même but lorsque, sui­vant les bons conseils de MM. Mar­ko­vitz et Sharpe, ils cherchent à maxi­mi­ser le rap­port entre ren­de­ment et risque, ou encore à maxi­mi­ser le ren­de­ment pour un chiffre de risque infé­rieur à une limite don­née. Là encore, l’in­tro­duc­tion mas­sive de pro­duits déri­vés dans les por­te­feuilles et la dimi­nu­tion du coût du cal­cul ont ren­du incon­tour­nables les simu­la­tions de Monte-Car­lo à des fins d’optimisation.

Cette demande a contri­bué à l’es­sor, côté asset mana­ge­ment, des modèles fac­to­riels de risque, qui ont le grand mérite d’être addi­tifs et donc d’ap­por­ter une réponse simple à la demande de conso­li­da­tion. Le modèle le plus simple est celui du » Bêta « , qui est la sen­si­bi­li­té d’un actif par rap­port à un indice de mar­ché. Par exemple, une action qui a un Bêta de 0,8 par rap­port au CAC 40 veut dire qu’en moyenne, quand le CAC aug­mente de 10 %, l’ac­tion aug­mente de 8 %.

Si elle a connu de grands raf­fi­ne­ments au cours des années 1990 (essen­tiel­le­ment, la mul­ti­pli­ca­tion du nombre de fac­teurs), cette famille de modèles arrive aujourd’­hui en fin de vie pour trois rai­sons fondamentales.

Tout d’a­bord, ces modèles reposent sur une modé­li­sa­tion ad hoc des mar­chés, loin des canons scien­ti­fiques du risk mana­ge­ment, et ont de ce fait une qua­li­té pré­dic­tive médiocre. Les risques sont en géné­ral assez sys­té­ma­ti­que­ment sous-esti­més. Or, les ges­tion­naires d’ac­tifs sont à juste titre de plus en plus exi­geants quant à la qua­li­té pré­dic­tive de leurs indi­ca­teurs de risque – car ils sont sou­mis de fac­to à une obli­ga­tion de résultat.

Ensuite, elle est inapte à don­ner une des­crip­tion des risques mul­ti­mar­chés. On peut déve­lop­per un modèle fac­to­riel per­ti­nent pour le mar­ché actions, un autre pour les taux. En revanche, il est impos­sible d’of­frir un cadre de cette nature satis­fai­sant et com­mun aux deux. De ce fait, ces modèles ne per­mettent pas de conso­li­der le risque sur les por­te­feuilles diver­si­fiés, ceux-là mêmes qui répondent le mieux à la demande de diver­si­fi­ca­tion des investisseurs.

Elle ne per­met pas de trai­ter des actifs non linéaires, tels que les pro­duits de cré­dit, les déri­vés, les asset-backed secu­ri­ties, etc.

Le monopole de fait très contraignant qu’induisent les approches de type ASP

La troi­sième voie pro­po­sée aujourd’­hui est celle de l’ASP (Appli­ca­tion ser­vice pro­vi­der). Elle consiste à par­ta­ger entre uti­li­sa­teurs un sys­tème de cal­cul de risque. Par­ta­geant le même sys­tème la com­mu­nau­té des adhé­rents de l’ASP peut de ce fait agré­ger toutes les infor­ma­tions de risque. La contre­par­tie est l’o­bli­ga­tion pour les uti­li­sa­teurs de trans­fé­rer la tota­li­té de la com­po­si­tion de leurs por­te­feuilles à cet ASP, ce qui repré­sente non seule­ment un coût d’in­té­gra­tion éle­vé et intro­duit une forte rigi­di­té dans le for­mat des ana­lyses de risque, mais induit des risques signi­fi­ca­tifs en termes de confi­den­tia­li­té de l’information.

La logique de ce sys­tème, pour fonc­tion­ner, est que le maillon ultime de conso­li­da­tion du risque impose à l’en­semble de ses gérants, ain­si qu’aux gérants de ses gérants, etc., de trans­mettre à l’ASP toute l’in­for­ma­tion sur leurs positions.

On est ain­si de fait pas­sé de la notion de » trans­pa­rence des risques » à celle de » trans­pa­rence des posi­tions « , au prix de l’é­ta­blis­se­ment d’un mono­pole de fait.

Rendre le risque additif, sans approximation

Dans tous les cas, les coûts de conso­li­da­tion viennent en fait du carac­tère non addi­tif du risque. La solu­tion est donc de rendre le risque additif !

L’in­té­rêt de l’ad­di­ti­vé : l’exemple du modèle factoriel

On a vu que les modèles fac­to­riels sont addi­tifs, ce qui rend la pro­blé­ma­tique de conso­li­da­tion aus­si simple que la conso­li­da­tion des valeurs.

De même que : prix (A) + prix (B) = prix (A + B).

On a : risque (A) + risque (B) = risque (A + B).

Dans ce cadre, une réelle trans­pa­rence des risques est pos­sible, de même qu’il existe une réelle trans­pa­rence comp­table, sans qu’il soit néces­saire de dévoi­ler et de trans­mettre le détail des posi­tions et enga­ge­ments finan­ciers. Cette trans­pa­rence peut se faire au tra­vers de mul­tiples étages de conso­li­da­tion, comme elle se fait pour les prix : le gérant d’une poche, puis le fonds, puis l’ac­tif glo­bal (mul­ti­fonds) d’un inves­tis­seur ins­ti­tu­tion­nel, puis après conso­li­da­tion avec le pas­sif l’ac­tion­naire, etc.

Le pro­blème des modèles fac­to­riels est qu’ils ne sont pas exhaus­tifs. Ils n’in­tègrent pas les non-linéa­ri­tés, le risque de cré­dit et les cor­ré­la­tions avec les actifs d’autres marchés.

Un modèle factoriel universel : le risk ticker

Com­ment faire la syn­thèse entre une approche fac­to­rielle – c’est-à-dire l’i­dée de repré­sen­ter un actif par un vec­teur addi­tif de chiffres – et les tech­niques rigou­reuses du risk mana­ge­ment ?

En d’autres termes, quels sont les fac­teurs uni­ver­sels, sur les­quels on peut pro­je­ter tous les actifs, quels que soient leur type, leur classe, en ren­dant compte de tous leurs risques spé­ci­fiques ? La réponse est en fait très intui­tive. Quand on pense au risque, on se pose en réa­li­té la ques­tion : que va-t-il se pas­ser demain sur les mar­chés finan­ciers (ou dans deux semaines ou dans un mois) ?

On pose la ques­tion à la manière du risk mana­ge­ment, c’est-à-dire non pas en ima­gi­nant un scé­na­rio pos­sible, mais 1 000 (ou 10 000) scé­na­rios pos­sibles et équi­pro­bables pour la jour­née de demain, ce pour l’en­semble des mar­chés financiers.

Ces 1 000 (ou 10 000) scé­na­rios consti­tuent bien nos fac­teurs universels.

D’a­bord, je peux pro­je­ter tous les actifs, quelles que soient leur nature ou leur com­plexi­té, sur ces fac­teurs : si je sais valo­ri­ser un actif aujourd’­hui, alors je sais bien cal­cu­ler ses 1 000 valeurs pos­sibles pour cha­cun des scé­na­rios de mar­ché ima­gi­nés pour demain, quelles que soient la classe ou la com­plexi­té de l’actif.

Ensuite, je peux être exhaus­tif : quand je pro­cède aux 1 000 rééva­lua­tions de l’ac­tif, rien ne m’in­ter­dit d’in­clure tous les risques spé­ci­fiques, dès lors qu’ils ont un impact sur la valeur de l’ac­tif – arbi­trage, cré­dit, liqui­di­té, etc.

Enfin, je conserve bien la pro­prié­té d’ad­di­ti­vi­té : le vec­teur de 1 000 prix pos­sibles se com­porte comme un prix.

Cette pro­jec­tion d’un actif sur les 1 000 scé­na­rios consti­tue un risk ticker, c’est-à-dire une repré­sen­ta­tion addi­tive, uni­ver­selle et exhaus­tive du risque de l’actif.

Une simulation cohérente de l’ensemble des marchés financiers

Approche par scé­na­rios : un modèle additif
Si dans le scé­na­rio n° 6, mon por­te­feuille Actions A vaut 104 euros et mon por­te­feuille Obli­ga­tions B vaut 895 euros, alors mon por­te­feuille A + B vaut 104 + 895 = 999 euros. Le fait que A et B soient anti­cor­ré­lés se tra­dui­ra par le fait qu’en géné­ral (mais pas tou­jours) quand A monte, B baisse, et vice ver­sa : de ce fait la dis­per­sion des valeurs A + B sera moindre que celle des valeurs A ou celle des valeurs B.
Approche par scénarios : un modèle additif

Cette approche risk ticker n’a en soi rien de révo­lu­tion­naire : elle exploite une pro­prié­té bien connue des pro­fes­sion­nels du risque, qui est l’ad­di­ti­vi­té et la puis­sance des simu­la­tions Monte-Car­lo. Elle n’é­tait, jus­qu’à récem­ment, pas réa­li­sable, pour plu­sieurs raisons.

D’une part, la pre­mière géné­ra­tion de sys­tèmes de risque a été conçue dans un envi­ron­ne­ment où la mémoire et la puis­sance de cal­cul res­taient coû­teuses. Dans ce cadre, repré­sen­ter un actif par 1 000 chiffres (et les cal­cu­ler 1 000 fois pour les pro­duits déri­vés) aurait été trop coû­teux ou trop lent.

D’autre part, une simu­la­tion cohé­rente de l’en­semble des mar­chés finan­ciers – soit des mil­lions de prix expli­qués par des dizaines de mil­liers de sous-jacents – pose des pro­blèmes très com­plexes de sta­bi­li­té et de conver­gence des algo­rithmes, et de temps de calcul.

La réduc­tion mas­sive des coûts de la puis­sance de cal­cul et de la mémoire, conju­guée aux pro­grès spec­ta­cu­laires accom­plis ces der­nières années en mathé­ma­tiques finan­cières, a ren­du effec­ti­ve­ment pos­sible cette simu­la­tion globale.

Les résul­tats enre­gis­trés depuis sep­tembre 2001, date à laquelle la pre­mière uni­té de pro­duc­tion de risk tickers a été lan­cée, ont per­mis à ses pre­miers uti­li­sa­teurs de confir­mer qu’ils tenaient avec le concept de risk ticker la solu­tion per­met­tant de répondre de manière pré­cise, fiable et éco­no­mique à la demande de trans­pa­rence des risques.

Poster un commentaire