Gestion d'actifs

Les maths au service de la gestion d’actifs

Dossier : Gestion de patrimoineMagazine N°739 Novembre 2018
Par Thadée TYL (79)

La ges­tion d’actifs est un domaine où l’utilisation des mathé­ma­tiques est fon­da­men­tale. Cela n’est pas une sur­prise puisqu’on n’y parle en fait presque que de chiffres. Nous allons dans cet article mon­trer quels types d’outils et de modèles sont uti­li­sés, et com­ment ces tech­niques ont évo­lué au cours du temps. 


© Elenathewise 

Au dix-neu­vième et au début du ving­tième siècle, la ges­tion d’actifs est alors réduite à la ges­tion de por­te­feuilles d’actions et d’obligations gérés de façon très sta­tique. Confron­tés au maquis que consti­tue l’univers des actions, les gérants ont consta­té que le concept de diver­si­fi­ca­tion est fon­da­men­tal, et qu’il est essen­tiel pour appré­hen­der l’évolution glo­bale de l’univers des actions de créer une syn­thèse de l’ensemble des prix. C’est ain­si qu’apparaît la notion d’indice bour­sier avec la créa­tion de l’indice Dow Jones. 

REPÈRES

En 1884, Charles Dow et Edward Jones créent l’indice Dow Jones, reflet des actions indus­trielles amé­ri­caines. Il valait ini­tia­le­ment 40 points contre près de 25 000 aujourd’hui. C’était un indice assez rudi­men­taire puisque com­po­sé d’un petit nombre d’actions (trente) et ne pre­nant pas en compte les divi­dendes. Pour la petite his­toire, l’indice fut pen­dant long­temps cal­cu­lé heure par heure à la main et il ne fut infor­ma­ti­sé qu’en 1963 ! 

Charles Dow et  Edward Jones.
Charles Dow et Edward Jones. 

La théorie moderne du portefeuille

La théo­rie moderne du por­te­feuille est un concept déve­lop­pé en 1952 par Har­ry Mar­ko­witz. Dans ce modèle, le ren­de­ment d’un actif est une variable aléa­toire. Un por­te­feuille est la somme pon­dé­rée de dif­fé­rents actifs et par consé­quent, le ren­de­ment d’un por­te­feuille est éga­le­ment une variable aléa­toire qui pos­sède une espé­rance et une variance (l’espérance est la valeur que l’on s’attend à trou­ver en moyenne, et la variance est la dis­per­sion moyenne autour de cette espé­rance, c’est-à-dire sa varia­bi­li­té). Un inves­tis­seur ration­nel va opti­mi­ser les carac­té­ris­tiques de son por­te­feuille en maxi­mi­sant l’espérance du ren­de­ment sous contrainte de limi­ta­tion du risque, c’est-à-dire de la variance du por­te­feuille. Sur le plan tech­nique, il s’agit donc d’un pro­blème d’optimisation qua­dra­tique assez banal. Ces bases théo­riques ne seront mises en pra­tique que vers les années 80. 

Les années 70 : les maths arrivent en force sur les marchés

Le 18 décembre 1971 marque la fin du sys­tème moné­taire inter­na­tio­nal défi­ni en 1944 à Bret­ton Woods, et la fin des taux de change fixes. Cette période marque avec les options de change le début de l’essor des pro­duits déri­vés appli­qués aux mar­chés finan­ciers (ils exis­taient déjà sur les mar­chés de matières pre­mières). Ce déve­lop­pe­ment est per­mis par les méthodes d’analyse des pro­ces­sus sto­chas­tiques conti­nus qui per­mettent de mettre avec le modèle de Black et Scholes un prix théo­rique sur les pro­duits option­nels (options d’achat, option de vente etc.). Les pro­duits déri­vés n’intéressent pas encore les ges­tion­naires d’actifs, mais l’influence des maths et des sta­tis­tiques sur les mar­chés est lancée. 

Depuis 80 : début de la gestion quantitative

Les sta­tis­ti­ciens com­mencent à struc­tu­rer la ges­tion avec l’apparition de concepts qui devien­dront vite incon­tour­nables : tout d’abord, la notion d’indice s’étend à tout type de por­te­feuille et il devient vite évident que toute acti­vi­té de ges­tion com­mence par la défi­ni­tion d’un indice de réfé­rence (bench­mark), et que la qua­li­té d’un gérant se mesu­re­ra à sa capa­ci­té à faire mieux que son indice de réfé­rence (« battre son bench­mark »). Une autre inno­va­tion est l’arrivée de la notion de vola­ti­li­té, qui n’est autre que l’écart-type de l’évolution du prix. Ce concept, tout droit issu des modèles d’options, séduit rapi­de­ment. Il intro­duit la notion de risque dans la ges­tion, ou plus exac­te­ment, il per­met de com­men­cer à chif­frer le risque. Ce concept est à l’heure actuelle tou­jours cen­tral dans la ges­tion, notam­ment dans la régle­men­ta­tion qui y fait expli­ci­te­ment réfé­rence. Cette notion de vola­ti­li­té est évi­dem­ment un peu rus­tique car elle sup­pose une dis­tri­bu­tion gaus­sienne de varia­tions de prix, ce qui est assez loin de la réa­li­té des mar­chés, et elle sup­pose éga­le­ment une indé­pen­dance des varia­tions de prix, même entre des dates proches, ce qui n’est pas conforme à ce qu’on observe en réalité. 

L’inexorable développement des hedge funds

C’est éga­le­ment à ce moment que se déve­loppent les hedge funds, qui uti­lisent la pano­plie com­plète des tech­niques dis­po­nibles : levier, vente à décou­vert, arbi­trages entre mar­chés liés puis tra­ding auto­ma­ti­sé, tra­ding haute fré­quence qui per­mettent d’exploiter toutes les inef­fi­ciences des mar­chés finan­ciers, et c’est le début de la modé­li­sa­tion de la struc­ture tem­po­relle des prix : com­por­te­ment d’autocorrélation, de mémoire longue (Hurst exponent), Box-Jen­kins, etc. Les tech­niques uti­li­sées ont été clai­re­ment basées sur des modèles d’évaluation d’actifs finan­ciers, sur des tech­niques de tra­ding plus ou moins auto­ma­ti­sées, et ont pu uti­li­ser à fond les prin­cipes de diver­si­fi­ca­tion grâce au levier. Les gérants de hedge funds sont cepen­dant res­tés assez dis­crets sur les tech­niques qu’ils uti­lisent. Ce que l’on peut dire aujourd’hui, c’est que l’industrie des hedge funds, qui a connu un déve­lop­pe­ment très impor­tant (près de 3 000 mil­liards de dol­lars actuel­le­ment), n’est plus vrai­ment ce qu’elle était : les tech­niques d’arbitrage se sont dif­fu­sées aux autres gérants et leur ren­de­ment s’est par­tiel­le­ment éva­po­ré : la taille du gâteau s’est réduite, pour une taille d’actifs en ges­tion tou­jours plus impor­tante. Les ren­de­ments sont donc moins éle­vés qu’avant et le bêta (c’est-à-dire la contri­bu­tion) des prin­ci­paux fac­teurs clas­siques (action, obli­ga­tion, cré­dit…) à la per­for­mance est consi­dé­ra­ble­ment plus éle­vé qu’auparavant. En consé­quence, la valeur ajou­tée et donc l’intérêt par rap­port à la ges­tion clas­sique ont for­te­ment diminué. 

Depuis 90 : développement des produits garantis, gestion indicielle

Les années 90 voient appa­raître en ges­tion d’actifs les pro­duits garan­tis tota­le­ment ou par­tiel­le­ment, indexés sur un panier d’indices ou de titres, avec des for­mules d’indexation par­fois com­plexes. La tech­no­lo­gie qui sous-tend ces pro­duits est là encore direc­te­ment issue des méthodes de cal­cul d’options. Ces pro­duits ont eu un grand suc­cès com­mer­cial car ils don­naient le sen­ti­ment qu’on ne pou­vait pas perdre. La réa­li­té est moins favo­rable, et ces pro­duits, dont cer­tains se sont révé­lés déce­vants, ont fini leur vie devant les tri­bu­naux, cer­tains inves­tis­seurs esti­mant que les com­mer­cia­li­sa­teurs leur avaient mas­qué les risques réels. Ces pro­duits ont petit à petit per­du une par­tie de leur inté­rêt. En effet, ces pro­duits sont struc­tu­rés sché­ma­ti­que­ment de la façon sui­vante : le capi­tal ini­tial est répar­ti d’une part en une obli­ga­tion qui per­met de sécu­ri­ser une par­tie ou la tota­li­té du capi­tal à l’échéance, le reste per­met­tant d’acheter une option qui offre une indexa­tion sur un sous-jacent, sans pos­si­bi­li­té de perte. Or les taux d’intérêt ont for­te­ment dimi­nué. La par­tie obli­ga­taire a donc pris de plus en plus de place et la par­tie indexa­tion s’en est trou­vée réduite. 

L’engouement pour les produits basés sur des indices

Par ailleurs, on a vu se déve­lop­per de façon spec­ta­cu­laire les pro­duits indi­ciels, struc­tu­rés pour repro­duire exac­te­ment un indice, moyen­nant des frais de ges­tion extrê­me­ment bas. Là aus­si, les tech­niques mathé­ma­tiques jouent un rôle clé dans les méthodes de répli­ca­tion d’un indice. On iden­ti­fie dif­fé­rentes méthodes d’indexation, comme l’optimisation dans laquelle le ges­tion­naire va choi­sir avec des méthodes d’analyse numé­rique quelques titres dont le com­por­te­ment se rap­proche le plus pos­sible de celui de l’indice. Ou la répli­ca­tion stra­ti­fiée : chaque sec­teur, chaque indus­trie (sous-sec­teur), chaque taille de socié­té (grande, moyenne ou petite) et le cas échéant chaque pays seront repré­sen­tés par une ou plu­sieurs actions dans le por­te­feuille créé. Troi­sième méthode : la répli­ca­tion totale, dans laquelle le por­te­feuille est com­po­sé de tous les titres de l’indice, avec la même pon­dé­ra­tion. Qua­trième exemple : la mise en place d’un swap de per­for­mance avec une contre­par­tie (le plus sou­vent, une salle de mar­ché). Le swap (contrat d’échange de per­for­mance) est un contrat par lequel la contre­par­tie s’engage à payer au gérant la per­for­mance de l’indice. De fac­to, on déplace le risque de répli­ca­tion vers la contrepartie. 

Benoît Mandelbrot
Benoît Man­del­brot remet tota­le­ment en ques­tion la vali­di­té des théories
de Mar­ko­witz et de Sharpe 

Depuis 2000 : on comprend (enfin !) que les produits financiers ne sont pas distribués « normalement »

Benoît Man­del­brot, à tra­vers de nom­breux tra­vaux, remet tota­le­ment en ques­tion la vali­di­té des théo­ries de Mar­ko­witz et de Sharpe. Le pro­blème est que les appli­ca­tions uti­li­sant ce concept sont basées sur une hypo­thèse de dis­tri­bu­tion nor­male (gaus­sienne) des évo­lu­tions de prix, qui sous-estime très for­te­ment les évé­ne­ments « impro­bables » comme les crises ou les krachs alors qu’ils sont fina­le­ment beau­coup moins rares que la dis­tri­bu­tion gaus­sienne ne le pré­voit. C’est ce que l’on appelle les fat tails (épais­seur des queues de dis­tri­bu­tion). Autre pro­blème de taille : les hypo­thèses néo­clas­siques sur les­quelles sont fon­dées ces théo­ries sont très peu réa­listes, notam­ment la ratio­na­li­té des inves­tis­seurs, la conti­nui­té et l’indépendance des varia­tions de cours… 

Pour­tant, le cri­tère Espé­rance-Variance intro­duit par Mar­ko­witz ne fait, contrai­re­ment à une idée très répan­due, aucune hypo­thèse sur le ren­de­ment des actifs, et notam­ment, ne sup­pose pas de dis­tri­bu­tion gaus­sienne, puisqu’il suf­fit d’avoir des dis­tri­bu­tions admet­tant des variances finies pour dérou­ler la modé­li­sa­tion de Markowitz. 

Concrè­te­ment, l’industrie de la ges­tion d’actifs est pro­gres­si­ve­ment influen­cée par ces évo­lu­tions théo­riques : la mesure du risque est com­plé­tée par la notion de valeur en risque (VaR, value at risk) qui estime le niveau de perte à un hori­zon don­né, qui, pour une pro­ba­bi­li­té don­née (par exemple 1 %), ne doit pas être dépas­sé. Ce concept per­met d’appréhender les risques asso­ciés à des dis­tri­bu­tions non gaus­siennes mais souffre pour­tant de nom­breux défauts, le plus impor­tant étant qu’il ne décrit pas ce qui se passe dans le 1 % de cas défa­vo­rables. Curieu­se­ment, le concept de CVaR (condi­tio­nal value at risk) qui est l’espérance de perte dans le 1 % de cas défa­vo­rables n’a pas ce défaut, mais reste encore très sous-utilisé. 

Indices intel­li­gents

La théo­rie a mon­tré que les indices clas­siques pon­dé­rés par les capi­ta­li­sa­tions bour­sières étaient adap­tés à la des­crip­tion du mar­ché, mais étaient sous-opti­maux en termes de per­for­mance. C’est ain­si que sont appa­rus des indices intel­li­gents (smart beta) qui ont voca­tion à sur­per­for­mer les indices classiques. 

Big data et IA

Les années récentes ont vu deux thèmes pro­met­teurs apparaître. 

Le big data : réseaux sociaux, bases de don­nées mas­sives et méthodes d’analyse adap­tées à ce type de don­nées sus­citent un inté­rêt crois­sant de la part des ges­tion­naires d’actifs. La course aux don­nées n’est pas un phé­no­mène nou­veau, mais alors qu’il y a dix ans les don­nées ana­ly­sées étaient essen­tiel­le­ment en lien direct avec les mar­chés, les don­nées sont aujourd’hui beau­coup plus diverses, moins struc­tu­rées et elles pro­viennent de sources mul­tiples. Cepen­dant, la qua­li­té des don­nées décroît avec leur quan­ti­té, et il n’est pas facile de dis­tin­guer l’information per­ti­nente du bruit. Jusqu’ici, et pour autant qu’on le sache, ces approches n’ont pas vrai­ment été concluantes en ges­tion d’actifs, et quand bien même elles le seraient, il est vrai­sem­blable qu’elles seraient rapi­de­ment dif­fu­sées et donc que leur valeur ajou­tée s’évaporerait très vite. 

Les tech­niques d’intelligence arti­fi­cielle offrent main­te­nant des pers­pec­tives très inté­res­santes, avec d’une part les tech­niques de recon­nais­sance de forme qui per­mettent d’identifier des sché­mas (des pat­terns), et les approches du type deep­mind avec leurs méca­nismes d’autoapprentissage. C’est pro­ba­ble­ment très pro­met­teur : nous avons vu que le pro­gramme Alpha­Go pou­vait battre les meilleurs joueurs pro­fes­sion­nels du jeu de go, rien n’est donc impos­sible. Mon impres­sion per­son­nelle est que c’est cette direc­tion qui est la plus pro­met­teuse pour l’avenir. 

Poster un commentaire