Gestion d'actifs

Les maths au service de la gestion d’actifs

Dossier : Gestion de patrimoineMagazine N°739 Novembre 2018
Par Thadée TYL (79)

La ges­tion d’actifs est un domaine où l’utilisation des math­é­ma­tiques est fon­da­men­tale. Cela n’est pas une sur­prise puisqu’on n’y par­le en fait presque que de chiffres. Nous allons dans cet arti­cle mon­tr­er quels types d’outils et de mod­èles sont util­isés, et com­ment ces tech­niques ont évolué au cours du temps. 


© Elenathewise 

Au dix-neu­vième et au début du vingtième siè­cle, la ges­tion d’actifs est alors réduite à la ges­tion de porte­feuilles d’actions et d’obligations gérés de façon très sta­tique. Con­fron­tés au maquis que con­stitue l’univers des actions, les gérants ont con­staté que le con­cept de diver­si­fi­ca­tion est fon­da­men­tal, et qu’il est essen­tiel pour appréhen­der l’évolution glob­ale de l’univers des actions de créer une syn­thèse de l’ensemble des prix. C’est ain­si qu’apparaît la notion d’indice bour­si­er avec la créa­tion de l’indice Dow Jones. 

REPÈRES

En 1884, Charles Dow et Edward Jones créent l’indice Dow Jones, reflet des actions indus­trielles améri­caines. Il valait ini­tiale­ment 40 points con­tre près de 25 000 aujourd’hui. C’était un indice assez rudi­men­taire puisque com­posé d’un petit nom­bre d’actions (trente) et ne prenant pas en compte les div­i­den­des. Pour la petite his­toire, l’indice fut pen­dant longtemps cal­culé heure par heure à la main et il ne fut infor­ma­tisé qu’en 1963 ! 

Charles Dow et  Edward Jones.
Charles Dow et Edward Jones. 

La théorie moderne du portefeuille

La théorie mod­erne du porte­feuille est un con­cept dévelop­pé en 1952 par Har­ry Markowitz. Dans ce mod­èle, le ren­de­ment d’un act­if est une vari­able aléa­toire. Un porte­feuille est la somme pondérée de dif­férents act­ifs et par con­séquent, le ren­de­ment d’un porte­feuille est égale­ment une vari­able aléa­toire qui pos­sède une espérance et une vari­ance (l’espérance est la valeur que l’on s’attend à trou­ver en moyenne, et la vari­ance est la dis­per­sion moyenne autour de cette espérance, c’est-à-dire sa vari­abil­ité). Un investis­seur rationnel va opti­miser les car­ac­téris­tiques de son porte­feuille en max­imisant l’espérance du ren­de­ment sous con­trainte de lim­i­ta­tion du risque, c’est-à-dire de la vari­ance du porte­feuille. Sur le plan tech­nique, il s’agit donc d’un prob­lème d’optimisation qua­dra­tique assez banal. Ces bases théoriques ne seront mis­es en pra­tique que vers les années 80. 

Les années 70 : les maths arrivent en force sur les marchés

Le 18 décem­bre 1971 mar­que la fin du sys­tème moné­taire inter­na­tion­al défi­ni en 1944 à Bret­ton Woods, et la fin des taux de change fix­es. Cette péri­ode mar­que avec les options de change le début de l’essor des pro­duits dérivés appliqués aux marchés financiers (ils exis­taient déjà sur les marchés de matières pre­mières). Ce développe­ment est per­mis par les méth­odes d’analyse des proces­sus sto­chas­tiques con­ti­nus qui per­me­t­tent de met­tre avec le mod­èle de Black et Scholes un prix théorique sur les pro­duits option­nels (options d’achat, option de vente etc.). Les pro­duits dérivés n’intéressent pas encore les ges­tion­naires d’actifs, mais l’influence des maths et des sta­tis­tiques sur les marchés est lancée. 

Depuis 80 : début de la gestion quantitative

Les sta­tis­ti­ciens com­men­cent à struc­tur­er la ges­tion avec l’apparition de con­cepts qui devien­dront vite incon­tourn­ables : tout d’abord, la notion d’indice s’étend à tout type de porte­feuille et il devient vite évi­dent que toute activ­ité de ges­tion com­mence par la déf­i­ni­tion d’un indice de référence (bench­mark), et que la qual­ité d’un gérant se mesur­era à sa capac­ité à faire mieux que son indice de référence (« bat­tre son bench­mark »). Une autre inno­va­tion est l’arrivée de la notion de volatil­ité, qui n’est autre que l’écart-type de l’évolution du prix. Ce con­cept, tout droit issu des mod­èles d’options, séduit rapi­de­ment. Il intro­duit la notion de risque dans la ges­tion, ou plus exacte­ment, il per­met de com­mencer à chiffr­er le risque. Ce con­cept est à l’heure actuelle tou­jours cen­tral dans la ges­tion, notam­ment dans la régle­men­ta­tion qui y fait explicite­ment référence. Cette notion de volatil­ité est évidem­ment un peu rus­tique car elle sup­pose une dis­tri­b­u­tion gaussi­enne de vari­a­tions de prix, ce qui est assez loin de la réal­ité des marchés, et elle sup­pose égale­ment une indépen­dance des vari­a­tions de prix, même entre des dates proches, ce qui n’est pas con­forme à ce qu’on observe en réalité. 

L’inexorable développement des hedge funds

C’est égale­ment à ce moment que se dévelop­pent les hedge funds, qui utilisent la panoplie com­plète des tech­niques disponibles : levi­er, vente à décou­vert, arbi­trages entre marchés liés puis trad­ing automa­tisé, trad­ing haute fréquence qui per­me­t­tent d’exploiter toutes les inef­fi­ciences des marchés financiers, et c’est le début de la mod­éli­sa­tion de la struc­ture tem­porelle des prix : com­porte­ment d’autocorrélation, de mémoire longue (Hurst expo­nent), Box-Jenk­ins, etc. Les tech­niques util­isées ont été claire­ment basées sur des mod­èles d’évaluation d’actifs financiers, sur des tech­niques de trad­ing plus ou moins automa­tisées, et ont pu utilis­er à fond les principes de diver­si­fi­ca­tion grâce au levi­er. Les gérants de hedge funds sont cepen­dant restés assez dis­crets sur les tech­niques qu’ils utilisent. Ce que l’on peut dire aujourd’hui, c’est que l’industrie des hedge funds, qui a con­nu un développe­ment très impor­tant (près de 3 000 mil­liards de dol­lars actuelle­ment), n’est plus vrai­ment ce qu’elle était : les tech­niques d’arbitrage se sont dif­fusées aux autres gérants et leur ren­de­ment s’est par­tielle­ment éva­poré : la taille du gâteau s’est réduite, pour une taille d’actifs en ges­tion tou­jours plus impor­tante. Les ren­de­ments sont donc moins élevés qu’avant et le bêta (c’est-à-dire la con­tri­bu­tion) des prin­ci­paux fac­teurs clas­siques (action, oblig­a­tion, crédit…) à la per­for­mance est con­sid­érable­ment plus élevé qu’auparavant. En con­séquence, la valeur ajoutée et donc l’intérêt par rap­port à la ges­tion clas­sique ont forte­ment diminué. 

Depuis 90 : développement des produits garantis, gestion indicielle

Les années 90 voient appa­raître en ges­tion d’actifs les pro­duits garan­tis totale­ment ou par­tielle­ment, indexés sur un panier d’indices ou de titres, avec des for­mules d’indexation par­fois com­plex­es. La tech­nolo­gie qui sous-tend ces pro­duits est là encore directe­ment issue des méth­odes de cal­cul d’options. Ces pro­duits ont eu un grand suc­cès com­mer­cial car ils don­naient le sen­ti­ment qu’on ne pou­vait pas per­dre. La réal­ité est moins favor­able, et ces pro­duits, dont cer­tains se sont révélés déce­vants, ont fini leur vie devant les tri­bunaux, cer­tains investis­seurs esti­mant que les com­mer­cial­isa­teurs leur avaient masqué les risques réels. Ces pro­duits ont petit à petit per­du une par­tie de leur intérêt. En effet, ces pro­duits sont struc­turés sché­ma­tique­ment de la façon suiv­ante : le cap­i­tal ini­tial est répar­ti d’une part en une oblig­a­tion qui per­met de sécuris­er une par­tie ou la total­ité du cap­i­tal à l’échéance, le reste per­me­t­tant d’acheter une option qui offre une index­a­tion sur un sous-jacent, sans pos­si­bil­ité de perte. Or les taux d’intérêt ont forte­ment dimin­ué. La par­tie oblig­ataire a donc pris de plus en plus de place et la par­tie index­a­tion s’en est trou­vée réduite. 

L’engouement pour les produits basés sur des indices

Par ailleurs, on a vu se dévelop­per de façon spec­tac­u­laire les pro­duits indi­ciels, struc­turés pour repro­duire exacte­ment un indice, moyen­nant des frais de ges­tion extrême­ment bas. Là aus­si, les tech­niques math­é­ma­tiques jouent un rôle clé dans les méth­odes de répli­ca­tion d’un indice. On iden­ti­fie dif­férentes méth­odes d’indexation, comme l’optimisation dans laque­lle le ges­tion­naire va choisir avec des méth­odes d’analyse numérique quelques titres dont le com­porte­ment se rap­proche le plus pos­si­ble de celui de l’indice. Ou la répli­ca­tion strat­i­fiée : chaque secteur, chaque indus­trie (sous-secteur), chaque taille de société (grande, moyenne ou petite) et le cas échéant chaque pays seront représen­tés par une ou plusieurs actions dans le porte­feuille créé. Troisième méthode : la répli­ca­tion totale, dans laque­lle le porte­feuille est com­posé de tous les titres de l’indice, avec la même pondéra­tion. Qua­trième exem­ple : la mise en place d’un swap de per­for­mance avec une con­trepar­tie (le plus sou­vent, une salle de marché). Le swap (con­trat d’échange de per­for­mance) est un con­trat par lequel la con­trepar­tie s’engage à pay­er au gérant la per­for­mance de l’indice. De fac­to, on déplace le risque de répli­ca­tion vers la contrepartie. 

Benoît Mandelbrot
Benoît Man­del­brot remet totale­ment en ques­tion la valid­ité des théories
de Markowitz et de Sharpe 

Depuis 2000 : on comprend (enfin !) que les produits financiers ne sont pas distribués « normalement »

Benoît Man­del­brot, à tra­vers de nom­breux travaux, remet totale­ment en ques­tion la valid­ité des théories de Markowitz et de Sharpe. Le prob­lème est que les appli­ca­tions util­isant ce con­cept sont basées sur une hypothèse de dis­tri­b­u­tion nor­male (gaussi­enne) des évo­lu­tions de prix, qui sous-estime très forte­ment les événe­ments « improb­a­bles » comme les crises ou les krachs alors qu’ils sont finale­ment beau­coup moins rares que la dis­tri­b­u­tion gaussi­enne ne le prévoit. C’est ce que l’on appelle les fat tails (épais­seur des queues de dis­tri­b­u­tion). Autre prob­lème de taille : les hypothès­es néo­clas­siques sur lesquelles sont fondées ces théories sont très peu réal­istes, notam­ment la ratio­nal­ité des investis­seurs, la con­ti­nu­ité et l’indépendance des vari­a­tions de cours… 

Pour­tant, le critère Espérance-Vari­ance intro­duit par Markowitz ne fait, con­traire­ment à une idée très répan­due, aucune hypothèse sur le ren­de­ment des act­ifs, et notam­ment, ne sup­pose pas de dis­tri­b­u­tion gaussi­enne, puisqu’il suf­fit d’avoir des dis­tri­b­u­tions admet­tant des vari­ances finies pour dérouler la mod­éli­sa­tion de Markowitz. 

Con­crète­ment, l’industrie de la ges­tion d’actifs est pro­gres­sive­ment influ­encée par ces évo­lu­tions théoriques : la mesure du risque est com­plétée par la notion de valeur en risque (VaR, val­ue at risk) qui estime le niveau de perte à un hori­zon don­né, qui, pour une prob­a­bil­ité don­née (par exem­ple 1 %), ne doit pas être dépassé. Ce con­cept per­met d’appréhender les risques asso­ciés à des dis­tri­b­u­tions non gaussi­ennes mais souf­fre pour­tant de nom­breux défauts, le plus impor­tant étant qu’il ne décrit pas ce qui se passe dans le 1 % de cas défa­vor­ables. Curieuse­ment, le con­cept de CVaR (con­di­tion­al val­ue at risk) qui est l’espérance de perte dans le 1 % de cas défa­vor­ables n’a pas ce défaut, mais reste encore très sous-utilisé. 

Indices intel­li­gents

La théorie a mon­tré que les indices clas­siques pondérés par les cap­i­tal­i­sa­tions bour­sières étaient adap­tés à la descrip­tion du marché, mais étaient sous-opti­maux en ter­mes de per­for­mance. C’est ain­si que sont apparus des indices intel­li­gents (smart beta) qui ont voca­tion à surper­former les indices classiques. 

Big data et IA

Les années récentes ont vu deux thèmes promet­teurs apparaître. 

Le big data : réseaux soci­aux, bases de don­nées mas­sives et méth­odes d’analyse adap­tées à ce type de don­nées sus­ci­tent un intérêt crois­sant de la part des ges­tion­naires d’actifs. La course aux don­nées n’est pas un phénomène nou­veau, mais alors qu’il y a dix ans les don­nées analysées étaient essen­tielle­ment en lien direct avec les marchés, les don­nées sont aujourd’hui beau­coup plus divers­es, moins struc­turées et elles provi­en­nent de sources mul­ti­ples. Cepen­dant, la qual­ité des don­nées décroît avec leur quan­tité, et il n’est pas facile de dis­tinguer l’information per­ti­nente du bruit. Jusqu’ici, et pour autant qu’on le sache, ces approches n’ont pas vrai­ment été con­clu­antes en ges­tion d’actifs, et quand bien même elles le seraient, il est vraisem­blable qu’elles seraient rapi­de­ment dif­fusées et donc que leur valeur ajoutée s’évaporerait très vite. 

Les tech­niques d’intelligence arti­fi­cielle offrent main­tenant des per­spec­tives très intéres­santes, avec d’une part les tech­niques de recon­nais­sance de forme qui per­me­t­tent d’identifier des sché­mas (des pat­terns), et les approches du type deep­mind avec leurs mécan­ismes d’autoapprentissage. C’est prob­a­ble­ment très promet­teur : nous avons vu que le pro­gramme Alpha­Go pou­vait bat­tre les meilleurs joueurs pro­fes­sion­nels du jeu de go, rien n’est donc impos­si­ble. Mon impres­sion per­son­nelle est que c’est cette direc­tion qui est la plus promet­teuse pour l’avenir. 

Poster un commentaire