Showing posts with label Cygne Noir. Show all posts
Showing posts with label Cygne Noir. Show all posts

Saturday, November 21, 2009

Brainstorming on How Complex system Fail

Richard I COOK comes up with a must read piece on how complex system fail.
Here are his 18 bullet points, and my thoughts on the subject:

1.Complex systems are intrinsically hazardous systems.


All of the interesting systems (e.g. transportation, healthcare, power generation) are inherently and unavoidably hazardous by the own nature. The frequency of hazard exposure can sometimes be changed but the processes involved in the system are themselves intrinsically and irreducibly hazardous. It is the presence of these hazards that drives the creation of defenses against hazard that characterize these systems.

what comes to my mind: Stock Market, Regulation, Behavioural Finance, Bonded Rationality

2.Complex systems are heavily and successfully defended against failure

The high consequences of failure lead over time to the construction of multiple layers of defense against failure. These defenses include obvious technical components (e.g. backup systems, ‘safety’ features of equipment) and human components (e.g. training, knowledge) but also a variety of organizational, institutional, and regulatory defenses (e.g. policies and procedures, certification, work rules, team training). The effect of these measures is to provide a series of shields that normally divert operations away from accidents.

what comes to my mind: Risk Analysis, FED, Reserves, Regulation, Technical Analysis, Creative Destruction


3. Catastrophe requires multiple failures – single point failures are not enough.

The array of defenses works. System operations are generally successful. Overt catastrophic failure occurs when small, apparently innocuous failures join to create opportunity for a systemic accident. Each of these small failures is necessary to cause catastrophe but only the combination is sufficient to permit failure. Put another way, there are many more failure opportunities than overt system accidents. Most initial failure trajectories are blocked by designed system safety components. Trajectories that reach the operational level are mostly blocked, usually by practitioners.

what comes to my mind: Complexity of Finance, Hindsight Bias, Systemic Failures, Feedback loops, Power Laws, Black Swans

4. Complex systems contain changing mixtures of failures latent within them


The complexity of these systems makes it impossible for them to run without multiple flaws being present. Because these are individually insufficient to cause failure they are regarded as minor factors during operations. Eradication of all latent failures is limited primarily by economic cost but also because it is difficult before the fact to see how such failures might contribute to an accident. The failures change constantly because of changing technology, work organization, and efforts to eradicate failures.

What comes to my mind: Optimization, Efficient Market Hypothesis, FAMA


5. Complex systems run in degraded mode


A corollary to the preceding point is that complex systems run as broken systems. The system continues to function because it contains so many redundancies and because people can make it function, despite the presence of many flaws. After accident reviews nearly always note that the system has a history of prior ‘proto-accidents’ that nearly generated catastrophe. Arguments that these degraded conditions should have been recognized before the overt accident are usually predicated on naïve notions of system performance. System operations are dynamic, with components (organizational, human, technical) failing and being replaced continuously.

What Comes to my mind: 



6. Catastrophe is always just around the corner.


Complex systems possess potential for catastrophic failure. Human practitioners are nearly always in close physical and temporal proximity to these potential failures – disaster can occur at any time and in nearly any place. The potential for catastrophic outcome is a hallmark of complex systems. It is impossible to eliminate the potential for such catastrophic failure; the potential for such failure is always present by the system’s own nature.


What Comes to my mind: Illusion of Control, Great Moderation illusion, Uncertainty principle, Prudential regulation


7. Post-accident attribution accident to a ‘root cause’ is fundamentally wrong.


Because overt failure requires multiple faults, there is no isolated ‘cause’ of an accident. There are multiple contributors to accidents. Each of these is necessary insufficient in itself to create an accident. Only jointly are these causes sufficient to create an accident. Indeed, it is the linking of these causes together that creates the circumstances required for the accident. Thus, no isolation of the ‘root cause’ of an accident is possible. The evaluations based on such reasoning as ‘root cause’ do not reflect a technical understanding of the nature of  failure but rather the social, cultural need to blame specific, localized forces or events for outcomes.


What Comes to my mind: Hindsight bias, Reductionism, KAHNEMAN, Subprime Crisis, Management Books


8. Hindsight biases post-accident assessments of human performance.


Knowledge of the outcome makes it seem that events leading to the outcome should have appeared more salient to practitioners at the time than was actually the case. This means that ex post facto accident analysis of human performance is inaccurate. The outcome knowledge poisons the ability of after-accident observers to recreate the view of practitioners before the accident of those same factors. It seems that practitioners “should have known” that the factors would “inevitably” lead to an accident.2 Hindsight bias remains the primary obstacle to accident investigation, especially when expert human performance is involved.


What comes to my mind: Forward Thinking, Opportunism, Survivorship Bias


9. Human operators have dual roles: as producers & as defenders against failure


The system practitioners operate the system in order to produce its desired product and also work to forestall accidents. This dynamic quality of system operation, the balancing of demands for production against the possibility of incipient failure is unavoidable. Outsiders rarely acknowledge the duality of this role. In non accident filled times, the production role is emphasized. After accidents, the defense against failure role is emphasized. At either time, the outsider’s view misapprehends the operator’s constant, simultaneous engagement with both roles.


What Comes to my mind: Complexity (and acknowledged lack of understanding) of Financial Instruments, VaR, Black Swans


10. All practitioner actions are gambles


After accidents, the overt failure often appears to have been inevitable and the practitioner’s actions as blunders or deliberate willful disregard of certain impending failure. But all practitioner actions are actually gambles, that is, acts that take place in the face of uncertain outcomes. The degree of uncertainty may change from moment to moment. That practitioner actions are gambles appears clear after accidents; in general,post hoc analysis regards these gambles as poor ones. But the converse: that successful outcomes are also the result of gambles; is not widely appreciated.


What comes to my mind: Reductionism of the complexity of Finance, Illusory importance given to Track Records, Survivorship Bias, Finance is considered too Serious.


11) Actions at the sharp end resolve all ambiguity


Organizations are ambiguous, often intentionally, about the relationship between production targets, efficient use of resources, economy and costs of operations, and acceptable risks of low and high consequence accidents. All ambiguity is resolved by actions of practitioners at the sharp end of the system. After an accident, practitioner actions may be regarded as ‘errors’ or ‘violations’ but these evaluations are heavily biased by hindsight and ignore the other driving forces, especially production pressure.


What Comes to my mind:


12. Human practitioners are the adaptable element of complex systems


Practitioners and first line management actively adapt the system to maximize production and minimize accidents. These adaptations often occur on a moment by moment basis. Some of these adaptations include: (1) Restructuring the system in order to reduce exposure of vulnerable parts to failure. (2) Concentrating critical resources in areas of expected high demand. (3) Providing pathways for retreat or recovery from
 expected and unexpected faults. (4) Establishing means for early detection of changed system performance in order to allow graceful cutbacks in production or other means of increasing resiliency.


What Comes to my mind: Risk Analysis, Management Reductionism, Holistic view of Business, Flaw of Averages




13. Human expertise in complex systems is constantly changing


Complex systems require substantial human expertise in their operation and management. This expertise changes in character as technology changes but it also changes because of the need to replace experts who leave. In every case, training and refinement of skill and expertise is one part of the function of the system itself. At any moment, therefore, a given complex system will contain practitioners and trainees with varying degrees of expertise. Critical issues related to expertise arise from (1) the need to use scarce expertise as a resource for the most difficult or demanding production needs and (2) the need to develop expertise for future use.


What Comes to my mind:


 Too much time is spent trying to find out more and more about less and less, until we know everything about nothing,'' MONTIER says. ``Rarely, if ever, do we stop and ask what do we actually need to know
14. Change introduces new forms of failure.


The low rate of overt accidents in reliable systems may encourage changes, especially the use of new technology, to decrease the number of low consequence but high frequency failures. These changes maybe actually create opportunities for new, low frequency but high consequence failures. When new technologies are used to eliminate well understood system failures or to gain high precision performance they often introduce new pathways to large scale, catastrophic failures. Not uncommonly, these new, rare catastrophes have even greater impact than those eliminated by the new technology. These new forms of failure are difficult to see before the fact; attention is paid mostly to the putative beneficial characteristics of the changes. Because these new, high consequence accidents occur at a low rate, multiple system changes may occur before an accident, making it hard to see the contribution of technology to the failure.


What Comes to my mind: Backlash of the Rationalization Era, Pattern recognition illusion, VaR, Risk Hedging, Illusion of Forecasting Black Swans




15. Views of ‘cause’ limit the effectiveness of defenses against future events


Post-accident remedies for “human error” are usually predicated on obstructing activities that can “cause” accidents. These end-of-the-chain measures do little to reduce the likelihood of further accidents. In fact that likelihood of an identical accident is already extraordinarily low because the pattern of latent failures changes constantly. Instead of increasing safety, post-accident remedies usually increase the coupling and complexity ofthe system. This increases the potential number of latent failures and also makes the detection and blocking of accident trajectories more difficult.


What comes to my mind: Inference is illusory, the increase in car accidents related deaths after 9/11, Don't give credit to people who were right about past events


Do not repeat the tactics which have gained you one victory, but let your methods be regulated by the infinite variety of circumstances. SUN TZU


16. Safety is a characteristic of systems and not of their components


Safety is an emergent property of systems; it does not reside in a person, device or department of an organization or system. Safety cannot be purchased or manufactured; it is not a feature that is separate from the other components of the system. This means that safety cannot be manipulated like a feedstock or raw material. The state of safety in any system is always dynamic; continuous systemic change insures that hazard and its management are constantly changing.


What comes to my mind: Current atomicity of Financial regulation, FED, ECB, cooperation and NASH's Equilibrium


For should the enemy strengthen his van, he will weaken his rear; should he strengthen his rear, he will weaken his van; should he strengthen his left, he will weaken his right; should he strengthen his right, he will weaken his left. If he sends reinforcements everywhere, he will everywhere be weak SUN TZU (again)
17. People continuously create safety


Failure free operations are the result of activities of people who work to keep the system within the boundaries of tolerable performance. These activities are, for the most part, part of normal operations and superficially straightforward. But because system operations are never trouble free, human practitioner adaptations to changing conditions actually create safety from moment to moment. These adaptations often amount to just the selection of a well-rehearsed routine from a store of available responses; sometimes, however, the adaptations are novel combinations or de novo creations of new approaches.


What Comes to my mind: Moderation principle, Staying away of what you don't understand, Marathon runners and Sprinters / BUFFET and Day Traders


18. Failure free operations require experience with failure


Recognizing hazard and successfully manipulating system operations to remain inside the tolerable performance boundaries requires intimate contact with failure. More robust system performance is likely to arise in systems where operators can discern the “edge of the envelope”. This is where system performance begins to deteriorate, becomes difficult to predict, or cannot be readily recovered. In intrinsically hazardous systems, operators are expected to encounter and appreciate hazards in ways that lead to overall performance that is desirable. Improved safety depends on providing operators with calibrated views of the hazards. It also depends on providing calibration about how their actions move system performance towards or away from the edge of the envelope.


What comes to my mind: !Not finding books on Amazon telling the story of Failure.

Sunday, November 15, 2009

Black Swans, Les Oubliés de la Grande Modération

Dans la première partie, nous avons considéré les failles des modèles traditionnels fondés sur une distribution Gaussienne: Une des limites de ces modèles est la place centrale accordée à la valeur moyenne de l’échantillon.


Illustration de la faiblesse de la Moyenne au sein de valeurs ne suivant pas une distribution normale :


On considère un échantillon de 10 personnes dont on calcule le Revenu Moyen (Somme des Revenus individuels / 10) , et le Revenu médian (Valeur pour laquelle 5 personnes gagneront moins, et 5 plus). Une fois ces deux valeurs acquises, remplacer une des personnes par Warren BUFFET.
Le Revenu Médian restera inchangé, alors que l’échantillon des personnes deviendra « en moyenne » milliardaire.

Au sein d’une distribution normale, les évènements de l’échantillon ont une probabilité d’occurrence inversement proportionnelle à leur écart avec la valeur Moyenne. Pourtant, certaines variables aléatoires (comme la valeur nette des individus) laissent apparaitre des outliers (évènements à probabilité faible, mais non nulle possédant un impact majeur)

In the first months of 1998, markets were smooth. ... The mood at Long-Term was relaxed, too. Though the fund's leverage was up, and though the partners had taken out huge personal loans, their exposure seemed tolerable. ... According to their models, the maximum that they were likely to lose on any single trading day was $45 million—certainly tolerable for a firm with a hundred times as much in capital. According to these same models, the odds against the firm's suffering a sustained run of bad luck—say, losing 40 percent of its capital in a single month—were unthinkably high. (So far, in their worst month, they had lost a mere 2.9 percent.) Indeed, the figures implied that it would take a so-called ten-sigma event—that is, a statistical freak occurring one in every ten to the twenty-fourth power times—for the firm to lose all of its capital within one year. 1 R. Lowenstein, "When Genius Failed: The Rise and Fall of Long-Term Capital Management," Random House, 2001, pp. 126–127.
Comme nous l’avons évoqué, selon la loi Normale, plus un évènement est écarté de la valeur moyenne plus sa probabilité d’existence est faible. L’unité de mesure de la distance qui sépare moyenne et évènement communément retenue est le sigma (écart type). Au sein d’une distribution Normale, plus le sigma est fort, plus la courbe est censée « recouvrir » l’ensemble des éventualités.








Un évènement sera donc caractérisé par son sigma d’écart avec la valeur moyenne de l’échantillon, et la VaR correspondante sera proportionnelle à ce sigma. Plus l'écart avec la moyenne est élevé, plus on risque de perdre ou gagner gros. 
Dans l'hypothèse d’une distribution normale des risques, ces éventualités sont considérées comme statistiquement insignifiantes, et doivent être retirées de l’échantillon.  Les modèles destinés à effectuer des prévisions sont de fait invalides, non seulement car le futur n'est jamais une simple extrapolation du passé, mais aussi car le passé s’est vu « gommé » d’évènements ne « fittant » pas l’hypothèse de distribution normale.


Selon leur définition par TALEB, les Black Swans ou Cygnes Noirs sont des évènements difficiles à prévoir, d'une forte rareté mais aussi possédant un impact majeur. 
Vouloir lisser les queues des distributions est une abbération, car en gommant de notre échantillon ces évènements, nous faussons entièrement la situation.








Les institutions financières ont vu la totalité des profits réalisés sur les périodes précédentes effacées par la crise. Peut-on gommer ces retours négatifs sous l'excuse qu'ils ne sont que des anormalités statistiques?


La stratégie de trading de TALEB (qui se concentre sur les options) devient alors compréhensible: en pariant sur des évènements improbables, la probabilité de perdre est forte mais l'importance de ces pertes est faible (Bleed). En revanche, si l'évènement se réalise, le payoff est très important. Il s'agit de l'inverse de la stratégie adoptée par les investisseurs et résumée par la Figure 2 (blow) (tirée de l'annexe statistique fournie par TALEB destinée aux détracteurs de son Black Swan)


Selon la Loi Normale, il existe sur les Marchés Financiers un grand nombre d'évènements proches de la moyenne  (à sigma faibles). En revanche, la probabilité d'occurrence d'évènements éloignées de la moyenne (a sigmas élevés) est plus forte que celle supposée par la Loi Normale. Ces évènements restent rares, mais beaucoup moins que prévu.





Certains évènements se déroulant sur les marchés Financiers ne possèdent aucun sens à la lumière de la distribution Normale. En réalité, les retours enregistrés sur les ces memes marchés suivent des Lois de Puissance, comme démontré pour le DAX.


Les Lois de Puissance (ou Power Laws) sont utilisées pour caractériser la fréquence d'apparition d'un grand nombre d'évènements générés par des systèmes complexes: Taille des Villes, Fréquence et Amplitude de Tremblements de Terre, et donc Marchés Financiers.
Gaussian distributions tend to prevail when events are completely independent of each other. As soon as you introduce the assumption of interdependence across events, Paretian distributions tend to surface because positive feedback loops tend to amplify small initial events. For example, the fact that a website has a lot of links increases the likelihood that others will also link to this website
Une des applications des lois de puissance les plus connues est sans doute la  Loi de PARETO, ou principe du 80/20.
Celle-ci, appliquée depuis un certain nombres d'années aux principes du management comme à la distribution de musiques en ligne, énonce par exemple qu'il est probable que 20% des Produits Vendus par la Firme A génère 80% de ses Revenus. 
Dans le conseil en stratégie, il est commun d'entendre que les recommandations ne constituent que 20% du livrable final mais 80% de la valeur ajoutée.


Selon MCKELVEY et ANDRIANI, l'exacerbation des tensions compétitives et l'écroulement des couts de transaction engendrés par la globalisation ont transformé les distributions Gaussiennes en Distributions de Pareto.
Sous l'influence de ces 2 vecteurs, l'architecture des marchés financiers a gagné en complexité, nourrissant effets de second tour et explosion des flux d'information. De plus, les distributions de Pareto sont gouvernées par la logique du Winner Takes All: Il existe au sein de la distribution un nombre restreint d'évènements au possédant un nombre de connexions supérieurs à la moyenne avec le reste du système,et ceux-ci sont présents dans la queue de la distribution. C'est l'effet Boule de Neige: plus un évènement possède de connections, plus son nombre de points de contacts avec le reste des évènements est élevé et plus la probabilité d'accumuler de nouveaux contacts est forte. Pensez à vos amis Facebook.








Ce nombre de liens élevés avec le reste du système caractérisant les évènements improbables est responsable du risque systémique. C'est en partie pour cela qu'il nous est difficile d'attribuer les crises à des évènements précis. Une multitude de facteurs créé la possibilité d'un évènement si improbable. Comme dans tout système complexe, la somme des conséquences et risques individuels de chacun de ces évènements est différente des risques et conséquences de l'évènement.

Une bulle résulte d'un système complexe de facteurs. Plus de nouveaux facteurs rentrent en jeu, plus la bulle grossit. En Revanche, plus la Bulle est grosse et plus elle touche d'aiguilles:
A crash occurs because the market has entered an unstable phase toward the culmination of a bubble and any small disturbance or process may reveal the existence of the instability. SORNETTE, 2008


Analyse de la crise des Subprimes a travers le concept de Black Swan:


Les changements de paradigme sont traditionnellement issus de moments de crise. A ce titre, la crise des subprimes a donne naissance a de nouveaux schémas d'analyse économique et stratégique. De nouveaux termes de recherches émergent actuellement, dont la majorité sont lies a la prise en compte de phénomène improbables et de fait l'analyse de risque.


La popularité grandissante de l'Econophysique illustre cette tendance a considérer toute crise économique comme crise de la pensée économique.


L'econophysique est une tentative de compréhension des phénomènes économiques a travers le filtre des évènements complexes, et plus particulièrement ceux appartenant au domaine de recherche de la Physique.


Issue du dernier McKINSEY Quarterly, cette représentation de la relation entre fréquence et ampleur des crises bancaires comparée a celles de tremblements de terre montre a quel point ces phénomènes peuvent être compares, et ouvre des pistes de recherches passionnantes.  










Money Market Black Swan

Tuesday, October 27, 2009

L'importance des Black Swans en Economie




En 1997, le fond Long Term Capital Management (LTCM, qui comptait à son bord les deux prix nobels MERTON et SCHOLES) disposait des modèles de prédiction les plus avancés de sa génération. Guidés par les conseils de ces algoritmes concernant la dégradation de l'économie, les gérants vendent de grands nombres d'options de couverture misant sur une baisse de la volatilité (voir ici). En effet, la volatilité sur les marchés atteignait des sommets, et la très forte probabilité qu'elle baisse laissait entrevoir des profits Mark to Market records. Le 17 Aout 1998, l'Etat Russe procéda à la dévaluation de sa monnaie et fit défaut sur sa dette. Un évènement inconcevable qui n'avait aucune place dans les modèles utilisés par le fond. Les Génies avaient échoué, et le monde financier traversera une crise.






Un Black Swan ou "Cygne Noir" est un évènement rare, imprévisible, et dont l'impact sur son environnement est majeur. Celui-ci peut etre positif ou négatif, des exemples allant des attentats du World Trade Center à l'apparition de Google, en passant par la découverte du Feu ou le Tsunami asiatique. Attribué à Nassim Nicholas TALEB pour son livre  paru 2007, le terme est dorénavant devenu commun dans le cercle des Financiers.


 Maintenant que nous commençons à avoir du recul sur les évènements ayant mené à la crise des Subprimes, il est devenu commun de dénigrer ceux qui "auraient du voir venir la crise" (les noms les plus communs étant Bernanke, les élites de Wall Street, les économistes...) et d'accorder une confiance aveugle à ceux "qui l'avaient bien dit" (Peter SCHIFF, Nouriel ROUBINI). 
Pourtant, si une unique leçon était à tirer de la Crise économique, c'est que l'improbable dépasse par définition nos capacités de prévision: nous devons apprendre à composer avec lui, et passer outre notre volonté de toujours vouloir prévoir.





  • Les Oeillières de GAUSS
A chaque crise économique sont associés des noms d'Economistes, Traders ou autres personnalités de la sphère financière ayant "prévu la crise". Ceux-ci voient leur cotes monter, et leur carnet de clients potentiels exploser: on leur reconnait un talent, une expertise qu'ils monétisent.
En reconnaissant à ces individus un pouvoir de lecture sur les marchés financiers, on leur attribue la capacité de comprendre l'exubérance irrationelle y reignant.
Et si ils n'avaient pas eu raison par usage d'une capacité de rationnalisation hors-norme mais simplement par hasard?


Illustration du "survivorship bias", notre inclination naturelle a porter attention aux performances des survivants, en omettant la taille de l'échantillon initial.





Le cerveau humain génère en permanence des schémas (patterns) destinés à analyser les données qu'on lui donne à synthétiser. Un des schémas de rationnalisation les plus intuitifs est certainement la courbe de Gauss ou Loi Normale
L'idée a retenir pour cette analyse est que dans un environnement gaussien, la fréquence d'apparition d'un phénomène appartenant a un ensemble est inversement proportionnelle a son écart avec la moyenne de l'ensemble.  
Si l'on calcule la taille moyenne des individus d'un pays, il y a de moins en moins d'individus concernés lorsque l'écart avec la taille moyenne augmente et ce, jusqu'à ce que les queues de la courbe atteignent 0. Avez vous déjà croise des individus mesurant 4 mètres, ou 20 centimètres?  
La taille des individus étant une variable gaussienne, la probabilité de trouver des personnes d'1m50 sera relativement plus forte en Asie (ou la taille ; moyenne est moins élevée) qu'en Scandinavie (ou elle est plus élevée).


Comme la taille des individus, il existe de nombreuses données dont la distribution suit une loi Normale. Les Marches Financiers n'en font pas partie.
Eugene FAMA avait montre que si tel était le cas, des écarts conséquents (dont l'écart-type serait 5 fois supérieur a la moyenne) ne devraient avoir lieu qu'une fois tous les 7000ans.  Pourtant, ces sauts sont observables environ tous les 3 ou 4 ans (soit plus de 1500 fois plus probables).
Benoit MANDELBROT, une des seules personnes tenues en respect par TALEB, avait lui aussi procédé a ce type d'expériences, avec les mêmes résultats:
  Benoit Mandelbrot, who gives short shrift to those who believe financial markets resemble a bell curve, with modest movements the norm and violent moves infinitesimally rare. Looking at the daily movements of the DJIA from 1916 to 2003, Mandelbrot said that according to the neat bell curve analysis, there should have been 58 days when the Dow moved more than 3.4%, when in fact there were 1,001.
Instead of just six days when there were movements of more than 4.5% there were 366. Only once in every 300,000 years should there have been a day when the Dow moved by 7% or more, but it happened 48 times. "Extreme price swings are the norm in financial markets - not aberrations that can be ignored. Price movements do not follow the well-mannered bell curve assumed by modern finance; they follow a more violent curve that makes an investor's ride much bumpier," Mandelbrot says in his book The (Mis)Behaviour of Markets (Profile Books). "A sound trading strategy would build this cold, hard fact into its foundations". 





Une représentation sous forme Gaussienne des mouvements ayant lieu sur les marches financiers laisserait entrevoir a chaque extrêmes de la distribution des "Fat Tails", reflétant le fait qu'il existe un grand nombre d'évènements a caractères idiosyncratiques.



Afin de modéliser leurs risques, les institutions financières utilisent des batteries d'indicateurs et modèles. Le VaR (Value at Risk) est (était?) le plus populaire depuis son introduction par des quants de JPMorgan. Un des facteurs de sa popularité: il renvoie un simple chiffre, censé refléter l'exposition aux risques d'un portefeuille déterminé. Un second facteur de sa popularité: La demande de la SEC aux institutions financières a la fin des années 90 de publier un indicateur reflétant le risque de leur position. Enfin, Le Comite de Basel autorisait les Banques a fixer leur niveau de capital requis sur le niveau de leur VaR. 
Une citation plus que d'autres sur laquelle je pense utile de s'arrêter:
I believe that Value at Risk is the alibi bankers will give shareholders and the bailing-out taxpayer to show documented due diligence, and will express that their blow-up came from truly unforeseeable circumstances and events with low probability, not from taking large risks they did not understand. ... I maintain that the due diligence VaR tool encouraged untrained people to take misdirected risk with shareholders' and ultimately the taxpayers', money. (ici)
Comme vous pouvez le voir, elle vient de TALEB et, plus surprenant, elle date...1997.
Reposant sur les préceptes Gaussien en termes de probabilités, le VAR ne pouvait voir venir des chocs idiosyncratiques tels que l'explosion de la Bulle des Télécoms ou  la crise actuelle. Ces Outliers se situaient au dessus de la Tail présupposée par le modèle.











Un cheval est muni d'oeillères pour ne pas être influencé par l'environnement extérieur. Le fait est, si un évènement majeur se déroule (Comme une voiture arrivant sur son flanc), il ne pourra pas la voir venir et sera percuté.
Un arbitrage est réalisé: celui de se protéger contre des phénomènes mineurs mais fréquents mais en augmentatnt son exposition à des phénomènes rares d'importance supérieure.

En se concentrant sur le VaR et en appliquant implicitement une distribution normale aux évènements occurant sur les marchés financiers, le système financier s'est, lui aussi, muni d'oeillères.