Showing posts with label Marchés financiers. Show all posts
Showing posts with label Marchés financiers. Show all posts

Saturday, November 21, 2009

Brainstorming on How Complex system Fail

Richard I COOK comes up with a must read piece on how complex system fail.
Here are his 18 bullet points, and my thoughts on the subject:

1.Complex systems are intrinsically hazardous systems.


All of the interesting systems (e.g. transportation, healthcare, power generation) are inherently and unavoidably hazardous by the own nature. The frequency of hazard exposure can sometimes be changed but the processes involved in the system are themselves intrinsically and irreducibly hazardous. It is the presence of these hazards that drives the creation of defenses against hazard that characterize these systems.

what comes to my mind: Stock Market, Regulation, Behavioural Finance, Bonded Rationality

2.Complex systems are heavily and successfully defended against failure

The high consequences of failure lead over time to the construction of multiple layers of defense against failure. These defenses include obvious technical components (e.g. backup systems, ‘safety’ features of equipment) and human components (e.g. training, knowledge) but also a variety of organizational, institutional, and regulatory defenses (e.g. policies and procedures, certification, work rules, team training). The effect of these measures is to provide a series of shields that normally divert operations away from accidents.

what comes to my mind: Risk Analysis, FED, Reserves, Regulation, Technical Analysis, Creative Destruction


3. Catastrophe requires multiple failures – single point failures are not enough.

The array of defenses works. System operations are generally successful. Overt catastrophic failure occurs when small, apparently innocuous failures join to create opportunity for a systemic accident. Each of these small failures is necessary to cause catastrophe but only the combination is sufficient to permit failure. Put another way, there are many more failure opportunities than overt system accidents. Most initial failure trajectories are blocked by designed system safety components. Trajectories that reach the operational level are mostly blocked, usually by practitioners.

what comes to my mind: Complexity of Finance, Hindsight Bias, Systemic Failures, Feedback loops, Power Laws, Black Swans

4. Complex systems contain changing mixtures of failures latent within them


The complexity of these systems makes it impossible for them to run without multiple flaws being present. Because these are individually insufficient to cause failure they are regarded as minor factors during operations. Eradication of all latent failures is limited primarily by economic cost but also because it is difficult before the fact to see how such failures might contribute to an accident. The failures change constantly because of changing technology, work organization, and efforts to eradicate failures.

What comes to my mind: Optimization, Efficient Market Hypothesis, FAMA


5. Complex systems run in degraded mode


A corollary to the preceding point is that complex systems run as broken systems. The system continues to function because it contains so many redundancies and because people can make it function, despite the presence of many flaws. After accident reviews nearly always note that the system has a history of prior ‘proto-accidents’ that nearly generated catastrophe. Arguments that these degraded conditions should have been recognized before the overt accident are usually predicated on naïve notions of system performance. System operations are dynamic, with components (organizational, human, technical) failing and being replaced continuously.

What Comes to my mind: 



6. Catastrophe is always just around the corner.


Complex systems possess potential for catastrophic failure. Human practitioners are nearly always in close physical and temporal proximity to these potential failures – disaster can occur at any time and in nearly any place. The potential for catastrophic outcome is a hallmark of complex systems. It is impossible to eliminate the potential for such catastrophic failure; the potential for such failure is always present by the system’s own nature.


What Comes to my mind: Illusion of Control, Great Moderation illusion, Uncertainty principle, Prudential regulation


7. Post-accident attribution accident to a ‘root cause’ is fundamentally wrong.


Because overt failure requires multiple faults, there is no isolated ‘cause’ of an accident. There are multiple contributors to accidents. Each of these is necessary insufficient in itself to create an accident. Only jointly are these causes sufficient to create an accident. Indeed, it is the linking of these causes together that creates the circumstances required for the accident. Thus, no isolation of the ‘root cause’ of an accident is possible. The evaluations based on such reasoning as ‘root cause’ do not reflect a technical understanding of the nature of  failure but rather the social, cultural need to blame specific, localized forces or events for outcomes.


What Comes to my mind: Hindsight bias, Reductionism, KAHNEMAN, Subprime Crisis, Management Books


8. Hindsight biases post-accident assessments of human performance.


Knowledge of the outcome makes it seem that events leading to the outcome should have appeared more salient to practitioners at the time than was actually the case. This means that ex post facto accident analysis of human performance is inaccurate. The outcome knowledge poisons the ability of after-accident observers to recreate the view of practitioners before the accident of those same factors. It seems that practitioners “should have known” that the factors would “inevitably” lead to an accident.2 Hindsight bias remains the primary obstacle to accident investigation, especially when expert human performance is involved.


What comes to my mind: Forward Thinking, Opportunism, Survivorship Bias


9. Human operators have dual roles: as producers & as defenders against failure


The system practitioners operate the system in order to produce its desired product and also work to forestall accidents. This dynamic quality of system operation, the balancing of demands for production against the possibility of incipient failure is unavoidable. Outsiders rarely acknowledge the duality of this role. In non accident filled times, the production role is emphasized. After accidents, the defense against failure role is emphasized. At either time, the outsider’s view misapprehends the operator’s constant, simultaneous engagement with both roles.


What Comes to my mind: Complexity (and acknowledged lack of understanding) of Financial Instruments, VaR, Black Swans


10. All practitioner actions are gambles


After accidents, the overt failure often appears to have been inevitable and the practitioner’s actions as blunders or deliberate willful disregard of certain impending failure. But all practitioner actions are actually gambles, that is, acts that take place in the face of uncertain outcomes. The degree of uncertainty may change from moment to moment. That practitioner actions are gambles appears clear after accidents; in general,post hoc analysis regards these gambles as poor ones. But the converse: that successful outcomes are also the result of gambles; is not widely appreciated.


What comes to my mind: Reductionism of the complexity of Finance, Illusory importance given to Track Records, Survivorship Bias, Finance is considered too Serious.


11) Actions at the sharp end resolve all ambiguity


Organizations are ambiguous, often intentionally, about the relationship between production targets, efficient use of resources, economy and costs of operations, and acceptable risks of low and high consequence accidents. All ambiguity is resolved by actions of practitioners at the sharp end of the system. After an accident, practitioner actions may be regarded as ‘errors’ or ‘violations’ but these evaluations are heavily biased by hindsight and ignore the other driving forces, especially production pressure.


What Comes to my mind:


12. Human practitioners are the adaptable element of complex systems


Practitioners and first line management actively adapt the system to maximize production and minimize accidents. These adaptations often occur on a moment by moment basis. Some of these adaptations include: (1) Restructuring the system in order to reduce exposure of vulnerable parts to failure. (2) Concentrating critical resources in areas of expected high demand. (3) Providing pathways for retreat or recovery from
 expected and unexpected faults. (4) Establishing means for early detection of changed system performance in order to allow graceful cutbacks in production or other means of increasing resiliency.


What Comes to my mind: Risk Analysis, Management Reductionism, Holistic view of Business, Flaw of Averages




13. Human expertise in complex systems is constantly changing


Complex systems require substantial human expertise in their operation and management. This expertise changes in character as technology changes but it also changes because of the need to replace experts who leave. In every case, training and refinement of skill and expertise is one part of the function of the system itself. At any moment, therefore, a given complex system will contain practitioners and trainees with varying degrees of expertise. Critical issues related to expertise arise from (1) the need to use scarce expertise as a resource for the most difficult or demanding production needs and (2) the need to develop expertise for future use.


What Comes to my mind:


 Too much time is spent trying to find out more and more about less and less, until we know everything about nothing,'' MONTIER says. ``Rarely, if ever, do we stop and ask what do we actually need to know
14. Change introduces new forms of failure.


The low rate of overt accidents in reliable systems may encourage changes, especially the use of new technology, to decrease the number of low consequence but high frequency failures. These changes maybe actually create opportunities for new, low frequency but high consequence failures. When new technologies are used to eliminate well understood system failures or to gain high precision performance they often introduce new pathways to large scale, catastrophic failures. Not uncommonly, these new, rare catastrophes have even greater impact than those eliminated by the new technology. These new forms of failure are difficult to see before the fact; attention is paid mostly to the putative beneficial characteristics of the changes. Because these new, high consequence accidents occur at a low rate, multiple system changes may occur before an accident, making it hard to see the contribution of technology to the failure.


What Comes to my mind: Backlash of the Rationalization Era, Pattern recognition illusion, VaR, Risk Hedging, Illusion of Forecasting Black Swans




15. Views of ‘cause’ limit the effectiveness of defenses against future events


Post-accident remedies for “human error” are usually predicated on obstructing activities that can “cause” accidents. These end-of-the-chain measures do little to reduce the likelihood of further accidents. In fact that likelihood of an identical accident is already extraordinarily low because the pattern of latent failures changes constantly. Instead of increasing safety, post-accident remedies usually increase the coupling and complexity ofthe system. This increases the potential number of latent failures and also makes the detection and blocking of accident trajectories more difficult.


What comes to my mind: Inference is illusory, the increase in car accidents related deaths after 9/11, Don't give credit to people who were right about past events


Do not repeat the tactics which have gained you one victory, but let your methods be regulated by the infinite variety of circumstances. SUN TZU


16. Safety is a characteristic of systems and not of their components


Safety is an emergent property of systems; it does not reside in a person, device or department of an organization or system. Safety cannot be purchased or manufactured; it is not a feature that is separate from the other components of the system. This means that safety cannot be manipulated like a feedstock or raw material. The state of safety in any system is always dynamic; continuous systemic change insures that hazard and its management are constantly changing.


What comes to my mind: Current atomicity of Financial regulation, FED, ECB, cooperation and NASH's Equilibrium


For should the enemy strengthen his van, he will weaken his rear; should he strengthen his rear, he will weaken his van; should he strengthen his left, he will weaken his right; should he strengthen his right, he will weaken his left. If he sends reinforcements everywhere, he will everywhere be weak SUN TZU (again)
17. People continuously create safety


Failure free operations are the result of activities of people who work to keep the system within the boundaries of tolerable performance. These activities are, for the most part, part of normal operations and superficially straightforward. But because system operations are never trouble free, human practitioner adaptations to changing conditions actually create safety from moment to moment. These adaptations often amount to just the selection of a well-rehearsed routine from a store of available responses; sometimes, however, the adaptations are novel combinations or de novo creations of new approaches.


What Comes to my mind: Moderation principle, Staying away of what you don't understand, Marathon runners and Sprinters / BUFFET and Day Traders


18. Failure free operations require experience with failure


Recognizing hazard and successfully manipulating system operations to remain inside the tolerable performance boundaries requires intimate contact with failure. More robust system performance is likely to arise in systems where operators can discern the “edge of the envelope”. This is where system performance begins to deteriorate, becomes difficult to predict, or cannot be readily recovered. In intrinsically hazardous systems, operators are expected to encounter and appreciate hazards in ways that lead to overall performance that is desirable. Improved safety depends on providing operators with calibrated views of the hazards. It also depends on providing calibration about how their actions move system performance towards or away from the edge of the envelope.


What comes to my mind: !Not finding books on Amazon telling the story of Failure.

Tuesday, November 10, 2009

Principaux Indicateurs des Marches Financiers en un Coup d'oeil

Visualisez en temps réel l'évolution des principaux indicateurs macroéconomiques:



CAC 40



Dow Jones:
Dow Jones 6 Month Daily

NASDAQ:

INDEX_COMPX Nasdaq Composite

Dollar Trade Index:
NYBOT_DXY0 NYBOT Dollar Index Cash

Or (spot):
FOREX_XAUUSDO FOREX GOLD SPOT

Commodities:

NYBOT_CRY0 Reuters/CG Index Cash



















Euro Dollar:
FOREX_EURUSD"





WM2NS_10yrs M2 Money Stock








WMORTG_Max

PSAVERT_Max












FYFSD_Max



FYGFDPUB_Max

FGEXPND_Max

FGRECPT_Max




Tuesday, October 27, 2009

L'importance des Black Swans en Economie




En 1997, le fond Long Term Capital Management (LTCM, qui comptait à son bord les deux prix nobels MERTON et SCHOLES) disposait des modèles de prédiction les plus avancés de sa génération. Guidés par les conseils de ces algoritmes concernant la dégradation de l'économie, les gérants vendent de grands nombres d'options de couverture misant sur une baisse de la volatilité (voir ici). En effet, la volatilité sur les marchés atteignait des sommets, et la très forte probabilité qu'elle baisse laissait entrevoir des profits Mark to Market records. Le 17 Aout 1998, l'Etat Russe procéda à la dévaluation de sa monnaie et fit défaut sur sa dette. Un évènement inconcevable qui n'avait aucune place dans les modèles utilisés par le fond. Les Génies avaient échoué, et le monde financier traversera une crise.






Un Black Swan ou "Cygne Noir" est un évènement rare, imprévisible, et dont l'impact sur son environnement est majeur. Celui-ci peut etre positif ou négatif, des exemples allant des attentats du World Trade Center à l'apparition de Google, en passant par la découverte du Feu ou le Tsunami asiatique. Attribué à Nassim Nicholas TALEB pour son livre  paru 2007, le terme est dorénavant devenu commun dans le cercle des Financiers.


 Maintenant que nous commençons à avoir du recul sur les évènements ayant mené à la crise des Subprimes, il est devenu commun de dénigrer ceux qui "auraient du voir venir la crise" (les noms les plus communs étant Bernanke, les élites de Wall Street, les économistes...) et d'accorder une confiance aveugle à ceux "qui l'avaient bien dit" (Peter SCHIFF, Nouriel ROUBINI). 
Pourtant, si une unique leçon était à tirer de la Crise économique, c'est que l'improbable dépasse par définition nos capacités de prévision: nous devons apprendre à composer avec lui, et passer outre notre volonté de toujours vouloir prévoir.





  • Les Oeillières de GAUSS
A chaque crise économique sont associés des noms d'Economistes, Traders ou autres personnalités de la sphère financière ayant "prévu la crise". Ceux-ci voient leur cotes monter, et leur carnet de clients potentiels exploser: on leur reconnait un talent, une expertise qu'ils monétisent.
En reconnaissant à ces individus un pouvoir de lecture sur les marchés financiers, on leur attribue la capacité de comprendre l'exubérance irrationelle y reignant.
Et si ils n'avaient pas eu raison par usage d'une capacité de rationnalisation hors-norme mais simplement par hasard?


Illustration du "survivorship bias", notre inclination naturelle a porter attention aux performances des survivants, en omettant la taille de l'échantillon initial.





Le cerveau humain génère en permanence des schémas (patterns) destinés à analyser les données qu'on lui donne à synthétiser. Un des schémas de rationnalisation les plus intuitifs est certainement la courbe de Gauss ou Loi Normale
L'idée a retenir pour cette analyse est que dans un environnement gaussien, la fréquence d'apparition d'un phénomène appartenant a un ensemble est inversement proportionnelle a son écart avec la moyenne de l'ensemble.  
Si l'on calcule la taille moyenne des individus d'un pays, il y a de moins en moins d'individus concernés lorsque l'écart avec la taille moyenne augmente et ce, jusqu'à ce que les queues de la courbe atteignent 0. Avez vous déjà croise des individus mesurant 4 mètres, ou 20 centimètres?  
La taille des individus étant une variable gaussienne, la probabilité de trouver des personnes d'1m50 sera relativement plus forte en Asie (ou la taille ; moyenne est moins élevée) qu'en Scandinavie (ou elle est plus élevée).


Comme la taille des individus, il existe de nombreuses données dont la distribution suit une loi Normale. Les Marches Financiers n'en font pas partie.
Eugene FAMA avait montre que si tel était le cas, des écarts conséquents (dont l'écart-type serait 5 fois supérieur a la moyenne) ne devraient avoir lieu qu'une fois tous les 7000ans.  Pourtant, ces sauts sont observables environ tous les 3 ou 4 ans (soit plus de 1500 fois plus probables).
Benoit MANDELBROT, une des seules personnes tenues en respect par TALEB, avait lui aussi procédé a ce type d'expériences, avec les mêmes résultats:
  Benoit Mandelbrot, who gives short shrift to those who believe financial markets resemble a bell curve, with modest movements the norm and violent moves infinitesimally rare. Looking at the daily movements of the DJIA from 1916 to 2003, Mandelbrot said that according to the neat bell curve analysis, there should have been 58 days when the Dow moved more than 3.4%, when in fact there were 1,001.
Instead of just six days when there were movements of more than 4.5% there were 366. Only once in every 300,000 years should there have been a day when the Dow moved by 7% or more, but it happened 48 times. "Extreme price swings are the norm in financial markets - not aberrations that can be ignored. Price movements do not follow the well-mannered bell curve assumed by modern finance; they follow a more violent curve that makes an investor's ride much bumpier," Mandelbrot says in his book The (Mis)Behaviour of Markets (Profile Books). "A sound trading strategy would build this cold, hard fact into its foundations". 





Une représentation sous forme Gaussienne des mouvements ayant lieu sur les marches financiers laisserait entrevoir a chaque extrêmes de la distribution des "Fat Tails", reflétant le fait qu'il existe un grand nombre d'évènements a caractères idiosyncratiques.



Afin de modéliser leurs risques, les institutions financières utilisent des batteries d'indicateurs et modèles. Le VaR (Value at Risk) est (était?) le plus populaire depuis son introduction par des quants de JPMorgan. Un des facteurs de sa popularité: il renvoie un simple chiffre, censé refléter l'exposition aux risques d'un portefeuille déterminé. Un second facteur de sa popularité: La demande de la SEC aux institutions financières a la fin des années 90 de publier un indicateur reflétant le risque de leur position. Enfin, Le Comite de Basel autorisait les Banques a fixer leur niveau de capital requis sur le niveau de leur VaR. 
Une citation plus que d'autres sur laquelle je pense utile de s'arrêter:
I believe that Value at Risk is the alibi bankers will give shareholders and the bailing-out taxpayer to show documented due diligence, and will express that their blow-up came from truly unforeseeable circumstances and events with low probability, not from taking large risks they did not understand. ... I maintain that the due diligence VaR tool encouraged untrained people to take misdirected risk with shareholders' and ultimately the taxpayers', money. (ici)
Comme vous pouvez le voir, elle vient de TALEB et, plus surprenant, elle date...1997.
Reposant sur les préceptes Gaussien en termes de probabilités, le VAR ne pouvait voir venir des chocs idiosyncratiques tels que l'explosion de la Bulle des Télécoms ou  la crise actuelle. Ces Outliers se situaient au dessus de la Tail présupposée par le modèle.











Un cheval est muni d'oeillères pour ne pas être influencé par l'environnement extérieur. Le fait est, si un évènement majeur se déroule (Comme une voiture arrivant sur son flanc), il ne pourra pas la voir venir et sera percuté.
Un arbitrage est réalisé: celui de se protéger contre des phénomènes mineurs mais fréquents mais en augmentatnt son exposition à des phénomènes rares d'importance supérieure.

En se concentrant sur le VaR et en appliquant implicitement une distribution normale aux évènements occurant sur les marchés financiers, le système financier s'est, lui aussi, muni d'oeillères.



Friday, October 23, 2009

Illusion Monétaire, Marchés Financiers et Bulles

Peu de personnes savent ce qu'est et ce qu'implique l'illusion monétaire.
Il y a de plus de fortes chances pour que la minorité qui connaissant le phénomène (dont vous et moi, tout du moins après lecture de cet article) n'en comprenne pas toutes ses implications.

Le biais d'illusion monétaire jouit d'une reconnaissance si faible qu'il n'apparait selon la base Factiva de Reuters que dans environ 700 articles sur les dix dernières années, contre environ 4 millions d'occurrences pour le terme "inflation". Pourtant, inflation et illusion monétaire sont intrinsèquement liés.
Encore plus significatif, observons les moments ou des articles de presse contenant "Money Illusion" sont publiés:



Pour résumer, l'illusion monétaire est un phénomène dont la couverture médiatique est fonction croissante de la conjoncture. En temps de crise, le nombre de références augmente.

L'opinion collectif  étant un driver majeur des marchés financiers et de l'économie (comme évoqué dans l'article In-croyable Banquier Central), et cette opinion étant elle-même largement influencée par les médias d'information, il me semble important de se pencher sur le phénomène d'illusion monétaire.


Pour bien comprendre ce qu'est l'illusion monétaire, considérons cet exemple:
On vous offre une prime destinée à l'achat d'une voiture. Comme souvent en économie, on vous donne un choix:
  • Disposer d'une somme de 20 000€ pour l'achat immédiat
  • Attendre 5 ans et disposer de 40 000€
Jusque là, tout va bien.
En revanche, admettons que au fil de ces 5 années d'attente la monnaie se soit dépréciée fortement et ne vale plus que 50% de sa valeur actuelle.
Dans ce cas, les 40 000€ perçus dans 5 ans "vaudront" 20 000€ à la valeur actuelle de la monnaie.
Vous aurez donc doublé la somme perçue, mais serez vous plus riches? Non.
Mieux: possédant alors une voiture à 40 000€ et non pas une voiture à 20 000€, votre valeur nette aura t'elle augmentée? Non.
Mais, 40 000€ c'est plus que 20 000€, non? Et bien dans ce cas oui, si vous êtes victime d'illusion monétaire.

Être victime d'Illusion monétaire, c'est fonder ses décisions économiques sur des Valeurs Nominales et non Réelles.
(Valeur Nominale = Valeur réelle + Variation des Prix)

L'illusion monétaire est tout d'abord un phénomène psychologique nous influençant au quotidien dans tous types de choix: investissements, pricing, prêts, ventes... comme l'ont montré TVERSKY et DIAMOND.

L'exemple pré-cité peut paraitre simpliste. Pourtant, les effets de l'illusion monétaire sont omniprésents et influent fortement sur le comportement des investisseurs.

  • Idée reçue numéro 1: L'inflation est un phénomène maitrisé 
Je crois aux idées de l'Économie du Comportement (Behavioral Economics) concernant  les biais psychologiques dans les choix des individus et l'importance de l'information. Les implications de  l'inflation sont sous estimées et mal connues. En 2007, l'ESCP offrait aux étudiants (dont moi à l'époque) le droit de disserter sur le sujet "L'inflation est-elle partout et toujours un frein à la croissance économique".  On estime qu'il faut 2 ans de classe préparatoire pour commencer à cerner le sujet!

En réalité, l'inflation réelle est supérieure à l'inflation rapportée le Consumer Price Index (US)  car la composition de l'indicateur minore par définition l'augmentation des prix (le CPI exclu par exemple Food et Energy, et ne prend pas en compte l'inflation des actifs financiers).



En fondant notre analyse des effets de l'inflation, et de son corolaire d'illusion monétaire, sur la progression des revenus médians des foyers aux États-Unis, les résultats portent à réflexion:



En calculant à partir des chiffres rapporté par le CPI officiel, non seulement le Revenu médian par foyer a chuté en termes nominaux de plus de 4% entre 2000 et 2008, il aurait du gagner 25% pour conserver un pouvoir d'achat équivalent.


  • Idée reçue numéro 2: Les monnaies des pays développés ne peuvent pas varier assez fortement pour se soucier du phénomène d'illusion monétaire.
Les monnaies sont elles aussi soumises au bon vouloir des marchés financiers. Si sur le long-terme la valeur d'une monnaie reflète des fondamentaux de l'économie du pays, à court-terme elle est influencée par les croyances des marchés et soumise à leur exubérance.

Prenons pour exemple le Dollar. Celui-ci semble tiré structurellement vers le bas en raison, entre autres, des mauvaises habitudes américaines en termes de Dette ou de création monétaire. Pourtant, son rôle clé dans Bretton Woods 2 fait du Dollar une valeur refuge pour les investisseurs dans certaines circonstances. Au final, le billet vert fluctue fortement car il est soumis à l'irrationalité des marchés.




  

PIB, Résultats Nets des Entreprises, Valeurs Immobilières, Stock Markets sont des exemples d'indicateurs économiques souvent (trop?) analysés sans prendre en compte le phénomène d'illusion monétaire.

Voici quelques illustrations pouvant porter à réflexion:









L'analyse économique étant largement fondée sur la relativité entre 2 indicateurs ou plus (dénomination du pétrole en dollar, Gains sur le CAC en Euros...), analyser en isolant les effets de l'illusion monétaire est essentiel pour comprendre les tendances.