Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?
Upcoming SlideShare
Loading in...5
×
 

Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

on

  • 1,057 views

 

Statistics

Views

Total Views
1,057
Slideshare-icon Views on SlideShare
1,057
Embed Views
0

Actions

Likes
0
Downloads
33
Comments
0

0 Embeds 0

No embeds

Accessibility

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ? Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ? Document Transcript

    • Mémoire de Master 2 Marchés Financiers 2012 -2013 Analyse Fondamentale et Analyse Technique « L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ? » Da Rocha Christophe (5MFI2) et Vaillant Rémi (5MFI2) Maître du mémoire : Bertrand Athouel Mots clés: analyse fondamentale, analyse technique, actions cotées en Bourse, tendances de marché.
    • 2
    • SOMMAIRE Introduction………………………………………………………………… 4 I - L’Apport de l’analyse fondamentale…………………………………. 5 I.1 – L’approche des Crises financières et économiques…………….. 6 I.2 – Les modèles d’évaluation………………………………………….. 21 II – L’Apport de l’analyse technique…………………………………….. 31 II.1 – L’analyse comportementale : les biais psychologiques………... 32 II.2 – Les forces et faiblesses de l’analyse technique dans la détermination des tendances……………………………………………. Conclusion………………………………………………………………….. 48 58 3
    • INTRODUCTION Nul doute que toute personne intervenant sur les marchés actions a au moins une fois voulu posséder le don de voir l’avenir. Qui n’a jamais voulu savoir avant tout le monde ce que le cours de telle ou telle action cotée en Bourse allait être demain ? Avec ce don, les possibilités de réussites financières semblent sans limites. Si cette capacité de prédire le cours futur d’une action cotée en Bourse existait, elle serait convoitée au plus haut point. Cependant, et jusqu’à preuve du contraire, une telle capacité n’existe pas et chaque intervenant sur le marché doit y aller de son analyse. De célèbres investisseurs ont fait fortune sur les marchés actions, et quelques noms, tel que Warren Buffet, font légendes. Peut-être ont-ils trouvé la clé pour deviner l’évolution future des cours? Cela semble surréaliste, surtout lorsqu’on le souvient des grandes pertes financières qui leurs ont été reconnues. Ces investisseurs, aussi couronnés de succès soient-ils, reposent comme chacun sur l’analyse qu’ils font du marché. Les marchés financiers demeurent des lieux d'échanges ou les acteurs principaux sont des êtres humains, avec leur compréhension du monde qui les entoure, leurs connaissances, leurs croyances, leurs humeurs. Les marchés financiers sont, à l'instar de la nature humaine, d'une complexité telle qu'il est impossible de les modéliser et d'en créer une équation parfaite, capable de les expliquer et donc de les prédire. Deux grandes écoles d’analyse se confrontent pour prédire les tendances boursières. D’un côté l’analyse fondamentale qui base ses résultats sur l’étude d’éléments économiques et d’autre part l’analyse technique qui base ses résultats sur l’étude de graphiques de cours. Ces deux écoles ont toujours été confrontées pour savoir laquelle des deux était plus viable, plus efficace. Aussi, il est intéressant de se questionner différemment. Ce mémoire va ainsi tenter de répondre à la question : L’analyse fondamentale et l’analyse techniques peuvent-elles s’associer pour prédire une tendance sur les marchés actions ? Dans un premier temps l’approche de l’analyse fondamentale mettra en avant la logique et les éléments lui permettant de définir une tendance, ainsi que les limites de son approche. Dans un deuxième temps, l’approche prise par l’analyse technique viendra confronter et combler l’analyse fondamentale dans la prédiction de tendance. 4
    • I - L’APPORT DE L’ANALYSE FONDAMENTALE L’analyse fondamentale a pour mission principale de valoriser un titre financier représentatif d’une société. Son but est de mettre un prix sur une action, un prix qu’elle estime être représentative du titre. L’analyse fondamentale a une approche économique de l’entreprise. Elle situe la société évaluée dans un contexte général: l’économie. Dans ce cadre, l’entreprise va interagir avec différents acteurs, tels que ses clients, ses fournisseurs ou encore ses concurrents, qui vont de par leurs actions inciter voir obliger l’entreprise à agir ou ne pas agir. Elle va également être soumise à des influences plus ou moins directes en provenance d’entité distinctes, tel que principalement le gouvernement ou encore la banque centrale qui vont, de par leurs politiques et décisions, influencer le contexte économique dans lequel l’entreprise évolue et ainsi bien souvent l’obliger à agir en conséquence. Toutes ces influences, retranscrites de façon différentes à l’économie, forment un cadre dans lequel l’entreprise va évoluer. Cette évolution va être liée à des changements dans ses achats, ses ventes, sa structure, son organisation, son développement, etc. De façon générale, son activité va être impactée par tous les changements de l’économie dans laquelle elle se trouve. Par extension, ses changements vont impacter sa valeur et donc le prix que les investisseurs sont prêts à lui accorder. C’est là que l’analyse fondamentale prend tout son sens, en ce qu’elle va permettre d’étudier toutes ces évolutions, tant passées que futures pour déterminer si une société va s’apprécier, et prendre de la valeur ou au contraire se déprécier et perdre de la valeur. L’idée sous-jacente est alors d’indiquer si le prix d’une entreprise va monter et s’inscrire dans une tendance haussière, ou baisser et s’inscrire dans une tendance baissière, ou encore rester dans une constance et s’inscrire dans une tendance neutre. Afin d’arriver à une conclusion quant à la tendance dans laquelle va s’inscrire le prix d’une action, l’analyse fondamentale a développé un certain nombre de modèle permettant d’indiquer avec un niveau de certitude plus ou moins élevé, si une action est sous-évaluée, surévaluée ou encore relativement bien évaluée. La construction de ces modèles s’appuie sur des hypothèses économiques issues de différentes réflexions économiques qui ont marqué l’approche que l’on a de l’économie depuis notamment ce dernier siècle. Pour étudier l’approche prise par l’analyse fondamentale, une réflexion sur les différentes écoles économiques est nécessaire pour mettre en avant les éléments utiles, indispensables à cette dernière. Une fois les réflexions économiques étayées et discutées, elles serviront de base à l’étude des principaux modèles utilisés par l’analyse financière qui font 5
    • alors lien entre la valeur réelle de l’entreprise et sa valeur échangée sur le marché. Mais avant tout cela, il est intéressant d’étudier les crises financières et économiques qui ont marqué l’histoire de l’homme, car elles ont été à la base des réflexions économiques qui permettent aujourd’hui à l’analyse fondamentale d’être une activité motrice de la finance. I - 1 L’approche des Crises financières et économiques Les Crises financières ayant eu lieu depuis le début du 20e siècle ont marqué l’économie et l’esprit collectif des hommes. Chaque Crise vécue a apporté son lot d’enseignements, que ce soit la Crise de 1929 qui plongea les Etats-Unis dans la Grande Dépression, le Krach d’octobre 1987 qui résulta dans la baisse spectaculaire de l’indice américain Dow-Jones de 22,6% en l’espace d’une journée ou encore la Crise de 2007, pour laquelle la reprise économique peine encore à se lancer. Les catastrophes financières font avancer la célèbre proposition voulant que si, d’une crise à l’autre, les conditions déterminantes sont les mêmes, ou similaires, alors quelques-unes au moins des conséquences seront les mêmes, ou similaires. Sur cette idée, l’étude des Crises financières met en évidence des phénomènes récurrents ou du moins des éléments qui tendent à se répéter. Des ressemblances mineures, voir triviales, apparaissent entre les Crises. Comme il a pu être remarqué, les Crises ont principalement lieu en automne; l’arrivée de l’hiver a peutêtre un effet psychologique sur l’humeur des acteurs des milieux financiers. De même, le lundi semble avoir été un jour particulièrement sombre; les spéculateurs et acteurs peu expérimentés qui se trouvaient sur les marchés financiers, après avoir connu d’autres préoccupations durant le week-end, ont surement laissé cours à leurs craintes et ont décidé de jouer la sécurité en revendant. Cela a été le cas le lundi 21 octobre 1929, première des journées d’avertissement qui ouvrit la voie au terrible mardi qui suivit, et de même pour le lundi 19 octobre 1987, reconnu comme le deuxième jour le plus dévastateur des marchés financiers, derrière le krach de la bourse islandaise de 2008. Dans la lignée de ces phénomènes calendaires, plusieurs études ont mis en évidence des effets périodiques récurrents sur les marchés financiers. Dans les années 1980, plusieurs recherches ont rapporté par exemple que les gains réalisés en Janvier sur les marchés financiers étaient significativement plus élevés comparés aux autres mois de l’année, avec en plus, des gains anormaux rapportés dans les cinq premiers jours du premier mois de l’année. Depuis les premières documentations dans les années 1980, ce pattern, connu sous le nom de 6
    • January Effect (traductible en Effet Janvier) a été observé sur la plus part des marchés actions à travers le monde. Cette anomalie, aussi qualifiée de Turn-of-the-year effect (traductible en Effet changement d’année civile) contredit les hypothèses d’efficiences de marchés car les gains en janvier ne sont attribuables à aucune nouvelle économique ou information pertinente. Un certain nombre de raisons ont été suggéré pour expliquer ce phénomène, la principale étant l’effet de taxation et plus particulièrement la vente réalisée en fin d’année civile pour récupérer une perte sur taxe. Les investisseurs auraient tendance à clore leurs positions en pertes latentes en décembre dans le but de réaliser une perte imputable à leurs gains réalisés dans le courant de l’année. Cette hausse d’offre sur le marché tend à faire baisser le cours des titres en fin d’années, qui sont ainsi rachetées en janvier à des prix plus faibles. Cette demande en début d’année dirige ainsi les prix à la hausse et donc la valeur des portefeuilles. Un certain nombre d’autres effets calendaires, ont été trouvés, mais ces anomalies connues du monde financier se font arbitrer, ayant pour conséquence de leur faire perdre leur effet. Aussi, ces éléments anecdotiques ne sauraient expliquer les causes de telles tragédies financières qui ont marqué, et marquent encore les marchés actions. D’autres similitudes entre les crises financières autrement plus importantes sont à souligner, l’histoire financière étant soumise aux mêmes conditions déterminantes. Une Euphorie générale alliée à une spéculation accrue La première condition déterminante à une crise financière, mise en évidence en amont des crises, est ce qui a été qualifié par John Kennet Galbraith de « droit acquis » à l’euphorie dans son ouvrage La crise économique de 1929 – Anatomie d’une catastrophe financière (titre original : The Great Crash). Les cours des actions cotées sont montés, au cours des années précédant les crashs boursiers, sans limite apparente. Dans les années 20, les Etats-Unis connaissent des années de croissance industrielle soutenue que rien ne semble pouvoir arrêter. L’économie tourne à régime soutenu, les emplois sont présents et la consommation ne faiblit pas. Bien que la pauvreté existait, la richesse s’échangeait, permettant aux classes aisées de l’être toujours plus, et aux classes moyennes de disposer de revenus en excès. Cette croissance des rémunérations s’est tout d’abord dirigée vers la consommation, continuant à rendre toujours plus profitables des entreprises dont les 7
    • perspectives d’évolutions semblaient ne pas avoir de limite. Ayant atteint un niveau de vie élevé, relativement aux revenus gagnés, les citoyens se sont naturellement tournés vers des activités pour faire fructifier leur nouvelle épargne, à la recherche de nouvelles richesses : la Bourse. L’excès de richesse devait être mis à profit, et les marchés financiers se sont trouvés être une solution intéressante. La Bourse, que ce soit dans les années 20 ou dans toute phase de croissance de l’économie, est un lieu qui permet à tout citoyen de facilement placer son argent dans des entreprises, dans des projets dont les rendements espérés sont élevés. La facilité à acheter et revendre des parts de sociétés a rendu cet endroit populaire et très prisé. La fin des années 20, avant l’éclatement de la Crise qui donna suite à la Grande Dépression, n’a pas dérogé à la règle : les volumes échangés sur les marchés financiers n’ont cessés de croître. Pendant les périodes d’euphorie financière, les marchés boursiers sont montés sans limites apparentes. Cette euphorie financière prend en force lorsque, malgré des interruptions temporaires, les marchés boursiers continuent, comme inexorablement, de grimper. Dans tous les cas, les influences sous-jacentes qui affectent les cours boursiers, que ce soient les anticipations de rendement ou la croissance économique, ont fait place à la croyance selon laquelle l’augmentation des valeurs ne cesseront jamais de monter. A noter que cette croyance collective se soucie peu de la réalité, l’achat d’un titre financier n’a comme intérêt que le profit que l’on peut en espérer sur sa revente. Les aspects de propriété, qui caractérisent les actions financières, n’existent plus dans ces moments, face à une hausse prochaine et sûre; sûre dans l’inconscient collectif qui veut que les prix ne s’arrêteront pas de grimper. Le revenu des biens ou le plaisir qu’ils peuvent procurer à leur propriétaire n’ont plus grande importance, car ils n’équivalent plus la valeur financière que le gain réalisable sur l’opération d’achat-revente peut concrétiser. L’inconscient collectif veut que, même si de petites fluctuations négatives apparaissent dans les cours des actions, les jours prochains seront positifs, les valeurs boursières continueront de monter. Ce droit à l’euphorie collective pousse tout citoyen à croire en des lendemains toujours meilleurs, à croire que leur richesse ne peut que continuer de s’apprécier. Dans le cas des années 1920, l’euphorie ne semblait pas pouvoir s’arrêter car il n’y avait eu jusqu’alors aucune crise marquante comme on pouvait l’avoir en mémoire à la fin des années 2007. Cette croyance en des gains futurs sans limites est surévaluée par la vision que l’on peut avoir de l’économie : le titre des actions grimpe, donc cela signifie, pour les acteurs financiers, que les entreprises sous-jacentes voient leur rentabilité croître. Donc pourquoi ne pas continuer à y croire ? 8
    • Cette perte de connexion avec la réalité économique, qui est spécifique à toute euphorie financière se caractérise par une bulle. Dans ces bulles financières, les prix des biens échangés atteignent des niveaux élevés déconnectés de la réalité économique. L’exemple le plus marquant de bulle spéculative revient à la Tulipomanie, la tristement célèbre Crise de la Tulipe survenue dans les années 1630. Au 16e et 17e siècle, voit se développer un engouement particulier pour l’horticulture en Europe du Nord et la tulipe devient un emblème de luxe, de rang social élevé. Leur convoitise et leur demande grandissante pousse les commerçants à mettre en place des contrats à terme sur ces fleurs. Ces contrats à terme sont devenus des objets de négociations tellement spéculés que le cours de l’oignon de tulipe voit sa valeur exploser. Même si les données historiques de l’époque sont très pauvres et si les différentes théories utilisées pour évaluer le prix des tulipes sont aujourd’hui discutées, il a été établi par Charles Mackay (écrivain et journaliste britannique à tendance économique né le 27 mars 181 à Perth en Ecosse et décédé le 24 décembre 1889 à Londres), pour ne citer que lui, qu’un bulbe de tulipe s’échangeait au plus fort de la tulipomanie contre 5 hectares de terre. La disproportion entre valeur spéculative et valeur réelle est frappante : il est économiquement illogique qu’un produit de la terre soit évalué autant de fois au-dessus de la valeur du terrain qui lui est nécessaire pour être produit. A chaque fois, cette déconnexion frappante de la réalité, qui a caractérisé chaque crise financière connue, a pourtant été dénoncé par quelques personnes, suffisamment alertes et distantes de la recherche de richesse facile. Ces parias de l’euphorie générale des marchés n’ont pourtant pas eu de poids face à une foule pacquée autour d’une croyance aussi forte. L’euphorie générale des marchés s’est trouvée, avant toute crise, un camarade de jeu : la spéculation. Cette alliée, incitée et facilitée par les outils mis à sa disposition, notamment les opérations sur marge, a joué un rôle prépondérant dans le décrochement des valeurs financières lors des crises. La crise des subprimes a encore récemment montré l’engouement démentiel des acteurs financiers pour la spéculation et le gain excessif. Les années 2002 à 2007 ont été pour les Etats-Unis une période de croissance soutenue comme l’atteste le S&P 500 passé de 776,76 points le 10 septembre 2002 à 1.565,15 5ans plus tard. A la fin des années 2006, Henry Paulson, ancien CEO (Chief Executive Officer = Directeur Général) de Goldman Sachs et à la tête du fonds Paulson & Co s’est mis d’accord avec Lloyd Craig Blankfein, actuel CEO de la Banque d’investissement, pour former un fond spéculatif basé sur les prêts hypothécaires américains. Début 2007, Goldman Sachs est rentré en contact avec ACA 9
    • management pour la sélection des RMDS (Residential Mortgage-Backed Securities = prêt hypothécaires ; prêts garantis par l’actif collatéral à savoir le bien immobilier acheté) pacqués ensemble et organisés en fonction de leur notation de crédit. La particularité de ce projet, nommé Abacus 07-AC1, a été la construction contre mesure faite par le duo Blankfein et Paulson : la sélection des RMDS a été réalisé dans l’optique de faire s’écrouler le produit. Une fois le produit construit, la vente du produit a été réalisée à des investisseurs non habitués à ce type de produit complexe. Les acheteurs tels que la banque allemande IKB et le danois ABN AMRO ont décidé de rentrer dans un monde spéculatif pour lequel ils ne détenaient pas le savoir-faire nécessaire. Dans cette phase économique roulant à bonne vitesse, ces investisseurs novices dans sur ce type de contrat ont cherché de nouvelles opportunités pour réalise plus de profits. Le tableau final avant l’explosion du fond Abacus était le suivant : d’un côté Henry Paulson tenant une position short sur le produit, croyant à l’effondrement du produit qu’il a construit, pour une spéculation à 1 milliard de dollars d’enjeux, et d’un autre côté des investisseurs détenant des positions long sur des produits dont ils ne mesuraient pas le risque, pour un espoir de gain élevé. En janvier 2008, 99% des actifs référencés dans le portefeuille Abacus ont fait défaut, créant le cataclysme faisant référence à la Crise des subprimes. Cet engouement pour la spéculation qui atteint tous les acteurs du monde financier, professionnels comme particuliers, est un effet apparu exacerbé avant l’éclatement des autres crises financières. L’augmentation des valeurs, soutenue par une croyance commune que les marchés ne s’arrêteront pas de monter, incite les individus à continuer leur spéculation. Un des éléments caractéristique de la spéculation sur les marchés actions est l’utilisation des achats et ventes à découvert sur marges. Les acteurs financiers peuvent acheter les actifs financiers qu’ils désirent en empruntant une partie du prix de l’actif à leur broker. Acheter sur marge peut grandement augmenter le potentiel de gains ou de pertes pour un montant d’actions car l’acheteur bénéficie d’un plus grand pouvoir d’achat. En comparant l’achat d’un titre à 100€ en argent plein avec le même achat réalisé à 50% sur marge, l’effet de levier sous-jacent au système d’achat sur prêt est mis en valeur : Si, ultérieurement, le titre vaut 110€, l’investisseur se retrouve à la fin avec 110€ pour 100€ investit soit 10% de retour sur investissement, calculé comme 10€ (110€ - 100€) de gains rapportés au 100€ investis. Avec un achat sur marge à 50%, le l’investisseur se retrouve au moment de la revente du titre avec 110€ en sa possession. Après remboursement du prêt de 50€, il lui reste 60€ pour un 10
    • investissement initial de 50€, soit 20% de retour sur investissement, calculé comme 10€ (60€ - 50€) rapportés aux 50€ investis. L’aspect d’euphorie des marchés est difficilement modélisable : comment attraper ce sentiment collectif dans une mesure économique quantifiable, comparable ? Une approche pourrait être similaire à celle de l’indicateur VIX. L’idée pourrait ainsi être de mesurer les attentes des marchés par l’évolution de leur volatilité. L’aspect spéculatif semble tout autant difficilement modélisable bien qu’une approche particulière puisse aider en ce sens : Le volume des prêts des courtiers, garantis par des valeurs achetées sur marge, et plus particulièrement leur évolution au travers des mois permettrait de mesurer la masse de spéculation sur les marchés. Entre 1920 et 1928, l’augmentation des volumes d’argent empruntés pour acheter sur marge des titres cotés sur NYSE parle de lui-même. En 1920, les montants de prêts du marché court terme variait entre 1 milliard et 1 milliard et demi de dollars. En 1926 ce chiffre est monté à 2 milliards et demi de dollars au courant de l’été. Un an plus tard l’augmentation fut encore plus marquante et fit monter les prêts à 3 milliards et demi de dollars. Fin 1928, le New-York Stock Exchange Year-Book 1928-1929 rapportait le chiffre de 5 722 258 724 dollars. Une économie en pleine expansion et des réponses gouvernementales à effet de levier Une autre condition déterminante à un éclatement boursier, comme les crises financières du passé l’enseignent, est un environnement économique en pleine expansion. Les montées des valeurs boursières enregistrées en amont des catastrophes boursières tiennent d’une grande part à leur économie macro sous-jacente. Les années 20 furent pour les Etats-Unis une période florissante. La production et l’emploi étaient élevés et continuaient à s’accroître, dans un système économique où les capitaux de la richesse s’échangeaient à un rythme soutenu. La stabilité des salaires s’alignait à la stabilité des prix. Entre 1925 et 1929, le nombre d’établissements industriels était passé de 183 900 à 206 700 et la valeur de leur production industrielle s’était porté de 60,8 milliards de dollar à 68 milliards (source : US Department of Commerce, Bureau of the Census, Statistical Abstract of the United States), soit 12% d’évolution en l’espace de 4 années. C’est dans cet environnement économique bouillonnant de croissance que la crise de 1928 a éclaté. Cela a été le cas pour toutes les crises économiques. Aucune crise n’est apparue au lendemain 11
    • d’une relance économique, Elles ont toutes éclatées après une bulle spéculative inscrite dans une phase économique où l’économie tournait à plein régime. L’étude des cycles économiques apporte alors une deuxième source d’explication au contexte économique dans lequel l’évaluation d’une entreprise s’inscrit. Les cycles économiques ont été définis pour la première fois en 1946 par Arthur Burns et Wesley Mitchell, dans leur ouvrage Measuring Business Cycles. Leur vision de l’économie défini les cycles économiques comme un type de fluctuation trouvé dans l’activité économique total des nations qui organisent leur travail principalement en entreprises commerciales : un cycle consiste en d’expansions se produisant approximativement au même moment dans plusieurs activités économiques, suivi par des récessions, contractions similaires et relances qui fusionnent dans la phase d’expansion du cycle suivant ; cette séquence d’évènements est récurrente mais non périodique (traduit de l’anglais). Un cycle économique se décompose ainsi en quatre phases : creux, expansion, pic et contraction, chacun apparaissant à la suite l’un de l’autre. Quand l’expansion d’une économie est bien établie, un boom souvent apparait. Ce boom est toujours une phase d’expansion caractérisée par une croissante économique qui teste les limites de l’économie. L’analyse fondamentale prend en considération le cycle dans lequel se situe le secteur évalué. Des cycles économiques ont été reconnus très tôt avec la théorie économique et des efforts considérables ont été entrepris pour les différencier, les comprendre, les expliquer. Cette démarche a énormément servi à l’analyse fondamentale qui peut ainsi positionner un secteur d’activité vis-à-vis d’un cycle de croissance, de décroissance, que ce soit avec un rythme plus ou moins soutenu. Jusqu’aux années 30, la vision générale donnait un caractère naturel à l’économie et présentait les récessions comme des phases temporaires. Cependant, la sévérité de la Grande Dépression des années 30 a créé une crise dans la théorie économique qui a nécessité une approche plus pragmatique. Après la Grande Dépression qui commença en 1929, le débat entre différentes écoles de pensées économiques a stimulé d’importantes innovations dans la manière où les cycles économiques sont décrits et expliqués. Similairement, après la récession déclenchée par les chocs du pétrole en 1973 et 1979, le vieux paradigme a été mis de côté et de nouveaux développements en économie ont mené à une compréhension améliorée de la dynamique économique. L’école Néoclassique, repose sur le concept d’équilibre général des marchés : tous les marchés tendent à atteindre un équilibre du fait, premièrement, d’une main invisible, comme la nomme son auteur Adam Smith (philosophe et économiste écossais né le 5 juin 1790 à Kirkcaldy en Ecosse et décédé le 17 Juillet 1790 à Edimbourg), et deuxièmement, par l’idée 12
    • qu’un prix sera trouvé pour chaque bien auquel la demande sera égale à l’offre. Toutes les ressources sont utilisées avec efficience, basé sur le principe que le coût marginal égale le revenu marginal des producteurs et que l’utilisation de la main d’œuvre et du capital sont également utilisés avec efficience, sans non-emploi volontaire. A noter que le capital se comprend comme le capital financier, correspondant notamment à l’investissement, mais aussi dans sa forme étendue au capital physique, à savoir les machines nécessaires à la production. Dans la pratique, l’approche néoclassique veut que cette main invisible réalloue le capital et la main d’œuvre pour produire ce que les consommateurs désirent consommer, et n’autorise pas de fluctuations ancrées dans l’économie générale et son activité. Si un choc modifie la demande générale ou l’offre générale, l’économie réajustera rapidement pour atteindre son équilibre, que ce soit par la variation des taux d’intérêts ou des salaires. Les économistes néoclassiques reposent sur la loi de Say qui stipule que tout ce qui est produit sera vendu car l’offre crée sa propre demande. Jean-Baptiste Say (économiste français et industriel du secteur du coton né le 5 Janvier 1767 à Lyon et décédé à Paris le 14 Novembre 1832) expliquait que si un bien est produit, le capital et la main d’œuvre utilisés pour le produire devra être compensé. Cette compensation, sous forme d’intérêts pour le capital financier et de salaires pour la main d’œuvre crée du pouvoir d’achat dans le sens où le travailleur reçoit une somme monétaire qu’il peut utiliser pour consommer les biens et services dont il a besoin. D’après l’école néoclassique, une crise massive est impossible de par le lissage continu et le retour à un équilibre économique constant. Cependant, cela arriva dans les années 30 avec la Grande Dépression. La validité de l’approche semble alors compromise, mais cela n’enlève pas tout à la valeur ajoutée que cette notion de main invisible et de retour à l’équilibre qui aujourd’hui encore ont leurs fondements. La Crise de 1929 a introduit une cassure dans la théorie économique car une crise de cette ampleur, jusque-là pas vécu, a touché de nombreux secteurs en même temps et d’une manière hautement dramatique. Parce que l’approche néoclassique a dénié la possibilité d’une dépression prolongée, elle ne saurait être utilisée pour expliquer comment combattre une telle dépression. Le principal mécanisme d’ajustement de l’école néoclassique, à savoir des réductions dans les salaires, était difficile à accomplir et remis en question plus tard par l’école Keynésienne. L’école de pensée autrichienne, incluant Friedrich Hayek (Friedrich August von Hayek, philosophe et économiste né le 8 mai 1899 à Vienne et décédé le 23 mars 1992 à Fribourg-en-Brisgau, en Allemagne) et Ludwig von Mises (économiste né le 29 Septembre 13
    • 1881 à Lember en Autriche-Hongrie et décédé le 10 Octobre 1973 à New-York) partage quelques points de vues avec l’école de pensée néoclassique, mais se concentre principalement sur deux sujets que sont l’argent et le gouvernement. L’argent n’était pas une nécessité dans le modèle néoclassique car l’échange de biens et services pouvait avoir lieu dans la forme de troc et pouvait toujours permettre d’atteindre un équilibre de valeurs. L’argent n’était alors vu que comme un moyen de simplification des échanges. De façon similaire, le rôle du gouvernement dans le modèle néoclassique était relativement limité car l’économie était vu comme capable de se prendre en charge elle-même et le gouvernement n’avait qu’un rôle de maintien de la loi et de sécurisation des frontières. Von Hayek argumentait que les fluctuations sont causées par les actions des gouvernements qui cherchent à accroitre le Produit Intérieur Brut et l’emploi en adoptant des politiques monétaires expansionnistes. D’après cette approche, les gouvernements diminuent les taux d’intérêts des marchés en dessous de leur valeur naturelle, ou valeur vers laquelle la main invisible les amènerait d’après Adam Smith, tendant ainsi à inciter les entreprises à investir toujours plus. Une fois que les entreprises réalisent qu’elles ont accumulé trop de machines et de structure, elles vont logiquement et soudainement arrêter d’investir, ce qui aura pour conséquence de réduire la demande générale et ainsi créer une crise dans l’économie. Pour retourner à un nouvel équilibre, les prix et les salaires doivent diminuer. Le résultat d’une telle manipulation des taux d’intérêts explique les fluctuations exhibées par l’économie qui n’auraient pas eu lieu autrement. L’école australienne préconise alors un interventionnisme limité du gouvernement dans l’économie. Cette pensée met en avant l’importance des décisions prises par le gouvernement d’un pays et l’importance de les incorporer dans l’étude d’une analyse financière. Les implications plus ou moins directes des décisions gouvernementales sont ainsi des éléments incontournables qui expliquent une part de la valeur donnée à un titre financier. L’école autrichienne va encore plus loin avec sa théorie de l’origine des cycles économiques : les interventions malavisées des gouvernements. L’école néoclassique n’a pas de théorie concernant les cycles économiques et notamment leur origine. Cependant, Joseph Schumpeter (économiste autrichien né le 8 Février 1883 à Triesch en Autriche-Hongrie et décédé le 8 Janvier 1950 à Salisbury au Connecticut), membre de ce courant de pensée, a formulé sa théorie sur la destruction créatrice et l’innovation qui montre que des cycles à l’intérieur des secteurs économiques résultent de progrès technologiques. Sa théorie de l’innovation explique des cycles limités aux secteurs : quand un inventeur crée un nouveau produit ou un moyen nouveau de mieux produire un bien ou service déjà existant, 14
    • l’entrepreneur à l’origine de cette découverte aura tendance à avoir de plus gros profits et tendrait à sortir les producteurs actuels du marché. Cette théorie est notifiable aujourd’hui encore avec les facteurs clés de succès nécessaires aux entreprises pour rester sur leur secteur : toutes les innovations technologiques peuvent être des exemples : avant de devenir un facteur clé de succès, autrement dit un élément indispensable à prendre en compte pour intégrer et rester sur un marché, une découverte technologique était un élément de distinction qui a permis à son entrepreneur inventeur de se différencier de ses concurrents et ainsi récupérer des parts de marché. Une fois le succès perçu par les concurrents, ces derniers doivent s’adapter et proposer un élément nouveau au moins équivalent à cette découverte pour récupérer leurs parts de marché. On note ainsi un des éléments nécessaires au maintien d’une entreprise sur son secteur : ses dépenses en Recherches et Développements, nécessaires pour se différencier de ses concurrents. Par cette théorie de l’innovation, Joseph Schumpeter a mis en avant l’idée que les innovations elles-mêmes peuvent générer des crises qui affectent un secteur. Deux autres écoles de pensées économiques, l’école Keynésienne et l’école Monétariste, ont eu une influence plus importante dans leur analyse des liens entre les cycles économiques et l’influence des gouvernements en ce qu’elles leur reconnaissent un rôle interventionniste important. John Maynard Keynes (économiste britannique né le 5 Juin 1883 à Cambridge en Angleterre et décédé le 21 Avril 1946 à Firle dans le Sussex, au RoyaumeUni) contestait les approches néoclassiques et australiennes. Il observa qu’une réduction généralisée des prix et des salaires, nécessaire pour ramener les marchés à un équilibre durant une récession, est dur à réaliser. Par exemple, un travailleur ne veut pas voir son salaire diminuer, ce qui rend l’action de réduire les salaires anti-démagogue et donc contraire à l’un des intérêts principaux des politiques, à savoir leur réélection. Dans l’hypothèse où la main d’œuvre serait prête à accepter une baisse de salaire, cette situation pourrait exacerber la crise dans laquelle l’économie se trouve en réduisant la demande générale plutôt que de la résoudre. (Cet aspect négatif a été noté dernièrement, avec les prévisions du FMI dans la relance économique de la Grèce.) La diminution de salaire implique une diminution des dépenses et donc de la demande générale. Cette réponse causerait une contraction encore plus importante dans la demande. De plus, Keynes pensait que d’autres circonstances pour lesquels une baisse des taux d’intérêts pourrait ne pas avoir comme conséquence une relance de la croissance : si la confiance dans les affaires et les attentes futures sont négatives, les entreprises peineront à investir car ne verront pas l’intérêt à dépenser de l’argent qui ne saurait 15
    • fructifier dans le futur. Tout en acceptant et validant quelque part l’idée d’un retour à l’équilibre sur le long terme, comme proposé par les écoles néoclassiques et autrichiennes, Keynes préconise l’intervention de l’Etat sous forme d’une politique fiscale soutenue. D’après son approche, l’Etat devrait intervenir lorsque les Crises ont lieu dans le but de conserver l’utilisation efficiente du capital et de la main d’œuvre. L’Etat devrait être un Etat providence, dans le sens où il n’interviendrait dans l’économie uniquement en cas de Crise, en cas de dernier recours dans le but de limiter les dommages des récessions majeures. Cette pensée économique, bien que présente aujourd’hui dans les principaux pays contemporains, a tout de même ses limites qui doivent être prises en considération lorsqu’il va être question d’analyser un marché. Premièrement, une hausse des dépenses fiscales implique une hausse de la dette publique qu’il va falloir in fine rembourser. Il y a le danger pour les gouvernements de finir asphyxiés par le remboursement de leur dette. Cette problématique est notamment d’actualité avec les taux d’endettements des pays européens et des Etats-Unis; le défaut de la Grèce à rembourser l’intégralité de sa dette a été un exemple phare des limites de cette politique fiscale. Deuxièmement, les cycles économiques appelés par Keynes visent le court terme. Sur le long terme, l’économie a de forte chance de revenir avec un effet de surchauffe sur l’économie : une croissance économique rapide dont le rythme n’est pas soutenable sur le long terme engendre diverses conséquences dont notamment l’inflation. Cette situation s’explique aussi par le décalage entre le moment d’intervention de la politique fiscale expansionniste et le résultat espéré qui intervient à un moment où l’économie a changé d’état. De façon générale, les politiques fiscales prennent du temps pour être implémentées, ce qui engendre un décalage entre leur effet souhaité et les effets réellement réalisés car ils ont lieu alors que l’économie est dans un état différent. Ces critiques sur la pensée Keynésienne ont été fortement discutées et contestées par l’école de pensée Monétariste, sous l’égide de Milton Friedman (économiste américain né à New-York le 31 Juillet 1912 et décédé le 16 Novembre 2006 à San Francisco), considéré comme l’un des économistes les plus influents du 20e siècle. Le modèle Keynésien est tout d’abord contesté car il ne prend pas en considération l’importance de la monnaie et plus particulièrement de son offre. Si la monnaie croit trop rapidement, l’économie tendra vers un boom insoutenable sur du long-terme ; si la monnaie croit trop lentement, l’économie tendra vers la récession. La vision à court terme des Keynésiens est également mise à mal en ce qu’elle ne considère pas les coûts des interventions du gouvernement sur le long terme. Comme évoqué précédemment, une dette croissante et des intérêts trop élevés tendent à 16
    • l’asphyxie de l’Etat qui se répercutera sur les impôts et taxes prélevées, diminuant la consommation générale et faisant, sur du long terme, rentrer l’économie dans une phase de récession. Dernièrement, le timing des réponses du gouvernement est incertain et les effets stimulant d’une politique fiscale expansionniste peuvent avoir lieu une fois la crise terminée et ainsi causer plus de dégâts qu’en soigner. Ainsi, d’après l’école Monétariste, les cycles économiques s’expliquent par des chocs externes à l’économie et l’interventionnisme des gouvernements. D’après sa vision, il est préférable de laisser l’offre et la demande trouver leur équilibre plutôt que de risquer de causer de plus amples fluctuations économiques. L’Etat ou les banques centrales doivent être présents pour conserver un taux de croissance de la monnaie modéré. De récentes écoles de pensées économiques ont continué à apporter leur pierre à l’édifice de la compréhension des cycles économiques en attaquant un nouvel angle d’approche. L’école néoclassique, sous l’égide de Robert Lucas (économiste américain né le 15 septembre 1937 à Yakima dans l’Etat américain de Washington), a discuté les fondements des modèles utilisés pour expliquer les cycles économiques apportant ainsi un aspect critique sur les raisons qui tendent à influencer les cycles économiques et leurs effets. Lucas approuve la vision de Friedman en ajoutant que les modèles utilisés devraient essayer de représenter les actions des agents économiques avec une fonction d’utilité et des contraintes budgétaires, à l’image des modèles utilisés en microéconomie. Cette approche de la macroéconomie cherche des conclusions macroéconomiques de la maximisation de l’utilité des individus avec comme hypothèse sous-jacente que les entreprises tendent à maximiser leur profit. Les modèles néoclassiques sont dynamiques dans le sens où ils décrivent les fluctuations à travers plusieurs périodes et présentent un équilibre général dans le sens où ils cherchent à déterminer tous les prix d’équilibre plutôt qu’un seul prix. Cette approche globale des choses cherche à comprendre l’évolution économique dans son ensemble plutôt que comme des situations au cas par cas. Pour exemple, les modèles présentés par Edward Prescott et Finn Kydland ont un agent économique qui fait face à des chocs externes à l’économie, tel qu’à la suite de changements technologiques ou de changements de goûts des consommateurs, et par conséquence optimise son choix pour atteindre l’utilité maximale. Si tous les agents agissent de façon similaire, les marchés vont graduellement tendre vers un équilibre. Les économistes Néo classiques, partent de l’idée que certaines recommandations faites dans le passé était plutôt irrationnels et donc non cohérentes avec l’attitude des agents 17
    • économiques. Par exemple, si tout le monde est conscient que dans le cadre d’une récession le gouvernement baissera les taux d’intérêts pour relancer l’investissement des entreprises, alors pourquoi ces entreprises investiraient en dehors des phases de récessions ? Si la majorité des entreprises pensaient cela, elles arrêteraient d’investir, causant ainsi une récession qui n’aurait pas eu lieu. Dans cette idée, le gouvernement et ses politiques « contre-cycles économiques » pourraient causer une récession. Les premiers modèles néoclassiques, qui n’incluaient pas d’argent et étaient alors qualifiés de modèle à cycles économiques réels, concluaient que les phases d’expansion et de contractions représentent des opérations efficientes de l’économie en réponse à des chocs externes. Dans cette vision non monétaire, les cycles ont des causes réelles telles que des changements technologiques et supposent que les variables monétaires, tel que l’inflation n’ont pas d’incidence sur le Produit Intérieur Brut d’une nation. Ces modèles reposent sur l’efficience des marchés, prônant ainsi que le chômage ne peut être que de courte durée : mis à part le chômage frictionnel, qui est la part de chômage attribuable au fait que les individus se retrouvent sans emploi parce qu’ils changent d’emplois et se retrouvent pendant une durée très courte sans rien, si les marchés sont efficients, une personne sans emploi est alors une personne qui ne veut pas travailler. Si une personne est sans emploi, dans le cadre de marchés efficients, elle a juste besoin de baisser ses attentes en terme de salaire jusqu’à ce qu’elle trouve un employeur. Cette approche est logique car si les marchés sont parfaitement flexibles, tous les marchés doivent trouver l’équilibre et le plein emploi. Ainsi, une personne est sans emploi si elle demande un salaire trop élevé et a donc une fonction d’utilité maximisée par le fait d’avoir des loisirs et moins de consommation. Cependant, l’observation faite pendant les récessions est tout autre : le fait que beaucoup de personnes cherchent du travail mais soient incapables d’en trouver malgré une chute de leur rémunération souhaitée démontre l’inexactitude de l’approche. Ces derniers modèles donnent une relative plus grande importance à la demande générale que la plus part des autres théories. Par exemple, l’importance de l’offre est limitée dans la théorie keynésienne, surement car Keynes était fortement affecté par et focalisé sur la Grande Dépression qui était une crise de la demande. Les modèles à cycles économiques réels montrent que les chocs liés à l’offre, tels que les avancées technologiques, peuvent augmenter le Produit Intérieur Brut potentiel d’une nation. Cependant, toutes les entreprises, au sein d’un pays, ne peuvent adopter la nouvelle technologie d’un seul coup et donc l’atteinte de ce potentiel se fera par des ajustements temporels. L’effet inverse est également un élément qui 18
    • sort de ces dernières théories : l’augmentation de prix d’une énergie fortement utilisée par une nation va limiter l’offre et tendre à réduire le PIB potentiel. L’inflation est souvent vue comme une des causes principales des cycles économiques car lorsque les politiques monétaires finissent par être trop expansionnistes, l’économie croît à un rythme non soutenable sur du long-terme, créant ainsi un gap inflationniste. Les fournisseurs ne peuvent suivre la demande, les prix continuent à augmenter plus vite que la normale : c’est l’inflation. En conséquence, la banque centrale devra souvent intervenir pour limiter l’inflation en resserrant la politique monétaire, qui généralement se traduit par une hausse des taux d’intérêts. Les taux augmentant, le coût de l’emprunt augmente et en cascade la demande, plus précisément la part de consommation faite à crédit va ralentir. Cette réponse va diminuer l’équilibre du PIB et peut résulter dans une récession. Dans la mesure où l’inflation apparait être le déclencheur des choix réalisés par les banques centrales, c’est une part importante et un apport considérable des cycles d’activités modernes. Aussi, il semble crucial d’incorporer cette notion monétaire à la croissance économique pour évaluer l’évolution d’une entreprise. Cet aspect inflation est le sujet principal d’un autre groupe de modèles d’équilibre général dynamique que sont les Néo Keynésiens, qui à l’instar de l’école Néoclassique tente de placer la macroéconomie sur un pied d’égalité avec la microéconomie. Par contraste avec l’école néoclassique, l’école néo keynésienne suppose un ajustement lent des prix et salaires. Les modèles néo Keynésiens montrent que les marchés n’atteignent pas leur équilibre immédiatement et de façon lisse, mais plutôt par de petites imperfections qui laissent les marchés en constant déséquilibre. L’interventionnisme de l’Etat, comme préconisée par Keynes dans les années 30 peut être utile pour éliminer le chômage et amener les marchés vers un équilibre. L’un des meilleurs exemples de cette imperfection est que les travailleurs ne veulent pas voir leur salaire diminuer pour aider le marché à atteindre un nouvel équilibre. Une autre possibilité, mentionnée par différents économistes, est l’explication par le « coût du menu » : il est couteux pour une entreprise de modifier ses prix en permanence pour rendre le marché clair, tout comme il serait couteux pour un restaurateur d’imprimer de nouveaux menus tous les jours en fonction de la mise à jour des prix. Ces dernières années, un consensus concernant les cycles économiques a commencé à se construire en macroéconomie. Il est surement trop tôt pour dire que les économistes s’accordent sur toutes les causes et remèdes aux fluctuations économiques, mais un cadre 19
    • général semble avoir émergé, qui englobe les approches néo classiques et néo Keynésiennes. Le débat concernant les cycles économiques tend à être politisé, comme on peut le lire aujourd’hui encore dans la presse, avec d’une part des gens contre l’interventionnisme de l’Etat, qui le sont principalement car ils tendent vers des déficits budgétaires colossaux, et d’autre part des personnes en faveur, qui sont principalement tournés vers l’allègement que le gouvernement apporte aux larges chocs économiques. Dans le cadre de l’analyse financière, les choix politiques ne devraient pas rentrer en considération, mais elle devrait plutôt prendre en compte les politiques en vigueurs et leurs potentiels effets sur l’économie car elles participent en grande part aux cycles économiques. L’action d’un gouvernement est ainsi un élément à prendre en compte comme encadrement de l’économie dans lequel une entreprise se situe. Sa valeur va ainsi être affectée par les décisions prises par le gouvernement en place. De façon générale, les effets liés au gouvernement sont des éléments incontournables qui doivent être pris en considération dans l’évaluation d’une entreprise. Une chose est certaine : l’économie n’est pas parfaitement modélisable car trop complexe, trop enchevêtrée de décisions, d’effet, de conséquences. Il est donc compliqué de prévoir l’avenir économique avec suffisamment de certitudes pour prédire sereinement une tendance sur les marchés. Les crises financières et économiques ont mis en lumière des éléments qui peuvent être résumées en trois points : une euphorie générale des marchés alliée à une spéculation accrue, une économie en croissance soutenue et finalement des politiques gouvernementales à effet de levier. Sur la base de ces éléments, il est possible de ressentir et même de justifier par des données économiques qu’une crise est sur le point d’avoir lieu. Ces éléments permettent d’établir un schéma caractéristique pour le retournement de marché dans le cas d’une crise financière. Cependant, ces éléments ils ne se suffisent pas pour prédire une tendance de marché de façon générale. Néanmoins, ces éléments ont permis aux différentes écoles économiques de mettre en avant des éléments caractérisant les fluctuations de l’économie, des éléments de compréhension de l’évolution des marchés qui permet à l’analyse fondamentale de prévoir des tendances. La notion primordiale mise en lumière et soutenue par toutes les écoles et que les prix des biens et par extension les prix des titres financiers tendent à se rapprocher d’une valeur réelle, modulo des effets économiques qui viennent rendre plus ou moins efficient le transfert d’information inscrit dans les échanges entre agents économiques. 20
    • I - 2 Les modèles d’évaluation Avant de rentrer dans l’étude des modèles qui reprennent la logique tant macroéconomique que microéconomique, il est important de regarder les barrières à l’évaluation des actifs sur un marché. Ces barrières ont leur importance dans la logique de l’analyse financière. Des barrières à l’évaluation financière et de l’importance de l’efficience des marchés L'action d'une entreprise, titre de propriété représentatif de cette dernière, est censée refléter son état financier. L'équation comptable Actifs = Fonds Propres + Dettes met en évidence la part représentative de cet actif financier dans le financement des entreprises. Par extension et d'une manière sommaire, en supposant une proportion respectée des éléments du bilan, l'augmentation du prix d'une action représente l'évolution positive de l'industrie de l'entreprise, toute chose égale par ailleurs. A contrario, la baisse du prix d'une action représente l'évolution négative de l'économie de l'entreprise. Autrement dit, soit une entreprise fictive valorisée le 01/01/XX à 1 million d’euros, financée à 100% par du capital et divisé en 100 actions de 10.000€ chacune. Cette société détient 1 million d’euros d’actifs, de par l’équilibre entre actif et passif. D’un point de vue comptable, chaque action représente 1% des biens de l’entreprise. Lorsque l’entreprise crée de la valeur, cette valeur est ajoutée à l’actif et mise au résultat à distribuer au passif. Ce résultat vient ainsi augmenter la valeur de chaque action. Une création de 100.000€ de richesse vient ainsi augmenter la valeur de chaque action de 1.000€ (100.000€ / 100 actions). Sur cette base nait l'idée qu'une action, cotée avec un prix de marché est censée refléter sa valeur. Le point de vue comptable vient ainsi poser l’une des bases de l’évaluation d’une entreprise en prenant la valeur passée des biens de l’entreprise. Le point de vue de l’analyse financière vient compléter cette vision en y ajoutant les attentes futures espérées. La théorie générale d’évaluation d’une entreprise par l’analyse financière est que sa valeur est la somme de ses cash-flows futurs actualisés. Cette théorie vient incorporer l’espérance future de croissance économique de la société évaluée dans la mesure où l’entreprise sera rentable si elle arrivera à générer des cash-flows positifs dans le futur ; si elle n’arrive pas à générer de richesse, l’entreprise est vouée à disparaître. Aussi, cette richesse ne peut se faire que si l’entreprise dispose de moyens de productions, tels que ses machines ou encore sa main d’œuvre, qui doivent être financés. Le financement est ainsi le nerf de la guerre. 21
    • L’évaluation d’une société par l’analyse financière se fait par le biais des systèmes financiers qui consistent en des marchés ainsi que des intermédiaires financiers qui y opèrent. Ils permettent aux intermédiaires financiers agissant pour leur compte ou celui de leurs clients directement sur les marchés de résoudre des problèmes de financement ou de gestion du risque. De façon générale, un système financier sera efficace s'il permet aux investisseurs, aux emprunteurs, aux hedgers et aux traders de pouvoir trouver une solution à leur problème de financement ou également, sous un autre angle, de gestion de leur risque. Dans le cadre des marchés actions, un système financier est qualifiable d'efficace si les entreprises peuvent facilement avoir accès aux capitaux dont elles ont besoin pour soutenir leurs projets, si les investisseurs peuvent facilement déplacer leur argent vers le futur en échange d'une espérance de gain positive, au travers de dividendes et/ou d'une plus-value. Considérons deux économies et leur système financier respectif. La première économie (économie A), comparable à celle d'un pays développé, dispose d'un système financier fortement développé dans lequel les acteurs de l'économie peuvent échanger à travers des intermédiaires financiers relativement facilement. La deuxième économie (économie B) quant à elle ne dispose pas des moyens nécessaires pour mettre en place et maintenir un système d'échange financier efficace. Dans l'économie A, les actifs et contrats pour apporter des solutions aux problèmes financiers de ses acteurs sont à disposition, son système financier a ainsi des marchés qualifiables de complets. Les coûts pour arranger les transactions sont faibles de par le nombre élevé d'intermédiaires se concurrençant ; le système financier est alors qualifiable d’opérationnellement efficient. Son efficience informationnelle suppose, elle, que dans cette économie les prix des actifs et des contrats reflètent toute l'information relative aux valeurs fondamentales. L'économie B quant à elle n'est pas capable de fournir cette efficience. Les bénéfices d'un système financier fonctionnant correctement sont immenses. Dans notre économie A, les investisseurs désirant déplacer leur argent vers le futur peuvent facilement se connecter à des entrepreneurs nécessitant des fonds aujourd'hui pour développer de nouveaux produits et services. De façon similaire, les entrepreneurs qui éviteraient de se lancer dans leurs projets dans l'économie B à cause du risque trop élevé peuvent, dans l'économie A, transférer ces risques à d'autres qui sauront les supporter. En augmentant le nombre d'acteurs ayant accès aux besoins d'autres acteurs, les transactions peuvent prendre place entre un nombre plus élevés d'étrangers, les bénéfices d'échanger peuvent ainsi dériver d'un grand nombre de rencontres. 22
    • Les acteurs financiers bien informés rendent les prix informationellement efficaces de par leurs échanges. Quand ils achètent des actifs qu'ils pensent sous-évalués, ils tendent à faire monter leur prix. Inversement, quand ils vendent des actifs qu'ils pensent surévalués, ils tendent à faire baisser leur prix. Les interventions des acteurs agissant ainsi sur les marchés financiers font refléter les informations qu'ils détiennent concernant la valeur des actifs. Par contraste, l'économie B, disposant d'un système financier œuvrant pauvrement a de grandes difficultés à allouer les capitaux à disposition dans l'économie parmi les nombreuses sociétés qui peuvent s'en servir. Dans de telles économies, les transactions financières se limitent aux connaissances, aux cercles familiaux et amicaux car les demandeurs de capitaux ont du mal à trouver une contrepartie digne de confiance qui honorera ses engagements. Cette économie n'utilise pas les ressources où elles sont les plus productives, elle les gaspille, elle n'est pas allocativement efficiente. Comment les prix reflètent précisément les informations fondamentales dépend du coût pour obtenir ces informations et de la liquidité disponible aux échangeurs bien informés. Le cadre réglementaire de l'économie A, avec ses standards comptables et ses exigences de déclarations qui produisent des informations significatives et opportuns, réduit les coûts pour obtenir ces informations et ainsi permet de réaliser une analyse fondamentale plus précise, par laquelle il n’y a que peu de bruit d’information. Plus l'information est disponible facilement, plus elle est retranscrite dans le prix des actifs. Les marchés liquides de l'économie A permettent aux échangeurs bien informés de réaliser leurs ordres à bas coût. A contrario, dans l'économie B les coûts élevés pour passer des ordres en limitent le nombre, ayant pour conséquence de ne pas transmettre l'information, qu'ils véhiculent, au marché. Dans ce cas, la rentabilité limitée par les coûts pour passer des ordres enlèvera de l'intérêt à chercher ces échanges et donc les acteurs financiers n'engageront pas de ressources pour collecter et analyser les informations et n'échangeront pas. Sans ces recherches et sans ces échanges, les prix seront moins informatifs. Ainsi, plus un marché tendra à limiter les barrières à l'échange, plus il facilitera les rencontres entre acteurs et plus il tendra vers une efficience parfaite. La qualité d'un titre financier à retranscrire ses informations fondamentales sur les marchés est ainsi fonction inverse des coûts à l'échange. La qualité de fonctionnement d'un système financier est cruciale dans l'évaluation d'un titre. La caractéristique principale rendant les marchés de l'économie A plus efficients comparés à ceux de l'économie B est la régulation imposée par les agences gouvernementales 23
    • et supra-gouvernementales. Les régulateurs cherchent à promouvoir la justesse et l'ordre des marchés sur lesquels les opérateurs échangent à des prix qui reflètent la valeur fondamentale sans encourir de frais de transactions trop élevés. Regrettablement, certaines personnes voleront d'autres personnes si la chance leur en ai donné, surtout si la probabilité de se faire attraper est faible ou si les sanctions encourues sont trop faibles. Le nombre de façon que les gens ont de frauder ou de détourner des richesses aura tendance à augmenter avec la complexité des marchés qui croit et parce que les clients des intermédiaires financiers ont moins de connaissance et de compétences relativement aux professionnels qui les servent. Sur des marchés non régulés, les pertes dues à des comportementaux délictuels seront plus élevés. Ainsi, l’aspect de marchés efficients est un critère crucial pour l’évaluation des actifs financiers, en appui des théories des différentes écoles de pensées économiques. Les considérations à prendre en compte pour évaluer une action financière sont les coûts de transaction et les coûts nécessaires à l’obtention de l’information. Ce point est important, car il démontre l’existence d’un écart entre la valeur réelle, ou intrinsèque, d’une action et sa valeur cotée. Dans un monde parfait où l’information serait instantanément traitée et répercutée par tous les acteurs financiers et économiques du monde, sans aucune restriction quant aux échanges, le prix de l’action serait alors équivalent à la valeur intrinsèque de l’actif réel dont il est la représentation. Ceci n’étant évidemment pas le cas, l’approche de l’analyse financière va se concrétiser en l’approche d’une valeur. La modélisation : Outil de valorisation L’analyse fondamentale rassemble et traite des informations pour pouvoir prendre une décision d’investissement, incluant une recommandation d’achat, de vente ou une position neutre. Les informations rassemblées et la façon par laquelle elles sont traitées dépendent de l’objectif de l’analyse. L’analyse fondamentale utilise des informations concernant l’économie, le secteur et l’entreprise comme base pour ses décisions d’investissement, tels que les taux d’emploi, le Produit Intérieur Brut, les parts de marchés sectorielles ou encore la croissance des revenus de l’entreprise. 24
    • Les modèles d’évaluation utilisés pour déterminer la valeur du capital d’une entreprise servent à estimer sa valeur intrinsèque ou valeur fondamentale, qui est basée sur l’analyse de ses caractéristiques et de ses fondamentaux. Les fondamentaux ainsi considérés dépendent de l’approche d’évaluation utilisée ; dans une approche top-down, l’examen partira de l’environnement économique, pour arriver à l’analyse des actifs d’une compagnie, préalablement choisie dans un secteur prospère. Dans une approche bottom-up, un analyste suivant un secteur anticipe les fondamentaux pour les compagnies du secteur afin d’en déterminer une valeur. Qu’importe l’approche, l’analyse fondamentale questionne en réalité la précision du marché à donner un prix à un actif équivalent à sa valeur fondamentalement estimée. En partant du principe qu’une action cotée est sous-évaluée, l’analyse fondamentale prédit qu’elle tendra à s’apprécier et inversement, une action cotée qui est surévaluée tendra à se déprécier. Avec des target price (objectifs de prix) sur des périodes généralement de plusieurs mois à un an, l’analyse fondamentale prédit une tendance de marché, soit à la hausse, si l’actif est sous-évalué par rapport à sa valeur intrinsèque, soit à la baisse, si l’actif est surévalué, soit neutre, si le prix de marché reflète assez bien la valeur intrinsèque du titre financier. Ainsi est l’objectif de l’analyse financière lorsqu’il est question d’évaluer une action cotée en Bourse : prédire une tendance. L’analyse fondamentale se sert ainsi de modèles prenant en paramètres différentes données marchés, secteurs et propres à l’entreprise évaluée. Ces modèles sont des simplifications du monde réel. Deux principaux types de modèle sont utilisés par les analystes financiers, selon le type de fondamentaux et de caractéristiques utilisés. Ces différents types de modèles sont nécessaires pour permettre un recoupage des informations apportées et une meilleure confiance dans l’estimation des valeurs intrinsèques. Les premiers types de modèles sont les modèles dits de valeurs actualisées, ils estiment la valeur intrinsèque d’une entreprise comme la valeur présente de ses futurs bénéfices espérés. Ces modèles suivent le principe économique fondamental précédemment mis en lumière qui formule que les individus reportent leur consommation, autrement dit, ils investissent, pour obtenir des bénéfices futures supérieurs à une consommation actuelle. Les individus et les entreprises réalisent des investissements parce qu’ils en espèrent un taux de rendement sur la période d’investissement. Logiquement, la valeur d’un investissement devrait être égale à la valeur actualisée des bénéfices futurs. Pour des actions ordinaires, l’actualisation de ses cashflows, correspond à cette logique. 25
    • Le modèle le plus simpliste est le modèle d’actualisation des dividendes qui spécifie que les cashflows futurs sont les dividendes associés à l’action ; la valeur d’une entreprise est égale à la somme de ses dividendes futurs actualisés. Aussi, l’expression du Modèle de Dividendes Actualisés est V0 = ∑ [Dt x (1 + r)-t], avec V0 la valeur de l’action aujourd’hui à t=0, Dt le dividende espéré en date t et r le taux de rendement espéré. Au niveau de l’actionnaire, les cashflows reçus d’une action incluent les dividendes et les gains réalisés sur la vente future. Si un investisseur a l’intention d’acheter une action pour une année, sa valeur actuelle et la somme de deux cashflows : le dividende de l’année en cours plus le prix de revente de l’action espéré autrement dit, V0 = (D1 + P1) x (1 + r)-1, avec P1 le prix espéré en date 1. Le prix de l’action en P1 peut s’estimer de façon similaire avec le dividende espéré en date 2 ainsi que le prix de revente espéré en date 2 soit P1 = (D2 + P2) x (1 + r)-1. Par substitution, on obtient ainsi la valeur de l’action en V0 = D1 x (1 + r)-1 + (D2 + P2) x (1 + r)2 . Par répétition de cet exercice de décomposition, on obtient la valeur en V0 = ∑ [Dt x (1 + r)- t ] + Pt x (1 + r)-t. En étendant la période de détention de l’action à une durée infinie, apparait la formule représentant la formule V0 = ∑ [Dt x (1 + r)-t] présentant la valeur d’une action comme la valeur présente de tous ses dividendes futurs. La considération d’un futur infini est valide dans la mesure où les entreprises cotées en Bourse sont établies pour opérer à l’infini. Ce modèle rencontre cependant un problème pour les entreprises ne distribuant pas de dividendes, comme c’est le cas pour certaines entreprises mid-cap (entreprises à capitalisation moyenne). Il en va de même pour les sociétés dont les dividendes futurs sont difficilement estimables. Dans la pratique, beaucoup d’analystes préfèrent pour cela utiliser un modèle de Free-Cash-Flow-to-Equity (FCFE) avec comme hypothèse que la capacité d’une entreprise à distribuer un dividende devrait être reflétée dans l’estimation des cashflows plutôt que les dividendes espérés. Le calcul du FCFE commence par le calcul des cashflows opérationnel de l’entreprise auxquels sont enlevés les dépenses d’investissement et rajoutés les emprunts net. L’avantage de ce calcul est que l’intégralité des données nécessaires sont disponibles à dans les documents comptables de l’entreprise et l’estimation des FCFE futurs s’établi plus facilement. Le modèle s’écrit ainsi similairement à celui des dividendes actualisés comme la somme des FCFE futurs V0 = ∑ [FCFEt x (1 + r)-t]. Un autre problème plus évident lors de l’utilisation du modèle d’actualisation des dividendes futurs est qu’il nécessite une estimation de séries de dividendes à l’infinie, ou au moins sur une période suffisamment longue pour que le taux d’actualisation rende la valeur présente nulle. Pour simplifier ce processus, les analystes financiers prennent l’hypothèse que 26
    • les dividendes vont évoluer à travers le temps à un rythme constant. Le Gordon Growth Model (traduisible en Modèle de croissance de Gordon) est ainsi particulièrement approprié pour évaluer les entreprises dans leurs phases de maturité, peu sensibles au cycle économique. Avec l’hypothèse d’une croissance constante g, l’équation du modèle d’actualisation des dividendes devient V0 = ∑ [D0 x (1 +g) x (1 + r)-t]. L’expression ∑ [D0 x (1 +g)] reprend les cashflows futurs à l’infini qui croissent à un rythme g constant. Avec l’hypothèse que le taux de rendement requis par les investisseurs r est strictement plus grand que le taux de croissance g, la formule se transforme en la forme simplifiée du modèle de Gordon Shapiro et s’écrit V0 = [D0 x (1 + g)] / [(r - g)]. Ainsi, le Gordon Growth Model estime la valeur intrinsèque d’une action comme la valeur actuelle d’une perpétuité croissante (si g = 0 on retrouve une perpétuité classique). Vient alors la problématique de cette croissance constante et de son estimation. Deux approches sont utilisées, une historique, l’autre plus déterminée. La première approche détermine un taux de croissance à partir des dividendes passés avec une régression linéaire. La deuxième approche reprend la logique du modèle FCFE et détermine le taux de croissance comme le produit du retour sur investissement ROE et du taux de rétention des profits b : g = b x ROE. Le taux de rétention des profits correspond à la part des profits non distribués, et donc réinjectés dans l’entreprise pour ses investissements ; multipliés par le retour sur investissement, il permet d’estimer cette proportion de réinvestissement accru par l’effet de retour sur lui-même. Les hypothèses ainsi soutenues par le modèle de Gordon Shapiro sont que premièrement les dividendes représentent une bonne métrique à utiliser dans le but d’évaluer une action. Deuxièmement, le taux de croissance des dividendes est éternel, autrement dit il est perpétuel et ne change jamais. Troisièmement, le taux de rendement est constant à travers le temps. Quatrièmement le taux de croissance est strictement inférieur au taux de rendement requis. Ces hypothèses, bien qu’initialement venu apporter une amélioration par rapport au modèle d’actualisation des dividendes futurs sont discutables car quelque peu trop simplistes pour refléter les caractéristiques de l’entreprise à évaluer. De façon similaire au modèle d’actualisation des dividendes futurs, le Gordon Growth Model n’est pas fait pour les entreprises ne distribuant pas de dividendes. Beaucoup d’autres modèles dérivent ainsi de l’hypothèse économique que la valeur actuelle d’un actif correspond à l’actualisation de ses cashflows futurs. Certains modèles prennent notamment en compte la situation de l’entreprise dans son cycle économique, dans la mesure où les distributions de dividendes diffèrent d’un état à un autre. Même si chaque 27
    • modèle vient apporter sa particularité pour complémenter ses pairs et ainsi apporter une précision dans l’évaluation d’une action, aucun modèle de cette famille n’est suffisamment solide pour prédire avec exactitude la valeur intrinsèque d’une entreprise. La valeur des dividendes reste en effet incertaine dans le futur, l’entreprise pouvant se retrouver dans une situation où elle aura besoin de s’autofinancer en quantité supérieure à l’habitude. Cela a été le cas pour beaucoup de sociétés cotés (ou non) dans les années suivants la crise de 2008. La méthode d’évaluation perd également en efficacité si la société se trouve dans une situation financière chancelante, avec des rendements futurs incertains. Les deuxièmes types de modèles, qualifiés de modèles des multiplicateurs de marché, se basent quant à eux sur des multiples de prix d’action ou de valeur de marché d’entreprise. Le terme de multiplicateur fait référence à un ratio qui compare le prix d’une action avec un flux monétaire ou une valeur qui permet l’évaluation de la valeur relative de cette action. Cette méthode est principalement utilisée en tant que moniteur de marché : si le ratio tombe sous une valeur spécifique, les actions sont alors identifiées comme candidates à l’achat, ou inversement, si le ratio dépasse une valeur spécifique, l’action sera pour la vente. Un certain nombre d’indicateurs sont ainsi utilisés par les analystes financiers, tels que le Price-toEarnings ratio (P/E), le Price-to-Book ratio (P/B), le Price-to-Sales ratio (P/S) ou encore le Price-to-Cashflows ratio. Une critique de tous ces multiplicateurs est qu’ils ne prennent pas en considération le futur, ils ne se servent que des données présentes de la société, issues soit de la comptabilité soit du marché (ex. capitalisation boursière). Cette critique est cependant contrée par l’utilisation d’une variété de techniques incluant des prévisions de fondamentaux au dénominateur. Le résultat obtenu peut remarquablement changer du multiplicateur calculé sur la base des données comptables, présentant des valeurs présentes voir passées. Dans l’absence de prévisions explicites de valeurs fondamentales, l’analyse résulte en une prévision implicite. Un ratio multiplicateur est souvent associé à un fondamental de l’entreprise. Bien que l’approche des ratios multiplicateurs soit fréquemment utilisée indépendamment des modèles d’actualisation de cashflows futurs, le fondamental sélectionné est généralement obtenu à travers une méthode d’actualisation de cashflows, associés au fondamental. La connexion entre les deux peut approfondir l’appréciation des facteurs de l’analyse qui affectent la valeur du multiple. Cela permet également d’expliquer certaines raisons pour des « incohérences » dans les multiples qui n’impliquent pas forcément un mauvais pricing. En partant du modèle 28
    • de Gordon Shapiro et en rappelant l’idée que le prix de marché d’une action tendra vers la valeur intrinsèque de l’action, soit, en supposant que la valeur intrinsèque V0 est égale au prix P0 : P0 = [D0 x (1 + g)] / [(r - g)]. En posant D1 = D0 x (1 + g), D1 équivalant ainsi les dividendes espérés l’année suivante, on obtient P0 = [D1 / [(r - g)]. Pour obtenir le Price-ToEarnings ratio (P/E), on incorpore les revenues E (pour earnings = Résultat Net) en divisant de chaque côté P0/E1 = (D1/E1) / [(r - g)]. Le rapport de D/E est également connu comme le ratio de redistribution de dividendes p, ou, la part du résultat net redistribué sous forme de dividendes. P0/E1 = (D1/E1) / [(r - g)] = p / [(r - g)]. L’équation ainsi obtenue indique que le P/E ratio est inversement lié au taux de rendement et positivement lié au taux de croissance. Autrement dit, une augmentation du taux de rendement implique une baisse du P/E ; une augmentation du taux de croissance implique une aussi du P/E. De même, le P/E ratio est positivement lié au taux de distribution de dividendes p. Le multiple met ainsi en lumière le lien fait entre l’activité de l’entreprise, l’espérance future de sa croissance et le prix du titre. Une autre approche des ratios multiplicateurs, plus largement utilisée, est la méthode des comparables. Cette méthode compare essentiellement les valeurs relatives estimées en utilisant des multiples ou des valeurs relatives de multiples. L’hypothèse économique rationnelle sous-jacente à cette méthode est la Loi du prix unique, qui stipule que tous les actifs identiques devraient se vendre au même prix. La méthodologie implique l’utilisation d’un ratio multiplicateur pour évaluer si un titre est soit normalement évalué, soit sous-évalué ou surévalué en relation à une valeur benchmark du multiplicateur. Les choix pour le benchmark peuvent inclure le multiple d’une entreprise similaire, c’est-à-dire dont l’activité est fortement ressemblante ; une moyenne ou encore une valeur médiane issue du secteur d’activité de l’entreprise. Identifier une entreprise benchmark individuelle ou encore le niveau de secteur dans lequel se trouve l’entreprise peut présenter un défi important. Beaucoup de grandes entreprises opèrent plusieurs lignes business ; l’échelle et la portée de leurs opérations peut ainsi grandement varier. La contrainte est de trouver une entreprise suffisamment similaire dans ses activités d’après plusieurs nombres de critères et de dimensions, comme la taille, les lignes produits, les services, les taux de croissance. De plus, cette approche s’attarde à trouver des écarts entre l’entreprise évaluée et son secteur. Une fois une différence significative trouvée, l’analyse doit investiguer plus en profondeur ces contradictions pour comprendre l’origine même de l’écart. Une extension de cette approche est la comparaison de l’entreprise avec elle-même à travers le temps. L’évolution de ses ratios indique la tendance que prend l’entreprise, en termes de croissance, de rentabilité, de 29
    • dividendes distribués ou conservés pour son développement, etc. L’avantage majeur de cette approche par les comparables des prix multiplicateurs est qu’elle permet facilement de réaliser une comparaison relative, contre le marché ou d’autres comparables, et contre ellemême à travers le temps. L’analyse va ainsi tendre à indiquer contre quelle entreprise ou moyenne de marché le titre est sur ou sous-évalué vis-à-vis d’un autre titre ou secteur. Dans le cadre d’une comparaison d’un titre vis-à-vis de son secteur ou d’un pair, l’analyse va être limitée en ce qu’elle ne fera qu’indiquer une valeur par rapport à un autre titre et non une valeur propre à l’entreprise. Les marchés actions, bien qu’ayant une forte efficience, ne peuvent retranscrire en temps réel la valeur vraie d’un titre financier. Lorsqu’il est question d’évaluer une action cotée en Bourse, l’analyse financière va ainsi se donner comme mission d’indiquer l’écart avec lequel une action coté diverge de sa valeur intrinsèque, autrement dit, d’estimer la valeur intrinsèque d’un titre et de la comparer à son prix coté avec comme idée que la cotation tendra in fine à se rapprocher de la valeur intrinsèque du titre. En cas de sous-évaluation, l’analyse aura comme conclusion que le titre s’inscrit dans une tendance haussière ; dans le cas d’une surévaluation, l’analyse conclura à une tendance baissière. Une conclusion est également valable dans le cas où la valeur intrinsèque estimée serait sensiblement identique au prix de l’action : le titre se trouve dans une tendance neutre ; l’analyse fondamentale sera alors dans l’attente d’informations neuves. L’analyse fondamentale est dépendante des données à sa disposition, qu’elles proviennent de l’économie en générale, qui aura un impact plus ou moins direct sur la société évaluée, qu’elles proviennent du secteur dans lequel se situe l’entreprise, et dans lequel elle aura des interactions avec ses concurrents, ses fournisseurs, ses clients, ou encore des données propres à l’entreprise, qu’elle retrouve au travers de ses différents états financiers et, de façon générale, des décisions du management. Pour en arriver à une conclusion quant à une tendance de marché, l’analyse financière va considérer trois aspects autours desquelles elle va étayer un point de vue: les éléments comptables de l’entreprise évaluée seront la base de l’analyse et serviront à comprendre la valeur « passé » de l’entreprise : comment l’entreprise a installé son business, et évolué à travers le temps. Les espérances de croissance attendues, représentant l’espérance de gains futurs, serviront quant à elles à estimer ce qui peut être attendu de l’entreprise, la croissance et les gains qu’elle peut encore apporter. Finalement, reste la valeur que le marché donne au titre 30
    • financier, qui, une fois l’évaluation intrinsèque du titre réalisée, permettra de projeter l’action dans le futur et d’indiquer si le titre va à la hausse ou à la baisse. II - L’APPORT DE L’ANALYSE TECHNIQUE Les fondements théoriques de l’analyse technique L’analyse technique est une boite à outil qui se base sur des historiques de cours. Elle permet d’analyser de manière pertinente les tendances boursières en matérialisant, sous forme de graphique, le comportement de la rencontre entre les acheteurs et les vendeurs d’un actif financier. En outre, l’analyse technique essaye de comprendre et d’évaluer le comportement des intervenants de marché. Elle trouve son efficacité lorsque le marché est inefficient car les opérateurs de marché sont submergés par leurs biais psychologiques lors de prises de décision en situation d’incertitude. Ainsi, l’analyse technique s’appuie sur des fondements théoriques que l’on peut retrouver chez les tenants de l’analyse comportementale et psychologique. En effet, l’école comportementaliste contredit l’école néo-classique sur la théorie de l’efficience de marché. Les néo-classiques considèrent que le cours d’un actif ne peut s’éloigner très longtemps de sa valeur fondamentale car les arbitragistes corrigent ces anomalies de marché et le cours revient ainsi à sa valeur fondamentale. Néanmoins, les comportementalistes considèrent que certains phénomènes restent inexpliqués par les seuls fondamentaux. Alors comment expliquer ce décalage de cours d’un actif financier de sa valeur fondamentale ? En reprenant les travaux de KAHNEMAN et TVERSKY en 1979, sur la théorie des perspectives aléatoires, nous allons essayer de comprendre quels sont les facteurs qui influencent les agents économiques, lorsqu’ils sont en situation d’incertitude lors de leurs prises de décision. En effet, les opérateurs de marché sont soumis à de nombreux biais psychologique propre à la psychologie humaine que nous allons étudier. 31
    • II – 1 L’analyse comportementale : les biais psychologiques 1.1 Les biais cognitifs Les biais cognitifs portent sur l’importance de nos connaissances et de nos croyances dans le processus décisionnel. Il montre que les opérateurs de marché ont souvent recours à des raccourcis cognitifs lors de la prise de décision. Les individus vont se référer à des heuristiques. Ce sont des règles empiriques qui permettent de simplifier le raisonnement en matière d’analyse et de prise de décision dans le but de gagner du temps. De ce fait, les individus ne prennent pas en compte tous les éléments qui leurs sont à leurs disposition. Dans la précipitation, ils prennent donc des positions erronées car ils n’ont pas été rationnels dans leur raisonnement. Le biais d’ancrage Le biais d’ancrage défini le fait que la prise de décision est influencée par le contexte dans lequel elle a été prise. En effet, on retrouve fréquemment ce biais dans le cas où une décision a été prise en situation d’incertitude. La disponibilité immédiate de l’information met les individus sur le même piédestal mais l’interprétation peut être différente d’un individu à l’autre. Un investisseur qui joue un titre à la hausse prendra ses gains dans la zone de résistance. A contrario, un investisseur qui joue un titre à la baisse prendra ces bénéfices sur la zone de support. L’analyse technique permet donc de renforcer la pertinence du biais d’ancrage en apportant un soutien visuel sur ces zones de support et de résistance. Le biais de conservatisme et la dissonance cognitive Le biais de conservatisme met en avant l’individu sur son autorité dans la prise de décision. En effet, l’individu porte une importance à ses connaissances notamment quand sa prise de décision concorde avec celle-ci. Deux composantes se définissent : la composante affective qui caractérise les émotions et la composante cognitive relative à la connaissance et la croyance. Les idées ancrées d’un décideur se renforce par les croyances qui concordent avec les informations obtenues. La composante émotionnelle se forment par le regroupement croyance et de savoir renforcé dans l’esprit d’un individu. 32
    • La dissonance cognitive évoque la situation où laquelle l’individu est en contradiction avec les infos obtenues et avec les croyances et les connaissances ce qui le met dans un état de stress difficile à gérer. On en dégage l’idée selon laquelle la perception d’un individu est sélective. En ignorant les infos, l’individu va réduire cette dissonance cognitive. De manière globale, plus l’investigation de l’investisseur est importante et plus il lui est difficile de changer son positionnement. Dès lors, l’individu élimine toutes les infos qui sont en contradiction avec ces croyances et connaissances. La dissonance cognitive semble supprimer toute objectivité de l’individu. La loi des petits nombres Les probabilités sont efficaces lorsque l’échantillon étudié est important. Cependant, certain intervenant de marché utilise un faible échantillonnage pour en tirer une loi générale. C’est une erreur en matière de probabilité car en situation d’incertitude ces opérateurs sont submergé par leurs biais cognitifs et ne tiennent pas compte de la loi des grands nombres. Ces individus transforment les probabilités et surpondèrent certains événements dont la probabilité d’occurrence est pourtant faible et inversement, ils ont tendance à sous-pondérer certains évènements dont la probabilité d’occurrence est pourtant forte. La loi des petits nombres met en avant l’efficacité de certaines figures chartistes qui permet de repérer clairement cette réaction des investisseurs. Le biais momentum Il démontre qu’un individu se base sur des évènements qui se sont passés récemment pour prendre leur décision. On remarque que l’investisseur est optimiste dans un marché haussier et pessimiste dans un marché baissier. Il pense que la hausse récente va se poursuivre et inversement dans le cas d’une baisse, il envisage que la baisse récente va se poursuivre. Dans ce cas de figure, il néglige totalement la loi des grands nombres et émet sa prévision à partir d’une série courte de données. Les acheteurs se positionnent à la hausse lorsqu’un actif financier progresse à la hausse. La hausse entraine la hausse et arrivé sur le sommet de l’ascension, d’autres acheteurs vont entrer dans le marché en passant que la hausse va continuer. Néanmoins la force acheteuse s’essouffle et les acheteurs sont pris de panique car les vendeurs ont pris le dessus et le cours de l’actif financier se retourne à la baisse. Ce 33
    • comportement est visible sur certains indicateurs techniques qui identifient ce retournement de tendance. 1.2 Les biais émotionnels Les bais émotionnels se réfère à la théorie de l’utilité espérée évoqué par NEUMANN et MORGENSTERN. Cette théorie explique comment les investisseurs réagissent dans un contexte incertain et remet en cause la théorie des néo-classique selon laquelle tout individus est rationnel et omniscient. Les comportementalistes décrivent donc deux principales caractéristiques mis en avant par la théorie de l’utilité espérée : un individu accepte plutôt une perte aléatoire à une perte certaine et préfèrent un gain certain à un gain aléatoire. Il pense qu’il est plus difficile pour les individus de maitriser leurs pertes que leurs gains. Le biais de l’attribution personnelle Le biais de l’attribution personnelle s’explique par le fait qu’un individu a recours à une pensée magique pour initier sa prise de décision. En effet, l’individu refoule un sentiment de supériorité à l’écart des autres individus et ce surplus d’optimisme le pousse à croire qu’il est supérieur aux autres. Lorsqu’un individu utilise cette pensée magique lors d’une prise de décision et que sont choix s’avère être juste, il en déduira que cela est uniquement la conséquence logique de ces qualités personnelles. Tandis que si le résultat est contraire à sa prise de décision, il portera systématiquement la faute sur le mauvais sors. L’individu ne prend pas en compte la globalité du problème et s’induit en erreur car il est focaliser sur soimême et agit par conséquent de manière irrationnel. Le biais dynamique Les opérateurs du marché ont tendance à se fier aux résultats enregistrés précédemment. Deux types de comportement en découlent : une série de gain occasionnerait un sentiment d’invincibilité et une prise risques plus considérable. Une série de perte engendrerait un traumatisme et l’individu se repliera des marchés. 34
    • 1.3 Les conventions Définition Une convention se définie comme un commandement ou un principe entre divers personnes ou groupe. Ce commandement peut être officiel ou officieux. Il s’agit d’un principe de conduite que toute personne connait, juge comme rationnel et à laquelle ils se conforment, même si elle n’est pas toujours fondé scientifiquement. Dans une situation de doute, il est très difficile même voire impossible pour un investisseur de prévoir la progression des marchés. Effectivement, dans cette situation, un individu accepte les codes de la collectivité même s’il n’y adhère pas personnellement, car les refuser est une menace d’être mis à l’écart. Une convention symbolise une régularité d’état d’esprit pour des investisseurs placé dans une situation semblable. Face à cette situation, ils vont avoir le même comportement pour décider en situation de doute. La convention donne les moyens de gérer cette situation et principalement de se décider. Car il pense, ou même pense savoir, comment les autres investisseurs pourrait réagir dans un contexte incertain. Conditions à la formation d’une convention Pour qu’une convention prenne forme, il faut que la plus part des individus y adhèrent. L’individu initiateur de la convention espère que les autres individus y adhèrent également. Si, les autres individus y adhèrent également, on décrit ce phénomène de prophéties autoréalisatrices. Ce phénomène explique donc le fait qu’un individu peut générer une règle de conduite qui sera suivie par les autres individus même si cette dernière n’a aucun fondement scientifique. La convention en question est donc renforcée et sa crédibilité dépend de la confiance que portent les autres individus à son égard. Ce phénomène irrationnel peut expliquer pourquoi on remarque des variations de prix d’un actif financier de sa valeur fondamentale qui ne peuvent être expliqués par la seule analyse fondamentale. L’irrationalité peut être à l’origine de formation de bulles spéculatives lorsque les opérateurs de marché sont pris au piège par leurs biais psychologique mais ce n’est pas la raison principales de la formation de ces bulles spéculatives. D’après les comportementalistes, l’irrationalité des investisseurs est un facteur essentiel dans l’inefficience de marché. Pour eux, elle serait à l’origine de ces décalages de cours entre la valeur boursière et la valeur 35
    • fondamentale. Malgré la diffusion quasi instantanée de l’information à l’ensemble des individus, il existe des disparités informationnelles d’individu à un autre. En effet, certains individus, issue de grandes institutions, peuvent avoir des informations privilégiées pour laquelle les autres individus n’ont pas accès. Dans un contexte incertain, ces derniers vont suivre l’individu qui s’est positionné sur la nouvelle convention en contradiction avec le consensus dominants. On peut alors parler de comportement moutonnier, de rationalité mimétique ou encore de rationalité autoréférentielle. Tous les individus se basent sur une règle fausse qui finit par être rationnelle lorsque son utilisation devient massive. Ce comportement peut être assimilé à la célèbre étude de KEYNES sur le concours de beauté qui met en évidence le phénomène pour lequel les individus vont adopter le même comportement pour se fondre dans la masse et en vue de ne pas être marginalisé par le refus de cette mode. Néanmoins, les modes ne durent jamais très longtemps et changent assez fréquemment. C’est pourquoi, l’individu doit être attentif et être sur le qui-vive pour pouvoir anticiper ces changements de mode. La convention est conforme dès lors que les investisseurs soutiennent toujours les signaux fournis de cette règle. Il va de soi que les investisseurs devront toujours vérifier la viabilité de cette convention. Ainsi, les biais psychologiques expliquent de manière pertinente pourquoi il subsiste des décalages entre le cours bousier d’un actif financier et de sa valeur fondamentale. Néanmoins, les biais psychologiques n’est qu’un facteur par mis d’autres et il ne peut à lui seul, expliquer les raisons de cette divergence cours. La formation d’une convention Une convention prend vie lorsqu’elle s’oppose au consensus dominant. En effet, il faut que la convention indique un changement de marché contraire au consensus dominant. Dans une éventualité haussière les investisseurs vont s’offrir le pessimisme ambiant et dans une éventualité baissière ils vont vendre l’optimisme ambiant du marché. Confirmation d’une convention La confirmation d’une convention réside sur l’importance que porte l’ensemble les investisseurs à cette dernière et surtout, de l’approbation du marché dominant à son égard. La 36
    • confirmation de la convention est déterminée donc par la confiance que lui accordent le marché dominant et les opérateurs de marché qui la compose. La fin d’une convention Cette étape est aussi celle où la convention arrive à son apogée, car elle est partagée par la totalité de la communauté financière, Plus l’irrationalité est à son sommet et plus la convention est forte. La modification de celle-ci peut se faire de manière brusque ou lente. Durant un krach boursier, beaucoup d’opérateurs réalisent de très mauvaise opération. Ces intervenants sont forcés de voir le changement de convention et vont se mettre à la recherche d’une nouvelle. Une convention peut mettre du temps à changer car l’ancienne est toujours solidement consolidée dans les esprits. Les opérateurs professionnels s’aperçoivent que les investisseurs les acceptent avec moins d’entrain. Ils vont donc exploiter cette information pour initier des positions qui seront les prémices de la nouvelle convention. 1.4 L’analyse psychologique Il est assez courant en bourse que les opérateurs cherchent une explication à la suite d’un fort mouvement de marché. L’analyse psychologique est un moyen par lequel on peut prévoir certains comportements à l’origine de ces retournements majeurs de tendance. De plus, dans le marché financier actuel, il est courant de constater de nombreuses divergences entre le consensus dominants des experts et des professionnels par rapport au marché ambiant. Ce constat peut paraitre étrange surtout de la part de l’école néo-classique mais on peut l’expliquer du fait que le marché a anticipé avant le consensus dominant, l’évolution des fondamentaux. En partant du principe que le marché a toujours raison, on peut dire que celuici peut être considéré comme un baromètre avancé de l’économie et surclasse les prévisions des experts. L’analyse technique permet, à l’aide de ces outils graphiques, de repérer le dominant ambiant du marché en fonction de signaux élaborés par l’analyse chartistes. Le phénomène des prophéties autoréalisatrices n’explique pas à elle seule tout les décalages de cours entre la valeur boursière et la valeur fondamentale. En effet, l’analyse psychologique permet de détecter de manière très précise le comportement des interlocuteurs 37
    • de marché. La récurrence de ces comportements est identifiable par les graphiques et se traduisent sous forme de signaux. Grace à l’historique de cours, les graphiques permettent donc de distinguer certain comportements récurrents car les biais psychologiques sont figés dans le temps. En effet, on peut retrouver des comportements similaires sur des espaces temps différents. Néanmoins, les prophéties autoréalisatrices peuvent être remises en question car certaines configurations graphiques étaient déjà visibles avant même l’apparition de l’analyse technique sur les marchés financiers. On peut en conclure que ces configurations graphiques peuvent être indépendantes de l’approche de l’analyse technique. Deux hypothèses émergent de ce constat :  Les prophéties autoréalisatrices soutiennent l’idée sur laquelle l’analyse technique doit son efficacité essentiellement aux biais cognitifs. Néanmoins, ce n’est qu’une composante parmi tant d’autres. La récurrence des comportements vient appuyer ce fait.  L’hypothèse de l’efficience des marchés est aussi remise en cause. En effet, cette théorie nie le fait que l’on peut se baser sur les évènements passés pour établir une prévision sur le futur. Néanmoins, certaines configurations graphiques permettent de constater des phénomènes récurrents et de les prévoir, même si ces comportements ne se reproduisent pas à l’identique sur l’espace temps. L’analyse technique est donc un outil efficace pour les investisseurs car elle permet de comprendre de manière précise les émotions des autres investisseurs. Néanmoins, son utilité peut être faussée car elle ne protège ces investisseurs aguerris de leurs propres erreurs. La réaction du marché En effet, un actif financier peut s’équilibrer voir même chuter face à de bonnes nouvelles. Plusieurs facteurs permettent de mieux comprendre ce phénomène. Cette information a déjà été devancée par les intervenants, et sa mise à disposition ne fait que confirmer ce que les investisseurs connaissaient déjà. Ainsi, elle n’est pas considérée comme suffisamment favorable pour le marché. Cette perception dominante sur le marché est extrêmement baissière et ne suffira pas au retournement du consensus dominant. Elle permettra, dans le meilleur des cas, de causer un rebond de l’actif financier mais la tendance baissière continuera irrémédiablement sa trajectoire. Le marché peut donc progresser 38
    • complètement à l’inverse des nouvelles publiées, mais il peut aussi être dans la même ligne directrice, sans raison apparente. Il est souvent possible d’expliquer un mouvement antérieur, car quelques éléments qui n’étaient pas visible le deviennent. Quelques individus peuvent avoir une information privilégiée. Ces personnes exploitent cette information en vendant ou achetant l’actif financier, amenant un mouvement des cours. Le bouleversement de consensus dominant peut être une autre explication. Il n’est pas inhabituel d’avoir une cascade de nouvelles négatives et de voir malgré tout une continuation du mouvement haussier. Pourquoi cette écart entre le comportement des marchés et la pensée dominante ? Entre les deux, les opérateurs de marché devront systématiquement favoriser le consensus de marché à celui des experts. Il peut aussi exister un consensus dominant qui n’est pas fatalement accentué par des nouvelles publiées. L’opérateur ne doit pas chercher la cause de cet écart mais toujours prendre la température générale du marché. Dans un marché peu liquide, certains investisseurs vont engendrer la rupture d’un support ou d’une résistance, dans l’intention d’avoir un mouvement baissier ou haussier. La raison est seulement stratégique ou technique, et banni toute raison d’ordre fondamentale. L’effet de mode a une conséquence non négligeable sur le cours boursier quoi qu’en disent les partisans de la théorie néo-classique. Par exemple, quelques titres qui offrent de bonne espérance, peuvent être négligés par les opérateurs car ils ne sont pas revendiqués par les analystes et les journaux financiers. Les bulles spéculatives André ORLEANS soutient le principe d’une rationalité autoréférentielle qui selon lui, serait à l’origine de bulles spéculatives rationnelles. En effet, ces bulles peuvent se construire même en présence d’individus complètement rationnels. Les investisseurs iront rationnellement s’appuyer sur la convention dominante pour se positionner sur le marché car ils pensent qu’il est nécessaire de prendre la tendance de marché plutôt que de fonder leur raisonnement à partir de la valeur fondamentale. La présence d’erreurs répétitives est une caractéristique de la nature humaine. Le fameux adage boursier « Laissez courir vos profits et coupez rapidement vos pertes » insiste sur la prévention de ces comportements naturels qui 39
    • dicte la pensée de l’individu et l’induit souvent en erreur. Ainsi, on peut constater que les investisseurs sortent trop tôt de leur position gagnante et attendent longuement avant de mettre fin à leurs positions perdantes. Une bulle spéculative peut se définir comme le fait que les investisseurs sont pris par une euphorie généralisée pour plusieurs raisons économiques et se positionne à l’achat pour soutenir une tendance fortement haussière. En effet, les périodes de bulles boursiers reflètent le comportement mimétique des intervenants de marché ainsi qu’une abondance de liquidité. Dans ce contexte, les banques sont moins restrictives et accordent des prêts plus facilement à des projets auxquelles elle aurait refusé en temps normal. Ces bulles sont facilement identifiables par les outils chartistes et fond l’objet d’une récurrence dans l’espace temps car les marchés financiers sont cycliques. On la considère comme le reflet des comportements irrationnels généralisés des opérateurs de marché. Ce phénomène coïncident avec le constat fait par l’école conventionnaliste et comportementaliste. A la différence, les orthodoxes met en avant que la variation d’un cours bousiers de sa valeur fondamentale serait la cause de l’apparition de ces crises non anticipée. En effet, ces bulles boursières ne devraient pas existé car les arbitragistes sont censés éliminer toute inefficience de marché. Néanmoins, les faits nous montrent que ce phénomène est notamment fréquent et durable et n’ayant aucunes explication fondamentale concrète. L’irrationalité des intervenants de marché peut être la cause principale de la volatilité des cours boursiers. Les leçons à tirer de l’analyse psychologique L’analyse psychologique permet aux intervenants de marché d’établir des règles de conduite qui les amènent à des prises de décisions simples et pertinentes. L’analyse psychologique est un indicateur puissant qui permet de jauger efficacement le sentiment dominant d’un marché. Lors de la publication d’une nouvelle information, qu’elle soit bonne ou mauvaise, l’individu devra attendre et analyser la réaction des autres individus avant de prendre position sur le marché. En toute logique, le cours d’un actif financier tend à s’apprécier lorsque l’information est positive et inversement, il aura tendance à se déprécier lorsque l’information reçue est négative. En cas d’irrégularité du marché, l’individu devra être vigilant et réagir de manière approprié en fonction de la réaction des autres individus face à 40
    • cette situation irrégulière. Il devra donc d’une part, identifier la tendance en cours et d’autre part, analyser le comportement des autres individus post publication de l’information pour effectuer un diagnostique exacte du sentiment de marché. Comportement de marché après une nouvelle négative : annexe 1 Comportement de marché après une nouvelle positive : annexe 2 On en conclu donc que la publication d’une nouvelle information n’est pas un fait important pour l’investisseur, mais au contraire, c’est plutôt la manière dont elle est perçue par l’ensemble des opérateurs de marché qui va être une information capitale sur le dominant ambiant du marché. De ce fait, l’individu va adapter sa position en fonction du dominant ambiant du marché et ne doit surtout pas rechercher une explication à ces fluctuations de marché qui pourraient altérer la justesse de son analyse. En effet, certaines fluctuations boursières importantes sont uniquement dues à un changement du consensus dominant ou tout simplement causées par un effet de panique des investisseurs. Néanmoins, l’analyse psychologique reste limitée car elle ne permet pas de situer précisément ces retournements de tendances. Cette limite est palliée par l’analyse graphique qu’offre l’analyse technique, car elle donne la possibilité de visualiser certains signaux qui permettent à l’investisseur de repérer précisément les points d’entrées et de sorties de ces fluctuations de tendances boursières. Malgré tout, l’analyse psychologique est un moyen non négligeable qui permet de guider l’investisseur des évolutions de comportements de marché. Elle met en avant le fait qu’il existe fréquemment des écarts important entre la valeur boursière d’un titre et de sa valeur fondamentale. Elle explique notamment que les informations publiées qui sont extrêmement positives ou négatives ne sont pas spécialement un fort signal d’achat ou de vente. Les investisseurs expérimentés soulignent le fait qu’il faut raisonner à l’inverse des magazines ou des journaux. En effet, il faut penser à acheter un actif financier lorsqu’il est décrié par les médias et être vendeur lorsqu’ils sont extrêmement optimistes sur la valeur. Ce raisonnement prend tout son sens sur le fait qu’il n’y a plus assez d’investisseurs pour soutenir la hausse de la valeur car l’ensemble des investisseurs sont déjà acheteurs de la valeur. De ce fait, la probabilité de la baisse du titre est plus grande que celle de continué à la hausse. C’est pourquoi, l’individu doit mettre en place une méthode d’analyse personnelle qui lui permettra d’anticiper la réaction du marché face aux différentes publications. Dans le cas où le marché 41
    • réagit contrairement aux publications, l’individu devra alors être sur le qui vive afin de détecter si la convention dominante actuelle n’est pas en train de changer. 1.5 Origine et principes de l’analyse technique Cette méthode est suivie par de nombreux opérateurs. Il est donc crucial de bien la connaitre pour mieux appréhender la rationalité ou l’irrationalité des autres intervenants de marché. Les professionnels de marché, loin d’être eux-mêmes naïfs, l’utilisent et la recommandent. Même en supposant que l’analyse technique soit une approche peu fondée scientifiquement, et dont l’efficacité s’expliquerait essentiellement par les croyances des opérateurs, cela ne suffirait pas à la discréditer. Les phénomènes des prophéties autoréalisatrices montrent que même en présence d’un modèle faux, il suffit que les gens y croient pour qu’il fonctionne. L’analyse technique n’est pas une méthode infaillible. Elle permet simplement d’analyser la psychologie des intervenants et de définir les stratégies appropriées à mettre en œuvre. L’analyse technique est une méthode pragmatique comme une boite à outils qui se focalise essentiellement sur la psychologie des opérateurs. Elle sert surtout de baromètre de marché et permet de détecter les mouvements excessifs des foules. Il s’agit simplement d’un outil d’analyse efficace des mouvements de marché. Les protagonistes de l’analyse technique Munehisa HOMMA L’analyse technique est une ancienne méthode introduite en Orient par Munehisa HOMMA, père des bougies japonaises. Grand trader du XVIIIème siècle, il aurait accumulé une richesse en spéculant sur les prix du riz. D’après la légende, HOMMA aurait engorgé plus de 100 transactions successives gagnantes. Ce personnage à l’origine des bougies japonaises définit cette méthode comme étant la représentation d’une somme de figures qui indiqueraient, de façon très visuelle, la durée du consensus dominant, les périodes de doutes ainsi que d’indécision. Elles peuvent aussi servir à déceler les phases de retournements. En 42
    • 1980 Steve NISON, ancien analyste technique chez Merrill Lynch, importe le concept de l’analyse technique en Occident. Charles DOW Charles DOW est l’un des précurseurs de l’analyse technique en Occident. Il considère que les marchés financiers sont capables de prévoir l’ensemble des données économiques avec une certaine longueur d’avance. Dès lors, l’analyse technique sert de baromètre à l’ensemble des intervenants de marché. En effet, elle permet donc à ces derniers d’identifier clairement l’état de santé d’une économie et d’en déterminer son évolution future. De plus, DOW fut l’un des premiers individus à identifier les mouvements de délits d’initiés à l’aide des indicateurs graphiques. Ralph Nelson ELLIOT ELLIOT est l’inventeur du célèbre indicateur graphique, les vagues d’ELLIOT. En effet, après avoir étudié en profondeur les cours boursiers, il constate de nombreux points communs entre les tendances boursières et le mouvement des vagues des océans. La théorie des vagues d’ELLIOT met en évidence le fait que les fluctuations de marchés suivent une certaine logique et respectent de ce fait, une loi universelle. En effet, il fait le rapprochement entre la cyclicité des marchés financier et le nombre d’or de FIBONACCI et en déduit qu’il existe une harmonie similaire dans les tendances boursières. Cette approche a permis de développer plusieurs indicateurs graphiques qui permettent d’identifier les zones de retracements des prix d’un actif financier lors des fluctuations boursières ainsi qu’en déterminer leurs objectif de prix. Richard W. SCHABAKER SCHABACKER est l’un des premiers à avoir mis en avant le swing trading, méthode qui consiste à acheter ou vendre un actif financier uniquement en se référant de l’analyse du cours et de ces oscillations. Cette approche a permis de comprendre les différentes phases des tendances boursières en partant du constat que l‘évolution des cours boursiers ne s’effectue 43
    • jamais de façon linéaire. En effet, une forte hausse ou une forte baisse ne peut durer éternellement et est fréquemment interrompue par des phases correctives. SCHABACKER étudie en profondeur les oscillations des cours et constate que les meilleures opportunités de marché sont celles correspondant à l’identification des points d’entrée sur le marché les moins risqués qui suivent la trajectoire de la tendance dominante. J. Welles WILDER WILDER est l’un des premiers à avoir développé et incorporé des méthodes mathématiques dans l’analyse technique. En effet, à partir des mathématiques, il a su développé ainsi de redoutables indicateurs graphiques qui sont aujourd’hui utilisés par l’ensemble de la communauté financière. En reprenant certaines théories physiciennes, il met ainsi en évidence le fait qu’une tendance qu’elle soit haussière ou baissière s’essouffle au fur met à mesure de sa progression avant d’attendre son sommet en phase haussière ou le creux en phase baissière. De ce fait, il émane que les fluctuations boursières peuvent être anticipées par de puissants indicateurs graphiques dont leur efficacité réside sur la manière de prendre la température du marché et de déterminer ainsi si la tendance en cours est saine ou est en train de s’essouffler. Cette approche va apporter une réelle information sur le marché ambiant et va permettre à l’analyse technique de s’émanciper à grande échelle dans le monde financier grâce à la réelle efficacité de ces indicateurs techniques. Les principes de l’analyse technique L’analyse technique est une boite à outils pour laquelle l’ensemble des configurations techniques représentés par les graphiques se reportent essentiellement à la dimension psychologique des intervenants de marché ainsi qu’à plusieurs principes fondamentaux. John MURPHY dans son ouvrage, « L’analyse technique dans les marchés financier » paru le premier janvier 2004, parle des différents fondements de l’analyse technique. D’après son étude, il en dégage certains principes primordiaux qui sont très parlant :  L’analyse technique se base sur les faits et non sur ce qu’il parait ou aurait du paraitre. Cette méthode se réfère essentiellement au marché et non sur les phénomènes 44
    • exogènes qu’il l’influence ou qu’ils peuvent l’influencer. En effet, cette approche étudie les fluctuations boursières et non les raisons de ces fluctuations.  L’analyse technique étudie clairement la psychologie des intervenants de marché et ne se réfère à aucunes sources d’ordre fondamental. De ce fait, ce n’est pas la publication d’une information qui va être étudiée mais au contraire la réaction des intervenants de marché face à cette dernière.  L’analyse technique contredit la théorie des néo-classique sur le fait qu’il existe bien des variations de cours qui peuvent durer plus ou moins longtemps entre la valeur boursière et la valeur fondamentale.  L’analyse technique estime que la valeur boursière d’un actif financier dépend essentiellement de la loi de l’offre et la demande. En effet, la valeur boursière se définit par la rencontre entre la force acheteuse de l’actif et de la force vendeuse. Néanmoins la valeur boursière n’est pas à l’abri de certains facteurs irrationnels qui émanent la loi de l’offre et e la demande. En résumé, l’analyse technique permet de comprendre comment se comporte le marché. On peut dire ainsi que le marché regroupe l’ensemble de ces comportements que l’on vient de citer ainsi que, de la différence d’interprétation des intervenants de marché. L’analyse fondamentale est un déterminant du prix d’un actif financier parmi d’autres facteurs et ne peut expliquer à elle seule la variation de prix et ce dans une durée plus ou moins longue. L’analyse technique détermine des tendances boursières qui peuvent fluctuer à la hausse et à la baisse et ce qu’en raison d’un changement de consensus dominant de marché provoqué par le rapport de force acheteurs versus vendeurs. Les outils graphiques de l’analyse technique permettent d’identifier clairement les tendances boursières. La cyclicité du marché financier peut être assimilée aux comportements de la nature humaine. De ce fait, il n’est rare de retrouver certains comportements qui se répètent sur des espaces temps différents car les émotions humaines sont immuables. Il n’est pas vain de noter que certains comportements d’euphorie sont suivis par des comportements de panique. En outre, l’analyse technique se concentre sur les émotions des intervenants de marché et essaye de capter la réaction de ces derniers face aux publications officielles et ou officieuse. 45
    • Loi de l’offre et de la demande En reprenant la fameuse citation de Napoléon BONAPARTE, « Un schéma vaut mieux qu’un long discours », on peut dire que les outils graphiques de l’analyse technique sont la clé de réussite de cette dernière qui trouve, dans ces représentations, toute la crédibilité qu’on lui doit. Ces graphes prennent sources grâce à l’historisation dans le temps de la rencontre entre acheteurs et vendeurs, qui sont pour l’analyse technique, la source de base des fluctuations boursières. En effet, si le cours d’un actif financier progresse à la hausse, on dira que se sont les acheteurs qui ont pris le dessus face aux vendeurs. Inversement, si le cours évolue à la baisse, on dira que se sont les vendeurs qui sont supérieurs aux acheteurs. L’analyse technique et l’analyse fondamentale convergent dans le même sens. Néanmoins, leurs points de vue divergent quand à la détermination du cours boursier. Pour les fondamentalistes, les opérateurs de marché sont rationnels et par ce fait, se positionne sur le marché uniquement à partir de la valeur fondamentale de l’actif financier. A la différence, les défenseurs de l’analyse technique ne réfutent pas la notion de la valeur fondamentale en soi mais explique qu’il peut exister un décalage plus ou moins important du cours avant que le prix converge vers sa valeur fondamentale. L’analyse technique se concentre essentiellement sur le rapport de force qui se réfère à la loi de l’offre et de la demande et essaye d’en capter ces variations. On peut très bien dire que l’analyse technique cherche simplement à savoir qui des haussiers ou des baissiers va rempoter le rapport de force. L’analyse technique trouve sa crédibilité aussi par l’appuie de la théorie des conventions. En effet, cette dernière démontre qu’il n’en n’est rien irrationnel d’incorporer dans son diagnostique des facteurs qui n’ont aucun lien avec l’analyse fondamentale. Pour eux, les cours évoluent selon des tendances, dont la durée peut être courte ou très longue et ceux, en raison de l’existence d’une convention. Le changement de tendance peut s’expliquer de deux façons :  Une convention peut être amenée à disparaitre si la communauté financière ne la soutienne plus.  L’effet de massue qui porte bien son nom. En effet, lorsqu’un actif financier est soutenu par l’ensemble des intervenants de marché, il n’y a plus de force pour maintenir la 46
    • tendance haussière et de ce fait, la moindre publication négative déclenchera une vente massive de l’actif financier et ceux, à cause de la panique des intervenants de marché. Les fluctuations boursières peuvent être donc anticipées du fait que les intervenants de marché commentent systématiquement les mêmes erreurs et par conséquent, réagissent de manière irrationnelle contre leur gré. La finance comportementale appuie les hypothèses de l’analyse technique Pour les partisans de l’analyse technique, la fiabilité des configurations graphiques est déterminée par l’existence de comportements récurrents des intervenants de marché. Ces comportements sont déterminés par l’approche comportementaliste de manière plus approfondie. Les tenants de l’analyse comportementaliste confirment l’existence de biais psychologique et contredisent ainsi l’hypothèse de rationalité des intervenants de marché revendiqué par les néo-classiques. En effet, les biais psychologiques influencent l’individu à tel point que ces biais lui sont difficiles à maitriser. L’analyse comportementale converge dans le même sens que l’analyse technique, sur la possibilité d’un comportement irrationnelle d’un individu, pour lequel les biais psychologiques ont un impact sur ce dernier. Les biais cognitifs donnent une explication cohérente sur le comportement volatil des marchés. Ce n’est pas étonnant de constater que certain opérateurs de marché, ayant une méthode d’analyse béton, ne gagnent pas forcément à tout les coups. C’est pourquoi les analystes techniques s’intéressent principalement à la dimension psychologique des intervenants de marché. D’après eux, l’analyse technique est une méthode efficace en raison de la présence de comportements récurrents sur les marchés financiers. Son efficacité résiderait donc au niveau de la psychologie des intervenants de marché pour laquelle les configurations graphiques sont en mesure d’identifier clairement la récurrence des comportements de ces opérateurs. Il va s’en dire, qu’il existe bien un lien entre l’analyse technique et l’analyse comportementale. 47
    • II – 2 Les forces et faiblesses de l’analyse technique dans la détermination des tendances. 2.1 Les forces de l’analyse technique Il est difficile pour de nombreux intervenants institutionnels d’admettre l’usage de l’analyse technique, car ils redoutent qu’on leur reproche un comportement peu professionnel. Cependant, nous estimons qu’il s’agit surement de la méthode la plus compétente pour étudier les marchés financiers et pour définir les tendances boursières. L’analyse fondamentale participe à une valorisation des actifs financiers, toutefois elle néglige totalement l’aspect psychologique de la variation des cours boursières. L’analyse technique est un instrument indispensable. Cette technique essaye d’appréhender la psychologie dominante d’un marché à l’instant t, et se veut cohérente. L’analyse technique est pragmatique et censé aux yeux des conventionnistes, d’après lesquels, les intervenants de marché vont se décider en priorité par rapport au consensus dominant. De plus, les intervenants de marché estiment que l’élément essentiel sur les marchés financiers, est de toute évidence, la dimension psychologique collective et individuelle. Les supports et les résistances Les support et résistances sont des signaux issus de l’analyse graphique. Les supports peuvent être définis par le fait où les acheteurs veulent renverser la tendance baissière et les résistances, par le fait où les vendeurs veulent renverser la tendance haussière. A l’aide de ces signaux, il devient ainsi possible d’anticiper les variations de cours d’un actif financier à court terme. Dès lors, il devient possible d’émettre des prévisions à court terme sur des divergences de tendances boursières grâce à la présence de ces signaux récurrents. Les supports et résistances sont des niveaux où les rapports de forces entre acheteurs et vendeurs montent en puissance et le vainqueur entrainera un fort retournement de marché. Lorsqu’il ya cassure d’un support ou d’une résistance on qualifie ce terme de breakout. Cet outil permet donc à l’analyse technique de dire qu’il existe des phénomènes récurrents à court terme pour lesquels, elle est en mesure de les identifier et de les anticiper. 48
    • L’analyse technique permet donc de prévoir à court terme certain comportements récurrents qui explique le décalage d’un actif financier de sa valeur fondamentale. Néanmoins, cette dernière reprend son droit à long terme. Les principaux facteurs de l’efficacité de l’analyse technique Plusieurs éléments permettent de comprendre la réussite et la robustesse de l’analyse technique, en voici les principales raisons :  La récurrence des comportements de chaque individu pourrait être aperçue sur les graphiques boursiers et caractériserait ainsi l’élément qui exprime l’efficacité de cette technique.  L’analyse technique ne devrait son efficacité qu’en ayant recours à la théorie des phénomènes des prophéties autoréalisatrices.  Son efficacité serait liée à une combinaison de ces deux composantes. L’hypothèse des prophéties autoréalisatrices supposent un suivi primordial de l’analyse technique de certains investisseurs. Alors, l’efficacité de l’analyse technique se définie par cette effet moutonnier des intervenants. Le biais d’ancrage, mise en avant par la finance comportementale, apporte aussi une réponse venant améliorer l’hypothèse des prophéties autoréalisatrices. Les limites de la théorie de l’efficience des marchés D’après plusieurs études menées en laboratoires, il se pourrait que la théorie de l’efficience des marchés financiers ne soit pas fondée et qu’elle néglige l’aspect comportemental des individus. Il en ressort que lors d’une expérience en laboratoire, des individus radicalement rationnels, peuvent agir de manière irrationnelle même en ayant reçu que des informations d’ordre fondamental sur la valeur de l’actif financier étudié. Dans la logique fondamentaliste, le cours bousier ne doit pas dévier de sa valeur fondamentale. Néanmoins, l’étude démontre que les individus vont vouloir obtenir l’actif à tout prix et par conséquent, faire monter le prix de l’actif financier jusqu’à provoquer une bulle spéculative boursière. Fort de constater un prix excessivement surévalué, les individus vont vouloir se débarrasser de la valeur et vont provoquer un effet de massue que l’on peut assimiler à un 49
    • krach boursier. On constate donc grâce à cette expérience, que même des individus ayant les mêmes informations d’ordre fondamental, peuvent tout de même être à l’origine de bulles spéculatives boursières et de krach boursier. Cette étude démontre que la psychologie des individus joue un rôle important dans la formation des cours boursiers et que l’on peut remettre en cause la théorie de l’efficience des marchés mise en avant par les fondamentalistes. Cette expérience est un argument qui vient renforcer l’approche de l’analyse technique sur le fait, que le plus important, dans la détermination de cours d’un actif financier, n’est pas de connaitre la valeur fondamentale mais au contraire de savoir comment les autres opérateurs de marché la perçoivent comme vraie. Le comportement récurrent des opérateurs de marché explique en partie l’efficacité de l’analyse technique. Elle se base sur le fait qu’il existe des biais psychologiques pour lesquels, elle est capable d’illustrés graphiquement la récurrence de certain comportement. La dimension psychologique des opérateurs de marché se trouve comme figée quelque soit l’espace temps et le type de marché. On peut dire ainsi que les fluctuations boursières trouvent en partie leur explication à cause des émotions des opérateurs de marché pour lesquelles, ils lui sont difficilement maitrisables. L’analyse technique sert ainsi d’un outil de travail pour les intervenants de marché pour qu’ils puissent mettre en place une stratégie de positionnement sur le marché fiable et efficace. L’existence de tendances boursières est appuyée par les conventionnistes. L’école des conventions explique pourquoi certain intervenants de marché prennent des positions d’achat ou de vente alors même que le cours d’un actif financier est sous évalué ou sur évalué. Un individu rationnel ne devrait pas en temps normal se positionner aux alentours de ces niveaux par contre d’après les conventionnistes, il est certainement rationnel de prendre position quand on est quasiment certain que les autres opérateurs de marché vont prendre la même position sur un actif financier. De ce fait, l’individu va émettre sa prévision en se basant sur le consensus dominant et exclu de son raisonnement à court terme, toute valeur fondamentale. Cette approche converge dans le même sens que celle apportée par l’analyse technique sur le fait qu’il existe des tendances boursières sur les marchés financiers et dont la durée peut être plus ou moins longue et pour lesquelles, elles ne sont pas forcément expliquées par la seule analyse fondamentale. De plus, l’analyse technique ne tient pas compte de la valeur fondamentale d’un actif financier car elle émet l’hypothèse que toute 50
    • l’information disponible à un instant t doits se retrouver sur le cours de l’actif financier en question. Cependant, l’existence de comportement récurrent sur les marchés financier serait essentiellement due à des comportements humains qui se répètent au cours du temps. L’analyse technique est donc un outil d’analyse cohérent et fiable qui se base sur des phénomènes récurrents pour lesquelles l’analyse comportementale et la théorie des conventions confirment ses principes de bases. 2.2 Les faiblesses de l’analyse technique L’utilisation de l’analyse technique peut varier d’un individu à un autre L’analyse technique est utilisée comme un outil permettant à ses utilisateurs de prévoir les moments où un actif financier va s’écarter sans aucune raison de sa valeur fondamentale. C’est pourquoi, les analystes financiers sont toujours sur le qui vive pour appréhender ces décalages. L’ensemble des utilisateurs de l’analyse technique sont sur le même piédestal en matière d’information en partant de l’hypothèse que toute l’information est comprise dans le cours. En effet, ces derniers utilisent les graphiques qui reprennent l’historique des cours d’un actif financier et donc la performance de chaque intervenant de marché résiderait sur l’utilisation de cet outil dont les performances peuvent variées d’un individu à l’autre. C’est pourquoi le fait de disposer de la même information par l’ensemble des individus ne les protège en rien d’une différence d’interprétation de chacun d’entre eux. Cette dimension psychologique renforce encore plus l’analyse technique dans son raisonnement et l’efficacité de sa méthode d’analyse mais elle ne protège en rien ses utilisateurs de leurs propres erreurs de discernement. L’analyse technique a-t-elle des bases théoriques solides ? L’analyse technique peut être remise en cause par le fait qu’elle serait peut être à l’origine des décalages de cours d’un actif financier par rapport à sa valeur fondamentale. Pour se faire, l’analyse comportementaliste a mis en évidence trois types d’opérateurs de marché qui pourraient en être la cause : 51
    •  Les opérateurs incrédules, qui utilisent des méthodes d’analyse peu pertinentes, sont submergés par leurs biais psychologiques.  Les opérateurs de marché qui établissent uniquement leur raisonnement qu’à partir de données fondamentales en vendant des actifs surévalués et achetant des actifs sousévalués.  Les opérateurs de marché peu scrupuleux qui utilisent la faiblesse des individus naïfs ou novices afin de prendre profit de leurs lacunes en manipulant le cours d’un actif financier en fonction de leur stratégie. D’après l’analyse comportementale, les utilisateurs de l’analyse technique sont des individus naïfs qui se basent essentiellement sur des croyances et non sur un modèle mathématique fiable. De ce fait, ces individus favorisent ainsi donc le développement de la volatilité sur les marchés financiers car ils obstruent toutes opportunités d’arbitrages qui corrigeraient de toute évidence les imperfections de marché. L’analyse technique serait donc remise en cause par le comportement de ses utilisateurs. Une méthode très critiquée Le monde académique porte une approche critique sur l’analyse technique. En effet, l’analyse technique serait la cause de comportements irrationnels des intervenants de marché. On peut évoquer ainsi le phénomène de joueur de casino que l’on peut qualifier également d’overtrading ou de suractivité spéculative. Ce phénomène se traduit par le comportement d’un individu qui fait face à ces émotions lorsqu’il tente de récupérer le capital investit après avoir subit une succession de pertes lors de ces prises de positions sur le marché. Dès lors, il va essayer de rattraper ses pertes en prenant des positions risquées et ceux jusqu'à perdre tout son investissement. Malgré tout, cet argument ne permet pas de remettre en question l’efficacité de l’analyse technique. En effet, l’individu qui se base sur la valeur fondamentale peu connaitre la même désillusion, en utilisant la méthode fondamentale qui consiste à acheter un actif lors de publication positive et de vendre un actif post publication négative. Pour la théorie de l’efficience des marchés, certaines irrégularités de marché peuvent apparaitre à court terme mais ces irrégularités ne sont qu’éphémères par l’intervention des arbitragistes qui vont corriger ce phénomène. Néanmoins, avec les nouvelles juridictions sur les marchés financiers, la concurrence est de plus en plus rude et ces opportunités d’arbitrage 52
    • sont de moins en moins présentes. De plus, l’utilisation massive de l’analyse technique réduirait également ces opportunités d’arbitrage et provoquerait même des faux signaux par le fait que certains utilisateurs aguerris profiteraient de la naïveté de certains utilisateurs de l’analyse technique, pour se focaliser uniquement sur leur manque d’expérience. Une efficacité menacée L’efficacité de l’analyse technique serait essentiellement due à la présence de prophéties autoréalisatrices. En effet, l’utilisation massive de l’analyse technique par la communauté financière due en partie à la modernisation des outils informatiques, peut être à l’origine d’une perte d’efficacité de cette boite à outils. Pour les néo classiques, certaines poches d’inefficiences peuvent perdurer à court terme mais seront rapidement corrigées par les intervenants de marché. Ainsi, l’utilisation massive de l’analyse technique peut conduire à sa perte. En effet, cet effet de masse va restreindre les opportunités existantes voire les estomper et son utilité de base sera rejetée par ces détracteurs par ce manque d’opportunité qu’il était facilement repérable à l’aide des configurations graphiques. Il est important de noter que la concurrence actuelle sur le marché est de plus en plus forte et de part ce fait, il devient compliquer d’avoir un temps d’avance sur les autres opérateurs de marché surtout s’il on se base sur des représentations graphiques connues de tous. L’approche de la théorie de l’efficience des marchés met en évidence que l’utilisation de masse de l’analyse technique n’est pas un avantage sur le long terme pour les opérateurs de marché qu’il l’utilise. La spéculation se défini par le fait de prévoir une fluctuation de la tendance du marchés avant les autres intervenants de marché. Dans le cas où l’ensemble des intervenants de marché se positionnent tous au même moment pour acquérir un actif financier, l’évolution attendue de cet actif sera en contradiction avec ces derniers par le simple fait qu’il n’y plus assez de force pour accompagner le cours de l’actif en question vers le haut. De ce fait, la cassure d’un support ou d’une résistance par quelques opérateurs de marché entraine des retournements violents de tendance. Il n‘est pas rare de constater sur les marchés financiers actuels, la présence de plus en plus de faux signaux qui induisent, la plupart des utilisateurs de l’analyse technique, en erreur. Le problème provient du fait que certains opérateurs de marché se focalisent essentiellement sur les émotions des autres opérateurs afin de profiter de leurs faiblesses. De ce fait, ils provoquent la cassure d’un support ou d’une résistance uniquement pour profiter de la panique des autres opérateurs sur ces niveaux psychologiques. 53
    • L’analyse technique est-elle en perte d’efficacité aujourd’hui ? On constate de plus en plus la présence de faux signaux sur les marchés financiers actuels en raison d’une utilisation généralisée de l’analyse technique. Les modifications d’ordre structurel des marchés financiers semblent avoir porté atteinte à l’efficacité de l’analyse technique. Les intervenants de marchés avertis ont su s’adapter à ces modifications en mettant en place des outils d’analyse plus approfondie et plus complets. La popularité de l’analyse technique devient son tendon d’Achille. En effet, l’utilisation massive de l’analyse technique par l’ensemble des intervenants de marché qui utilisent cette méthode, va engendrer une bataille sur la prise de position sur le marché autour des meilleurs niveaux d’entrée. D’autant plus, que certains intervenants de marché vont utiliser ce constat à profit en provoquant de faux signaux techniques. Ces faux signaux techniques peuvent être interpréter par des gaps haussier ou baissier lors de la séance d’ouverture du marché qui sont en phase avec les signaux acheteurs ou vendeurs sur les configurations graphiques avant qu’un retournement violent de marché se produise. Les modifications d’ordre structurel des marchés financiers actuel peuvent être une des raisons de la baisse de la volatilité des marchés. Cette baisse de volatilité peut être aussi interprétée comme étant l’un des facteurs de perte d’efficacité de l’analyse technique. En effet, les marché évoluent de la même façon que les prix fluctuent. Ainsi, nous pouvons mettre en évidence plusieurs raisons qui peuvent expliquer la baisse de l’efficacité de l’analyse technique à nos jours :  L’accès à l’information est de moins en moins couteuse en partie en présence de la concurrence et de la modernisation des outils informatiques.  L’accès à un logiciel d’analyse technique s’est de plus en plus démocratisé et est rendu accessible par tous. De plus, certaines entreprises proposent des prestations à titre gracieux comme ProRealTime ainsi que des accès à un flux en temps réel à des prix très compétitif voire même gratuit. Chose qui était inimaginable à la fin du XXème siècle.  La baisse des frais de courtages ont permis la multiplication des prises de position des intervenants de marché. Le nombre importants d’intervenants de marché et de leurs transactions influencent les marchés et sont à l’origine de l’extinction des poches d’inefficiences à court terme. Certaines configurations graphiques qui étaient efficaces par le passé ne le sont plus aujourd’hui. 54
    •  Le développement grandissant de l’internet et de son accès à haut débit ont permis d’avoir un accès rapide de l’information et ceux, dans les quatre coins du monde. En effet, les informations sont disponibles pratiquement au même moment pour les opérateurs de marché dans les salles de marché que pour le simple particulier qui se trouve derrière son ordinateur personnel. Chose inimaginable par le passée avant l’émergence de ces nouvelles technologies. L’efficacité de l’analyse technique semble avoir perdu de sa pertinence au début du XXIème siècle. En effet, les outils de suivi de tendance de l’analyse technique semblaient efficaces en vue d’un retour à l’équilibre du prix d’un actif financier vers sa valeur fondamentale de façon plus ou moins lente. En effet, les tendances se justifiaient en raison des différents risques assujettis aux arbitragistes. Ainsi, les nouvelles technologies ont permis l’émergence d’un accès plus rapide à l’information et de l’utilisation généralisée des outils de l’analyse technique par l’ensemble des intervenants de marché. L’avantage qu’avaient les professionnels de la finance de marché semble être révolu par l’émergence de nouveaux intervenants de marché, les particuliers, qui peuvent utiliser les mêmes outils qu’eux. On peut donc en déduire que le changement d’ordre structurel des marchés financiers est la principale cause de la baisse de l’efficacité de l’analyse technique. Il aurait ainsi deux impacts sur le marché :  La baisse de la volatilité pendant les séances de marché.  Des variations de prix violents après la clôture des marchés représentées par la présence de gaps haussiers ou baissiers. On peut en conclure que les marchés financiers sont d’autant plus chaotiques qu’auparavant et la durer d’une tendance boursière est de plus en plus courte. L’analyse technique doit faire face à de plus en plus de faux signaux dont son efficacité d’analyse se retrouve fortement impactée et donc diminuée. 55
    • Les prophéties autoréalisatrices Le phénomène des faux signaux à court terme devient de plus en plus fréquent de part leur multiplication sur le marché. Les changements technologiques en sont la première cause. La théorie de l’efficience de marché reprend son droit, dès lors que la volatilité du marché est extrêmement faible et dont les poches d inefficience sont rapidement évincées par les professionnels avertis. Le phénomène des prophéties autoréalisatrices ne permet pas de valider l’efficacité de l’analyse technique à long terme. Néanmoins, certaines configurations graphiques telles que les bougies japonaises, les supports et les résistances, permettent de mettre en évidence des signaux pour lesquels ils sont bien plus utiles d’analyser et de les utiliser à long terme qu’à court terme. L’analyse technique parait être plus pertinente à long terme alors qu’elle n’est pas utilisée pour, lors des prises de décisions. En effet, elle est plus utilisée à court terme car le phénomène des prophéties autoréalisatrices converge sur le même espace temps. Cette approche peut être remise en cause car les faux signaux sont bien plus présent à court terme qu’à long terme et réfute ainsi la théorie des prophéties autoréalisatrices sur le fait qu’une méthode marche lorsqu’elle est suivie par la majorité des individus. Pour que la théorie des prophéties autoréalisatrices soit valable, il serait nécessaire que la majorité des intervenants de marché utilise l’analyse technique. Les différentes études démontrent une réelle efficacité de l’analyse technique à court terme mais les prévisions de cette dernière ne sont pas justifiées à long terme. Par contre, si des études arrivent à prouver l’efficacité de l’analyse technique à long terme, alors on peut réfuter la théorie des prophéties autoréalisatrices et dire que l’analyse technique est un outil indispensable pour un intervenant de marché, dans la détection précise de la psychologie de l’ensemble des intervenants de marché. De ce fait, l’analyse technique retrouverait ainsi toute sa crédibilité et solidité, par l’existence de comportements récurrents des opérateurs de marché qui permettent ainsi la présence de certaines poches d’inefficience à exploiter. Les prophéties auto réalisatrices peuvent en partie expliquer le succès de l’analyse technique, mais ce succès grandissant devrait provoquer son échec à terme car les anomalies de marché existantes seront éliminées par la concurrence. Les tests utilisés pour critiquer l’analyse technique sont naïfs, ce qui est assez étonnant pour une approche de la théorie de l’efficience des marchés qui considère l’analyse technique comme un modèle naïf. La critique se focalise sur la méthode mais pas sur la personne et néglige la dimension psychologique. En effet, elle ne permet pas d’expliquer pourquoi certaines personnes gagnent régulièrement en 56
    • utilisant l’analyse technique alors que d’autres personnes perdent en ayant recours aux mêmes techniques. La maitrise de l’analyse technique semble insuffisante pour gagner, car l’investisseur doit également jouer les probabilités et maitriser sa psychologie. Néanmoins, les marchés ne sont pas efficients car les individus ne sont pas rationnels et provoquent des décalages par rapport à la valeur fondamentale. La théorie de l’efficience semble impuissante pour expliquer les tendances que l’on retrouve fréquemment sur les marchés ainsi que certaines configurations récurrentes sur lesquelles l’investisseur peut capitaliser. Elle néglige également la dimension humaine en posant une hypothèse discutable selon laquelle tous les individus seraient parfaitement rationnels. De plus, la concurrence est de plus en plus rude sur les marchés et les anomalies de marché de plus en plus rares. Paradoxalement, malgré cette forte concurrence, les tendances existent toujours sur les marchés, ainsi que la présence de certaines figures graphiques. Les phases de consolidation sont plus complexes et les opérateurs qui ne gèrent pas strictement le risque (stop-loss sous un support ou sur une résistance) peuvent se faire sortir d’une position, alors même qu’ils avaient bien anticipé le mouvement du sous-jacent. Deux composantes jouent un rôle déterminant : les biais psychologiques récurrents des investisseurs et les prophéties auto réalisatrices. Néanmoins, il reste des phénomènes inexpliqués. La nature humaine est immuable. Les émotions ont toujours existé et existeront toujours. Elles influencent de manière déterminante les cours boursiers, ce qui explique l’existence de configurations graphiques récurrentes. 57
    • CONCLUSION La prédiction d’une tendance est capitale dans le cadre des marchés actions. Les acteurs financiers agissant sur ces marchés, bien qu’ils aient des attentes distinctes les uns des autres, espèrent l’appréciation ou la dépréciation d’un titre financier. Qu’ils interviennent pour parier à la hausse ou à la baisse une action, pour valoriser un titre ou encore pour comprendre l’évolution des marchés actions, ils cherchent tous à répondre à une même question. Même si leurs raisons varient, tous, ont comme objectif la détermination d’une tendance, qu’elle soit haussière, baissière ou encore neutre. L’identification d’une tendance boursière est un élément incontournable que chacun prend en considération et cherche à déterminer. Les deux analyses, fondamentales et techniques, ont apporté leurs visions, leurs éléments pour répondre à la question ainsi posée jour après jour par tous les intervenants des marchés actions sans exception : dans quelle tendance s’inscrit telle ou telle action cotée en Bourse ? Les fondements de l’analyse fondamentale divergent de ceux de l’analyse technique en de nombreux points. L’approche fondamentale s’impose tout d’abord comme absolument différente de celle de l’analyse technique en ce qu’elle va chercher à identifier la valeur intrinsèque de l’action évaluée et la comparer à sa valeur cotée. Une tendance haussière correspond à une sous-évaluation de l’action évaluée qui va in fine se rapprocher de sa valeur intrinsèque. L’évaluation initiale de la valeur intrinsèque s’initie dans l’économie dans laquelle se situe l’entreprise cotée. L’analyse fondamentale détermine la valeur réelle d’une action comme la jonction d’éléments économiques distincts, d’une part macro-économique et d’autre part micro économique. L’analyse technique explique les tendances de marché comme des variations dus principalement à des effets psychologiques, tant rationnels qu’irrationnels. Elle explique les variations de cours par des mécanismes psychologiques, basés sur la nature humaine. On peut reconnaître à l’analyse fondamentale deux grandes forces. L’analyse fondamentale va inscrire l’action dans une tendance générale, large avec une précision reconnue dans le monde professionnel. Deuxièmement, elle va expliquer les raisons de ces tendances en se basant sur des éléments réels. On peut également reconnaître à l’analyse technique deux grandes forces. Premièrement, l’analyse technique va inscrire l’action dans une tendance, et conforter la 58
    • tendance indiquée par l’analyse fondamentale, mais sans pouvoir donner d’explication réelle sur cette tendance. Deuxièmement, l’analyse technique va permettre d’indiquer une tendance sur de petites amplitudes, là où l’analyse fondamentale, elle, ne saura se prononcer car elle ne dispose pas d’éléments suffisamment fiable et précis. Les deux analyses vont ainsi se compenser : la faiblesse principale de l’analyse technique est de ne pas savoir donner d’explication sur l’origine réelle d’une tendance, elle ne fait qu’appliquer des préceptes. L’analyse fondamentale va elle venir compenser cette faiblesse en apportant des faits, des explications. Mais cette dernière ne saura se prononcer sur des tendances trop courtes ou d’amplitudes trop faibles ; l’analyse technique viendra ici soutenir sa sœur et combler sa faiblesse. Il n’est ainsi pas nécessaire d’opposer systématiquement l’analyse fondamentale et l’analyse technique, et ainsi perpétuer une guerre ancestrale. L’approche des deux analyses devrait être vue comme complémentaire, car c’est dans cette complémentarité que naît une meilleure justesse de l’analyse. 59
    • FICHES DE LECTURE Recherches sur la nature et les causes de la richesse des nations, Tome 1, Adam Smith. Œuvre considérée comme texte inaugural de l’économie politique elle met en avant des concepts économiques aujourd’hui encore valables et qui forment une des bases indirectes de l’analyse fondamentale. La crise économique de 1929 – Anatomie d’une catastrophe financière, John Kenneth Galbraith De par son ouvrage, Kenneth Galbraith décrypte la crise économique de 1929 qui marqua la finance. Sa description des évènements, réalisée dans les années suivant la crise, offre une vision large des causes et conséquences, qui, une fois confronté aux connaissances actuelles, met en avant des bases de l’analyse fondamentale. Economics, CFA level 1 Curriculum. Ouvrage décrivant et expliquant les concepts de la microéconomie, de la macroéconomie et des échanges internationaux. Bien que très accès mathématiques, il offre une vision claire des mécanismes économiques sur lesquels se base l’analyse fondamentale. Equity and Fixed Income, CFA level 1 Curriculum. Ouvrage présentant des concepts de l’évaluation d’entreprises, que ce soit pour la partie fonds propres que la partie dettes. KAHNEMAN et TVERSKY en 1979 sur la théorie des perspectives aléatoires : http://www.academia.edu/2576027/La_theorie_de_la_perspective_de_Kahneman_et_Tversky _Prospect_Theory_1979_ La théorie de l’utilité espérée de NEUMANN et MORGENSTERN : http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_la_d%C3%A9cision La théorie néo-classique : http://fr.wikipedia.org/wiki/%C3%89cole_n%C3%A9oclassique 60
    • Concours de beauté KEYNES : http://fr.wikipedia.org/wiki/Concours_de_beaut%C3%A9_de_Keynes André ORLEANS : http://mondesensibleetsciencessociales.e-monsite.com/pages/notes-de-lecture/notes-delecture-en-economie/andre-orlean-le-pouvoir-de-la-finance-ed-odile-jacob-1999.html Minehisa HOMMA http://www.traders-forex.fr/munehisa-homma.php Charles DOW http://www.trading-school.eu/glossaire-bourse/fiche-Principes-de-la-Theorie-de-DOW-69 Ralph Nelson ELLIOT http://www.edubourse.com/guide-bourse/vagues-d-elliott.php William Delbert GANN http://www.traders-forex.fr/William-Delbert-Gann.php Nombre d’or FIBONACCI http://www.futura-sciences.com/fr/doc/t/mathematiques/d/larithmetique-et-lesplantes_63/c3/221/p3/ Richard W. SCHABAKER http://www.boursetrading.info/Richard-W-Schabacker-l-eminent-penseur-de-l-analysetechnique_a12168.html Welles WILDER http://fr.wikipedia.org/wiki/Relative_strength_index Carol OSLER http://www.agefi.fr/articles/imprimer.aspx?id=1066792&fil_info=0 61