revue française
'économie VOLUME XXIV, avril 2010
3
67
93
Thierry Aimar Francis Bismans Claude Diebolt
Christelle Mougeot
Rainer Metz
Théorie autrichienne du cycle et théorie des cycles d'équilibre
Méthodes de recherche sur les fluctuations longues
Le cycle économique: une synthèse
135
165
189
Olivier Damette Zohra Rabah
Xiaoshan Chen Terence C. Mills
Muriel Dai-Pont Legrand Harald Hagemann
La datation du cycle français: une approche probabiliste
Evaluation de la synchronisation des cycles économiques dans la zone euro
Théories réelles versus monétaires des cycles d'équilibre
Thierry AIMAR Francis BISMANS Claude DIEBOLT Le cycle économique: une synthèse
e progrès technique et la croissance économique se réalisent essentiellement à travers des cycles, par des efforts et des tensions, suivis de ruptures, d'amplitude et d'intensité différentes, s'adossant les uns aux autres.
Rl'vut' franç.lisl' d'~conomie, n° 4/vol XXIV
4
Thierry Aimar, Francis Bismans et Claude Diebolt
L'histoire économique nous montre le relativisme de ces mouvements, qui ne se trouvent pas nécessairement dans tous les systèmes économiques, ni dans tous les pays. Certains sont caractéristiques d'une époque, d'autres d'une économie. En fait, chaque cycle tire une partie de sa forme et de ses particularités du mouvement plus fondamental qui le sous-tend. Ainsi, la nature des cycles dépend du système socio-économique qui les engendre, tout en sachant que leurs causes et leurs périodicités peuvent varier au cours de l'histoire, en fonction de la structure économique du pays. Pourtant, sans le fil conducteur d'une théorie ou d'une combinaison de théories, l'examen des cycles économiques est à la fois incommode et stérile. Bien évidemment, il n'est pas nécessaire d'accepter les causes fondamentales isolées par telle ou telle théorie. Mais, il est indispensable de comprendre les effets de ces causes sur la vie économique, ainsi que les répercussions des divers éléments les uns sur les autres. Notre intention n'est pas de refaire le travail exhaustif des grands économistes du passé comme Haberler [1943] ou Schumpeter [1939, 1954]. Nous partirons d'une sélection de résultats qui nous semblent acquis, d'études dont les conclusions sont déjà le fruit de l'expérience et de la confrontation des thèses essentielles d'économistes qui ont recherché les causes et analysé le ou les cycles économiques, pour apporter quelques éléments additionnels sur les développements théoriques, statistiques et économétriques les plus récents. Une précision encore, suite à notre affirmation concernant la relativité des fluctuations économiques. Il ne pouvait être question de reprendre in extenso la distinction établie par Schumpeter [1939], avec les périodicités respectives associées, entre les cycles de type Kitchin, Juglar et Kondratieff. Nous ne traiterons dans cet essai de synthèse que du cycle court, que l'on peut aussi qualifier de « classique », même si nous dirons le moment venu quelques mots sur les cycles longs de type Kondratieff.
Revue française d'économie, nO 4/vo! XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
5
Des approches traditionnelles ... Les fluctuations économiques existaient déjà avant la révolution industrielle et, dans un grand nombre de cas, elles pouvaient s'expliquer par l'alternance de bonnes et de mauvaises récoltes. Nulle régularité n'est pourtant observable dans cette alternance, tant les événements exogènes sont venus, bien évidemment, brouiller le graphe d'un éventuel rythme endogène, faisant partie de la nature profonde de la dynamique économique. Au cours du 1ge siècle, les fluctuations sont plus fréquentes et plus régulières. En même temps, les récoltes paraissent avoir moins d'influence, tant à cause de l'importance accrue des industries manufacturières que parce que l'ouverture du marché mondial a permis de compenser la pénurie de produits agricoles. De même, l'importance des facteurs techniques et surtout financiers a grandi. Les crises deviennent tendanciellement industrielles. L'une de leurs caractéristiques principales est d'être marquées par une surproduction générale. Ricardo ([ 1821], éd. Sraffa, p. 265), lorsqu'il publia la première édition des Principles en 1817, avait sous les yeux l'exemple de la crise anglaise de 1815, consécutive à la fin des guerres napoléoniennes, et n'avait pas manqué de relever le phénomène: «L'établissement [... ] de la paix après une longue guerre produit généralement une grave crise (distress) commerciale. Elle modifie dans une large mesure la nature des emplois auxquels étaient auparavant consacrés les capitaux respectifs des pays; tant que ces capitaux ne se sont pas dirigés vers des emplois plus rentables (beneficial), une bonne part du capital fixe est inemployée, voire même totalement perdue, et les travailleurs se retrouvent sans occupation complète (full employment). » La crise de 1815, qui sera d'ailleurs suivie par une autre en 1818-1819, devait susciter de virulentes polémiques qui opposèrent sur la possibilité d'une surproduction générale et sur la «loi des débouchés», Sismondi [1819, 1827] et Malthus [1820] d'un côté, Ricardo [1821] et Say [1815-1821] de l'autre.
Revue française d'économie, n° 4/vo[ XXIV
6
Thierry Aimar, Francis Bismans et Claude Diebolt
Toutefois, les historiens économistes - par exemple, Bairoch ([1997], pp. 401-402) - s'accordent en général pour faire remonter la première crise« moderne» véritable à 1825. En suivant l'interprétation de Hicks ([1989], chap. Il ; également [1981]), cette première crise sera suivie de celles de 1836-1837 (qui a frappé surtout les Etats-Unis), 1848, 1857 et 1867, après quoi le phénomène s'étiole - en Grande-Bretagne du moins. A la lecture de cette chronologie, la notion de cycle vient immédiatement à l'esprit, puisque ces crises paraissent se produire avec une belle périodicité de 10 ans. C'est le « cycle classique », le « vieux» (old) cycle comme le nomme précisément Hicks [1989]. Deux auteurs, Stuart Mill ([1848], livre III, chap.12) et Marx ([1894], livre III, cinquième section), même s'ils n'avaient pas la séquence complète des crises derrière eux, ont produit une bonne analyse de ce cycle classique et singulièrement de son point critique, la crise. Pour tous deux, l'explication est centrée sur l'Angleterre et fait pleinement ressortir l'influence des mécanismes de crédit ainsi que le rôle de la Banque d'Angleterre. Pour Marx ([1894], livre III, tome 7, p. 151): «( ... ) toute la crise se présente comme une simple crise de crédit et d'argent» ; pour Stuart Mill [1848], p. 528): «la chute, aussi bien que la hausse (des prix), trouve ses racines non dans quoi que ce soit affectant la monnaie, mais dans l'état du crédit». Voici d'ailleurs la trame de l'explication retenue par ces deux auteurs. Lors des débuts de la dépression, prix et taux d'intérêt sont bas comparativement aux valeurs observées durant la période de plus grande prospérité. Progressivement, le relèvement de l'activité économique entraîne la hausse d'un certain nombre de prix, les taux d'intérêt restant bas. Le financement d'un niveau des prix en hausse s'effectue sans trop de problèmes, par le recours aux effets de commerce. Il arrive toutefois un moment où le crédit commercial ne suffit plus; les entreprises se tournent alors vers le crédit bancaire, ce qui pousse le taux d'escompte vers le haut. A la longue, l'accumulation des effets de commerce dans le portefeuille des banques, de même que la spéculation encouragée par la hausse prolongée des prix, conduisent à se
Revue française d'économie, nO 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
7
méfier des billets de banque. Cette méfiance se traduit par une brusque augmentation de la monnaie de base, c'est-à-dire de l'or. Les banques de second rang, dont les réserves ne sont pas suffisantes pour faire face à la demande d'or, se tournent alors vers la Banque d'Angleterre. Celle-ci, qui voit ses réserves de métal s'amenuiser rend le crédit plus cher et précipite par làmême l'économie dans la crise. C'est donc la Banque d'Angleterre qui, en voulant protéger ses réserves d'or, a déclenché la crise et donc des faillites bancaires et d'entreprises ainsi que la baisse des prix. Pour enrayer la chute du niveau des prix et remettre l'économie sur la voie de la prospérité, il lui fallut rendre confiance aux banques et aux entreprises en abaissant son taux d'escompte au moment opportun. C'est ce que Hicks a appelé le « précepte de Thornton» (Bagehot et son « prêteur en dernier ressort» viennent naturellement à l'esprit, mais en fait, Thornton lui est bien antérieur, puisque le « Paper Credit» date de 1802 O. En réalité, la Banque d'Angleterre allait très progressivement assimiler le précepte et apprendre à manipuler à bon escient son taux d'escompte. De la sorte, elle a acquis les moyens d'éviter de trop graves crises, au point que, dans les années 1870, les fluctuations cycliques s'estompent - du moins en Grande-Bretagne. Il n'empêche que la longue séquence de cycles quasi décennaux, qui s'était ouverte en 1825, devait nécessairement questionner les économistes. Deux d'entre eux - William Stanley Jevons et Clément Juglar - vont alors se pencher sur la question. Leur démarche est à certains égards fort semblable, notamment parce qu'ils s'intéressent bien davantage aux cycles qu'aux crises - c'était une rupture majeure par rapport à leurs prédécesseurs - et qu'ils font grand usage des séries statistiques disponibles. Cela dit, ils s'opposent sur deux points essentiels : la stricte périodicité des fluctuations et l'analyse de leurs causes. Jevons commença véritablement ses recherches sur le cycle dans les années 1870, alors même qu'il avait déjà acquis une solide réputation de théoricien, notamment par la publication de sa Theory of Political Economy, en 1871, qui le rangeait, en
Revue fr,mçaisc d't-conomic, n° 4/vo! XX1V
8
Thierry Aimar, Francis Bismans et Claude Oiebolt
compagnie de Walras et Menger, parmi les initiateurs du marginalisme. Dans un écrit de 1875 - Jevons ([1884], pp. 194205) -, il émettait d'abord l'hypothèse que le cycle des taches solaires (d'une durée de Il,1 années) se traduisait par un cycle des températures qui lui-même causait un cycle des moissons et in fine un cycle du prix des grains. Jevons avait cependant beaucoup de peine à relier la périodicité des taches solaires avec celle du prix des céréales, une série qui ne comportait pas d'oscillations identifiables. Aussi se tournât-il vers l'analyse du cycle du crédit entre 1825 et 1867 qui, selon ses calculs, présentait une périodicité de 10,8 années. Il subsistait pourtant un écart entre les deux durées que Jevons n'arrivait pas à justifier. Finalement, dans l'écrit The Periodicity of Commercial Crises and its Physical Explanation datant de 1878 - Jevons ([1884], pp. 206-220) -, concluait, sur la base de nouveaux calculs, à l'existence d'un cycle du crédit d'une longueur moyenne comprise entre 10,3 et 10,46 années. Comme une nouvelle étude des taches solaires permettait de chiffrer à 10,45 années la périodicité du cycle correspondant, Jevons ([1884], p. 215) pouvait affirmer qu'il est «hautement probable que les deux phénomènes périodiques [... ] sont reliés comme cause et effet». Juglar, dont la première édition de son livre Des crises commerciales ... est parue en 1862 et la seconde en 1889, étudie le déroulement des crises en France, en Angleterre et aux EtatsUnis. Schumpeter [1954] voit en lui «un des plus grands économistes de tous les temps ». Sa méthode est comparative et se fonde sur l'étude empirique de séries longues. En un mot, la démarche se veut scientifique: dans les propres termes de Juglar ([1862], p. XII), «en nous appuyant non seulement sur des relevés statistiques, mais sur des grands nombres, sur des longues périodes, et dans trois grands pays, nous pensons avoir rempli beaucoup mieux que par des assertions toujours discutables les principales conditions d'une démonstration scientifique.» Pour Juglar, il n'y a guère de doutes sur la cause fondamentale des crises et donc des cycles : une fois les causes accidentelles ou certains événements particuliers écartés, la cause des crises réside dans les modifications des conditions du crédit,
Revue françaisl' d'éolilomie, nO 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
9
spécialement le développement des escomptes, et avance ainsi l'hypothèse du rôle central de l'évolution de la circulation métallique. Signalons que, dans la seconde édition [1889], la démarche de Juglar reste identique, tout en précisant que les matériaux statistiques traités sont plus nombreux et la période étudiée plus longue. De surcroît, il se démarque nettement de Jevons en refusant toute périodicité stricte du cycle, se contentant de constater que les crises reviennent « dans une période de 5 à 10 ans». C'est également dans cette seconde édition que Juglar propose une analyse des phases du cycle, qui est encore utilisée aujourd'hui: la prospérité d'une durée de 5 à 7 ans; la crise (quelques mois à quelques années) ; la dépression (quelques années) .
. . . à l'analyse statistique du cycle Si l'on peut faire remonter à Juglar et Jevons l'utilisation de séries longues pour caractériser le cycle économique, le mérite d'une première analyse véritablement statistique de ces séries revient à Moore et à Persons. Moore [1914] se servit du périodogramme pour détecter deux cycles d'une durée respective de 8 ans et 33 ans dans la pluviosité de l'Ohio Valley. Quant à Persons [1919], il est apparemment le premier économiste à avoir proposé de décomposer les séries temporelles en quatre composantes : la tendance ou trend, le cycle, la saisonnalité et un aléa purement accidentel. Nous reviendrons plus tard sur l'autre grande contribution de Persons à l'analyse des fluctuations: la construction du « baromètre de Harvard». Cependant, dès 1913, Wesley Clair Mitchell publiait le premier ouvrage entièrement consacré à l'étude des oscillations économiques. Il y développait une nouvelle méthode d'approche que l'on peut résumer dans ses propres termes par: « observer, analyser et systématiser les phénomènes de prospérité, crise et
Revue française d'économie, nO 4/vol XXIV
10
Thierry Aimar, Francis Bismans et Claude Diebolt
dépression» (Mitchell, [1913], p. 20). Dans cette perspective, nul besoin de chercher à départager les différentes théories du cycle; ces dernières ne doivent servir qu'à sélectionner les faits pertinents. En 1920, Mitchell devient le directeur du National Bureau of Economic Research, organisme qui lance en 1921 un programme d'étude statistique des fluctuations économiques. De ce programme est issu un nouvel ouvrage de Mitchell, Business Cycles: The Problem and its Setting, publié en 1927. Notre auteur y critique l'utilisation des techniques statistiques - périodo gramme ou extraction de la composante cyclique - mises en œuvre par Moore et Persons, techniques auxquelles il reproche de ne pas mesurer directement le cycle économique. Surtout, Business Cycles présente une synthèse des recherches sur le cycle entreprises durant les années 1920 et se termine par la définition d'un plan de mesure des fluctuations économiques. De la sorte, comme l'écrit Morgan ([1990], p. 50), le livre «établit la réputation de Mitchell comme la figure prééminente de la recherche statistique sur le cycle pour toute la période de l'entre-deux guerres». Un autre ouvrage devait sortir du programme de recherche de Mitchell: Measuring Business Cycles, écrit cette fois en collaboration avec A.F. Burns et publié en 1946. Outre une définition du cycle, sur laquelle on reviendra plus loin, les deux auteurs proposent notamment un ensemble de mesures des fluctuations, plus exactement de ce qu'ils appellent le cycle de référence d'un côté et les cycles spécifiques de l'autre. Ces derniers sont propres à des variables particulières et sont obtenus par datation des points de retournement de la variable envisagée. Le cycle de référence, lui, est le cycle économique agrégé, global, déterminé sur base d'un ensemble de variables jugées pertinentes. Cela dit, dans les années 1920, Mitchell n'était pas le seul économiste à se préoccuper de l'analyse statistique des oscillations. Persons, dont on a déjà dit quelques mots plus haut, avait été chargé en 1917 par le Harvard Committee for Economic Research d'entreprendre une étude des « méthodes de collecte et d'interprétation des statistiques économiques ». Deux ans plus
Revue frJ.nçaise d'économie, nO 4/vo! XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
Il
tard, dans la Review of Economic Statistics, qui fut fondée en 1919 par le Harvard Comittee et qui deviendra en 1949 la Review of Economics and Statistics, il publiait le résultat de ses travaux sous la forme d'un baromètre conjoncturel (business barometer). Ce baromètre reposait sur trois indicateurs du cycle, représentatifs du mouvement de l'économie, qui couvraient respectivement les marchés boursiers, l'industrie et les conditions monétaires. Les indicateurs en question aboutissaient aux fameuses courbes dites A-B-C de Harvard qui étaient censées représenter la dynamique des fluctuations économiques. Les années 1920 vont connaître une véritable floraison d'institutions dédiées à la recherche sur le cycle et la conjoncture. En 1920, l'Institut de Moscou, dirigé par Kondratieff, voit le jour; celui de Stockholm en 1922, Paris et Londres en 1923, Berlin en 1925, etc. En janvier 1927, est fondé à Vienne l'Institut autrichien de recherches sur le cycle des affaires (Osterreichische Konjunkturinstitut), sous l'impulsion de Ludwig von Mises. Grâce à son appui, Hayek en assure la direction jusqu'à son départ de Vienne pour Londres en 1931 à l'occasion de son recrutement à la London School of Economics. Morgenstern lui succèdera alors jusqu'en 1938, date de son émigration aux EtatsUnis suite à l'Anschluss. L'influence intellectuelle à la fois de Mitchell et de Persons sur la plupart de ces nouvelles institutions est patente. Cela dit, leur fortune s'est révélée très diverse: l'institut de Moscou a été fermé en 1928 et Kondratieff exilé en Sibérie; les instituts européens et celui d'Harvard perdirent toute crédibilité, aussi faute d'avoir pu prévoir la crise de 1929-1930.
Le «moment Tinbergen» Le déclin des instituts de conjoncture va ouvrir la voie aux tentatives de modélisation du cycle. Un nom s'impose à cet égard,
Revue française d'économie,
1]0
4/vo! XXIV
12
Thierry Aimar, Francis Bismans et Claude Oiebolt
celui de Jan Tinbergen, premier prix Nobel d'économie en 1969, avec Ragnar Frisch. Cependant, la recherche de l'économiste hollandais, pour considérable qu'elle soit, n'est pas sortie du néant ; elle a été directement préparée par le travail de trois auteurs : Yule, Slutsky et Frisch. Georges Udny Yule [1926] avait montré qu'il fallait être très prudent lorsqu'on calculait des corrélations (au sens statistique) entre des séries chronologiques: celles-ci risquaient en effet d'être absurdes (nonsense correlations). Bien entendu, une telle critique aboutissait implicitement à relativiser les travaux des analystes du cycle qui se fondaient sur le calcul de hauts coefficients de corrélation pour établir l'existence de relations entre variables. L'année suivante, Yule [1927] publiait un autre article dans lequel il comparait le cycle à un « pendule bombardé par des petits pois », les oscillations étant entretenues par les chocs aléatoires - les petits pois. L'économiste russe Eugen Slutsky [1937], dans un article écrit en 1927, mais publié en langue anglaise seulement en 1937, mettait encore davantage l'accent sur l'importance des chocs aléatoires, puisque ceux-ci en se cumulant pouvaient produire des séries qui s'apparentaient à une combinaison d'oscillations sinusoïdales. Kuznets ([1929], p. 274), qui avait pu lire l'article de Slutsky dans sa version originale, en tira la conclusion que « si les cycles surgissent d'événements aléatoires, ( ... ), alors nous n'avons évidemment plus besoin d'une cause indépendante, régulièrement récurrente. » Ragnar Frisch, premier prix Nobel d'économie en même temps que Tinbergen - on l'a déjà signalé -, est le troisième auteur qui a eu une influence importante sur l'économiste hollandais. En 1933, son article écrit pour le volume d'hommage à Cassel développait un petit modèle macroéconomique et dynamique du cycle: mathématiquement, un système mixte d'équations de récurrence et d'équations différentielles. La tentative était dans l'air du temps, car la crise de 1929 avait polarisé l'attention des économistes. Sans entrer dans les détails, il suffira de dire que le modèle de Frisch combine relations dynamiques déterministes et chocs
RCVUl:
française d'économie. n° 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
13
aléatoires. On pourrait presque le qualifier de modèle économétrique, à ceci près que ses paramètres structurels n'étaient pas estimés, mais « calibrés». Toujours est-il qu'ainsi calibré, le système de Frisch livrait des solutions pour les trois principales variables, solutions constituées d'un trend et de trois cycles, dont un, primaire, d'une durée de 8,57 années. Ce qui cadrait en définitive assez bien avec la réalité. Dans la foulée des trois auteurs précédents, Jan Tinbergen construisit et estima le premier modèle économétrique du cycle. Ille fit à la demande de la Vereniging voor de Staathuishoudkunde en de Statistiek, l'association des économistes hollandais, qui tint en octobre 1936 un congrès sur le thème « sortir de la dépression». Devant un public guère au fait des méthodes quantitatives, Tinbergen [1936] élimina de son intervention les aspects les plus techniques. Cependant, un an plus tard, il publiait chez Hermann, à Paris, un exposé complet du « modèle économétrique hollandais» et déterminait les effets quantitatifs d'une large gamme de mesures de politique économique. A vrai dire, c'était pour l'époque une performance à la fois intellectuelle et numérique: le modèle comportait en effet 31 variables et 22 équations; parmi ces dernières, seize d'entre elles étaient des relations comportementales ou techniques que Tinbergen estima pour la période s'étalant de 1923 à 1935 (Tinbergen, [1937], pp. 14-15). L'économiste hollandais s'était très tôt intéressé au problème des fluctuations économiques; en témoigne notamment sa contribution parue dans Econometrica (Tinbergen, [1935]). Aussi n'est-il pas étonnant que dès 1936, le futur prix Nobel ait été chargé par la Société des Nations de tester empiriquement les théories du cycle telles qu'elles allaient être exposées dans Haberler [1937]. Tinbergen travailla deux bonnes années sur la question et publia en 1939 le résultat de ses recherches sous la forme de deux volumes intitulés Statistical Testing of BusinessCycle Theories. Le premier d'entre eux comportait une partie méthodologique constituée des chapitres 1 et 5, ainsi que trois études de cas (les fluctuations de l'investissement, la construction résidentielle et l'investissement net dans les chemins de fer) ; le
RL:VUC française d'éUlllomÎl:, nO
4/vol XXIV
14
Thierry Aimar, Francis Bismans et Claude Diebolt
second proposait un modèle économétrique de l'économie américaine destiné à évaluer les différentes analyses du cycle. Ce macro-modèle dynamique, encore davantage que le modèle hollandais de 1936, constituait un véritable exploit; il comptait en effet 71 variables, 48 équations et couvrait la période de 1919 à 1932 ; il présentait également un plus grand intérêt empirique dans la mesure où Tinbergen se montrait capable de traduire en équations un ensemble de théories exprimées en termes purement verbaux et de les tester ensuite selon une procédure en trois étapes. Bien entendu, l'estimation de ces différents modèles était tributaire des données utilisées (qui n'étaient pas très bonnes), de même que du caractère très particulier de la période étudiée (la « Great Depression»). Mais de cela, Tinbergen ne pouvait être tenu pour responsable. Plus intéressant d'un point de vue actuel est le premier tome considéré dans sa dimension méthodologique. La méthode utilisée est qualifiée d'« analyse de corrélation » par Tinbergen ([1939], vol. I, p. 15). En réalité, il s'agit simplement d'estimer les coefficients d'une régression linéaire multiple (éventuellement avec des variables retardées) par minimisation des carrés des résidus d'estimation, c'est-à-dire par application de la méthode des moindres carrés. A cette équation estimée est alors associé un coefficient de corrélation - le fameux des économètres modernes -, dont la valeur varie entre 0 et 1. Plus cette dernière est proche de l'unité et plus l'ajustement statistique est précis. Une fois ce travail réalisé, il faut alors envisager la signification statistique des coefficients, en un mot les tester. De ce point de vue, Tinbergen ([1939], vol. I, p. 28) ne se réfère pas à l'approche de Neyman-Pearson, mais à ce qu'il appelle « la méthode classique », dont «la forme finale a été donnée par R.A. Fisher.» En pratique, la méthode revient à appliquer un t-test à chaque coefficient divisé par son erreur-type. Tinbergen se sert également d'une autre méthode de test, due à Frisch [1934] - celle des « faisceaux» (bunch maps) - qui n'est plus utilisée depuis très longtemps et dont on ne dira en conséquence rien. Le lecteur désireux d'en savoir plus peut se référer à Tinbergen, ([1939], vol. I, pp. 29-31) ou encore à Valavanis, ([1959], pp. 146-150).
Revue française d'économie, n° 4/vo1 XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
15
L' œuvre de Tinbergen fut diversement appréciée. Si Allen [1940] par exemple s'en montre un fervent partisan, Milton Friedman [1940] est beaucoup plus critique, quoique la recension de Statistical Testing ... par ce dernier ne porte que sur le volume II. Toutefois, sans contestation possible, le compte rendu le plus sévère est dû à Keynes [1939]. En plus de divergences sur la portée épistémologique du travail de Tinbergen, l'auteur de la General Theory énonçait six critiques à!' égard de la méthodologie économétrique adoptée : la nécessité de déterminer toutes les « causes », i.e. les variables explicatives intervenant dans une régression multiple; l'incapacité de prendre en compte des variables non mesurables, qualitatives; la possibilité de liaisons entre les variables explicatives - on dirait aujourd'hui la multicolinéarité ; la non-vérification de l'hypothèse de linéarité des relations estimées ; la difficulté de déterminer correctement le nombre de retards dans les équations estimées; la dépendance des estimations par rapport à la période échantillonnée. Tinbergen [1940] répondit à l'économiste de Cambridge. Cependant, la véritable réponse vint plus tard avec le développement de la théorie et de la pratique économétriques, qui a permis d'apporter des solutions aux problèmes - réels - soulevés par Keynes. Par exemple, il est courant de nos jours d'estimer des équations non linéaires ou des modèles à variables qualitatives.
Keynes, Hayek ... La Grande Crise des années 1930, sans réel précédent historique, en tout cas très différente par sa forme et son ampleur des crises classiques du XIXe siècle, allait susciter une abondante littérature théorique. De cette floraison - bien analysée par Haberler [1943)1 encore que ce dernier ne dispose pas du recul suffisant pour opérer un tri significatif au sein de cette littérature -, deux noms
Revue française d'é(oilomic. n° 4/vo\ XXIV
16
Thierry Aimar, Francis Bismans et Claude Oiebolt
émergent incontestablement: Hayek, représentant le plus connu de l'école autrichienne d'économie, et Keynes. L'analyse autrichienne du cycle s'inscrit dans un contexte général: celui de l'intérêt de la pensée économique durant l'entredeux guerres pour l'étude des phases de la conjoncture, intérêt bien évidemment accentué par le déclenchement de la crise de 1929. Considérée sous un autre angle, elle se relie à un sujet de préoccupation caractéristique de la tradition autrichienne, à savoir le mode d'intégration de la monnaie aux phénomènes réels. Bien que leurs travaux ne puissent pas être considérés comme exhaustifs d'une théorie autrichienne du cycle, Mises et Hayek en sont néanmoins les deux principaux représentants. Mises a été l'initiateur, par l'intermédiaire de The Theory of Money and Credit [1912] d'une première représentation théorique des canaux d'influence de la monnaie sur l'économie réelle. Celle-ci consiste dans une explication des perturbations économiques par les effets de la création monétaire sur la structure des prix relatifs. Mises a continué à développer cette analyse durant l'entre-deux guerres (cf. les textes réunis dans The Manipulation of Credit and Money [1934/1978] et la partie de Money, Method and the Market Process [1990] consacrée aux questions monétaires (pp. 55-109), puis à travers les éditions successives de L'action humaine [1949, 1963, 1966]. C'est à l'analyse du cycle que Hayek a consacré ses premières recherches économiques à la fin des années 1920. A la suite d'un voyage d'étude aux Etats-Unis [1923-1924], il rédige divers articles consacrés aux problèmes des fluctuations en économie de marché. Les plus importants de ces textes ont été traduits en anglais, pour être réunis, en compagnie d'articles ultérieurs au sein d'un recueil intitulé Money, Capital and Fluctuations, Early Essays [1984]. Dans la même veine, Hayek rédige son premier ouvrage: MonetaryTheory and Trade Cycle [1928a]. Mais ses thèses ont surtout été développées à l'occasion de quatre conférences prononcées à la London School of Economics, où Hayek a été invité par Lionel Robbins. Ces conférences ont été immédiatement réunies dans un ouvrage publié sous le titre de Prix et production [1931]. On peut sans doute considérer ce
Revue
français~
d'économie, n° 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
17
travail comme l'expression théorique la plus centrale de Hayek sur le sujet. En tant que tel, il a déclenché dès sa présentation de nombreuses et quelquefois violentes polémiques, à l'occasion desquelles se sont illustrées, parmi d'autres, des figures aussi importantes que celles de Keynes, de Sraffa ou encore de Hicks. Jusqu'à nos jours, l'ouvrage est ainsi resté la référence première de la littérature consacrée à l'analyse autrichienne du cycle. Prix et production met en avant la question de la réussite des anticipations (ou en d'autres termes, de la coordination des plans). A cet égard, l'étude privilégie l'analyse des modes d'interaction entre d'un côté, les entrepreneurs-producteurs, et de l'autre côté, les consommateurs-épargnants. Hayek analyse les procédures d'ajustement des plans des entrepreneurs-producteurs à ceux des salariés en matière de choix inter-temporels de consommation. La coordination requiert une comptabilité mutuelle des plans des consommateurs et des stratégies des producteurs, de telle sorte que la part épargnée du revenu des consommateurs soit égale au volume d'investissement généré par les entreprises. La crise se définit inversement comme une non-concordance généralisée entre d'une part: les choix des entrepreneurs en matière de répartition de la production entre biens de consommation et biens d'investissement; d'autre part, les voeux des salariés en matière de répartition de leur revenu entre la consommation présente et l'épargne. La théorie met en scène une trilogie entre taux d'intérêt, prix relatifs, et capital perçu comme ensemble structurel et hétérogène. La monnaie y joue un rôle central et continu. La distribution du crédit initie le cycle, avec la phase d'expansion, et l'achève, en produisant la dépression. La création de liquidités dissocie le technique du subjectif: elle rend incohérente l'organisation de la structure de production vis-à-vis des préférences inter-temporelles des agents en matière d'orientation des ressources. L'ajustement brutal par les quantités s'opère lorsque la diffusion du crédit sous forme de revenus supplémentaires dissipe l'illusion monétaire et donne aux consommateurs la capacité d'imposer à nouveau leur point de vue en matière de choix productifs. Le passage inévitable du «boom» au «bust» s'appuie
Revue française d'économie, nO 4/vol XXIV
18
Thierry Aimar, Francis Bismans et Claude Oiebolt
néanmoins sur une conception particulière du rapport entre le réel et le monétaire; par ailleurs, il exige le respect d'une chronologie rigoureuse. Hayek ne s'attache pas à déterminer une relation entre le niveau général des prix et un niveau agrégé de production. Il examine les conséquences de l'expansion monétaire sur la distribution des ressources entre les secteurs de biens d'investissement et de biens de consommation. La monnaie pénètre dans le système réel par des points particuliers, de manière séquentielle, et agit sur la structure de production à travers le taux d'intérêt. Cette relation entre le capital et l'intérêt est d'ailleurs une des spécificités de l'approche autrichienne. La baisse du taux d'intérêt monétaire en dessous du taux naturel (ou d'équilibre, reflétant les préférences inter-temporelles des salariés-consommateurs) initie le cycle. Du fait de la forte sensibilité au taux d'intérêt des secteurs les plus en amont de la structure de production, relativement plus capitalisés, l'investissement y est artificiellement stimulé (mal-investment). La théorie autrichienne du cycle relate une histoire de distorsions enchaînées: distorsion entre le taux d'équilibre et le taux monétaire, distorsion de l'investissement au sein de la structure de production, distorsion des prix relatifs entre biens d'investissement et biens de consommation, distorsion entre l'offre monétaire de crédit et l'offre réelle de crédit. Mais dans le développement du cycle autrichien, la chronologie trouve une importance majeure. La dialectique de la monnaie et du capital, gouvernée par le jeu des prix relatifs, s'organise autour d'une flèche particulière du temps, caractérisée par les notions de séquence, de décalage et surtout de rigidité. L'expansion du crédit produit un bug temporel, non seulement en délivrant de fausses informations (illusion monétaire), mais aussi en nourrissant des formes particulières de rigidité: rigidité de l'intérêt, puisque dans la phase de boom la poursuite de l'expansion monétaire empêche le taux monétaire de rejoindre le taux d'équilibre; rigidité des prix, car si des erreurs sont commises et mettent du temps à être corrigées, cela est dû au fait que les prix ne s'ajustent pas immédiatement aux données subjectives et ne remplissent donc pas leur fonction informative et prédictive2 ; rigidité des préférences intertemporelles des agents, considérées
Revue françai.~r d'éwllomic, n° 4/vo] XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
19
comme données et constantes entre le début et la fin du cycle. Si, dans le temps de l'analyse, les agents devaient changer leurs choix de consommation intertemporelle, la deuxième phase du cycle, la crise, ne se déclencherait pas. La Théorie générale de Keynes [1936] n'est évidemment pas consacrée à l'examen ou à l'explication du cycle. Elle comporte cependant un chapitre - le chapitre 22 - qui permet de se faire une idée précise de la problématique développée par son auteur. L'analyse mobilise l'ensemble de l'appareil conceptuel keynésien: propension à consommer, multiplicateur, principe de la demande effective, préférence pour la liquidité, et surtout, efficacité marginale du capital. C'est en effet cette dernière qui est, pour Keynes ([1936], p. 313 - p. 311)3, le facteur explicatif principal des fluctuations cycliques. Rappelons à cet égard que, pour un type de bien de capital donné, l'efficacité marginale est définie « comme le taux d'escompte qui rend la valeur présente de la série des annuités procurées par les rendements anticipés de ce bien de capital durant sa durée de vie tout juste égale à son prix d'offre» (Keynes, [1936], p. 135 - p. 149). Le prix d'offre d'un bien de capital est ce que l'on pourrait encore appeler son « coût de remplacement », c'est-à-dire le prix juste suffisant pour inciter un fabricant à produire une unité additionnelle de ce bien. Ce prix est donc déterminé dans la période courante. Il n'en va pas de même des rendements anticipés dont le calcul suppose, par définition, la considération du futur proche et éloigné. L'investissement nouveau résulte d'une comparaison entre l'efficacité marginale globale et le taux d'intérêt en vigueur; il ne sera réalisé que si la première est supérieure au second. Une précision encore quant au « sujet» qui calcule les rendements escomptés des différents types de capital. En fait, ce sujet n'en est pas un puisque, pour l'auteur de la General Theory, ce sont les bourses de valeurs mobilières qui évaluent (et réévaluent) quotidiennement la valeur de la plupart des investissements réalisés. Dans les termes de Keynes ([1936], p. 151 p. 164), « certaines classes d'investissements sont gouvernées par l'espérance moyenne, révélée dans le cours des actions et formée par ceux qui opèrent en bourse (Srock Exchange), bien plus que
Revue françaisl' d'économie, nO 4/vol XXIV
20
Thierry Aimar, Francis Bismans et Claude Diebolt
par les anticipations authentiques d'entrepreneurs professionnels. » Ajoutons que l'espérance moyenne en question repose sur une pure convention, dont l'essence est de supposer que l'état des affaires actuel se poursuivra indéfiniment, sauf s'il existe des raisons fondées d'anticiper sa modification. Une telle base conventionnelle d'évaluation est, selon la formule de Keynes, « la résultante de la psychologie de masse d'un grand nombre d'individus ignorants». Mais alors la tâche essentielle des professionnels et spéculateurs qui interviennent aussi sur les marchés financiers est de prévoir juste avant le grand public les modifications de la base conventionnelle d'évaluation. Il s'ensuit que ces marchés fonctionnent de manière heurtée et qu'ils font montre d'une grande volatilité, soumis comme ils le sont à des vagues d'optimisme et de pessimisme déraisonnables. Ces rappels effectués, voyons à présent comment Keynes explique le mouvement cyclique de l'économie. Pour ce faire, plaçons-nous dans les derniers stades du boum conjoncturel. Comme on le sait, le taux d'intérêt est alors orienté à la hausse, sous l'effet d'une demande de monnaie accrue, destinée à satisfaire tant les besoins commerciaux que spéculatifs. Mais là n'est pas le plus important: en effet, ce qui caractérise surtout la fin du boum, c'est le fait que les anticipations des opérateurs et leurs estimations des rendements boursiers sont tellement optimistes qu'elles font oublier la hausse des coûts de production et celle du taux d'intérêt typique de cette phase du cycle. La crise coïncide alors avec un effondrement subit de l'efficacité marginale du capital. Que ce retournement doive être de grande ampleur et brutal s'explique aisément, puisque les marchés financiers, comme le dit Keynes ([1936], p. 316 - p. 313), subissent la double influence « d'acheteurs largement ignorants de ce qu'ils achètent et de spéculateurs davantage préoccupés par l'anticipation du changement prochain de l'opinion du marché que par l'estimation rationnelle des rendements futurs des actifs ». L'incertitude quant à l'avenir et la chute de l'efficacité marginale du capital provoquent une augmentation de la préférence pour la liquidité et donc une nouvelle hausse du taux d'intérêt, qui elle-même va détériorer encore un peu plus l'état de la confiance. Sans doute la baisse
Revue fLlnçai\L' d'écollomÎl., n° 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
21
du loyer de l'argent constituera-t-elle, plus tard cependant dans la récession, une condition de la reprise économique, mais une fois la crise déclenchée, la chute de l'efficacité marginale se poursuit et s'entretient. Il faudra donc que s'écoule un certain temps (trois à cinq ans, dit Keynes) avant que la confiance se rétablisse et que l'efficacité marginale se redresse, période pendant laquelle la baisse des taux d'intérêt peut même, dans les cas les plus extrêmes, s'avérer inefficace pour ranimer l'efficacité marginale anémiée. La reprise demandera donc du temps, d'autant plus que l'effondrement de l'efficacité marginale affecte négativement la propension à consommer par le canal de la chute des cours de bourse et celle, concomitante, du revenu des opérateurs boursiers. La demande globale est tout entière orientée à la baisse ... En définitive, la sortie de la récession s'effectue réellement lorsque la courbe de l'efficacité marginale du capital se redresse, phénomène lié - c'est l'élément objectif, réel - au fait que le capital est redevenu suffisamment rare. Un nouveau cycle se met alors en place ... La conclusion de toute l'analyse, laissons-la à Keynes ([1936], p. 320 - p. 317), « dans les conditions du laissez-faire, la suppression des larges fluctuations de l'emploi peut, par conséquent, s'avérer impossible sans un changement dans la psychologie des marchés d'investissement tellement énorme qu'il n'y a aucune raison de s'y attendre. 1'en conclus que la régularisation du volume de l'investissement courant ne peut être laissée sans danger entre des mains privées.})
... et les Trente Glorieuses L'analyse du cycle par Keynes était en phase avec les politiques de grands travaux des années 1930, le New Deal, etc., toutes tentatives pour sortir de la Grande Dépression en stimulant la
Revut' française d'économie,
[JO
4/vol XXIV
22
Thierry Aimar, Francis Bismans et Claude Diebolt
demande effective globale. En revanche, la théorie hayékienne des fluctuations économiques l'était nettement moins. Significatif de cette différence est l'appréciation de Lawrence R. Klein ([1949], p. 52) - futur Prix Nobel - qui écrivait que « la description du processus économique par Hayek ne s'ajuste pas bien avec les faits. »Aussi n'est-il pas étonnant que les économistes qui réfléchissaient sur le cycle se soient tournés vers la théorie keynésienne et que par comparaison les analyses de Hayek aient subi une longue éclipse. De surcroît, l'appareil conceptuel forgé par l'économiste de Cambridge devait être, dès après la parution de la General Theory, repris et développé par plusieurs auteurs, souvent très jeunes, pour penser à nouveaux frais le cycle. Le premier d'entre eux est R.E Harrod, qui publie en 1936 son Trade Cycle. Il sera suivi par Samuelson [1939], Hansen [1941] et enfin Hicks [1950]. Harrod ([1936], p. 102) voit l'explication du cycle dans les interactions entre le «Multiplicateur» et la «Relation» - les majuscules sont de l'auteur lui-même. Par Relation, il n'entend rien d'autre que le principe d'accélération, c'est-à-dire l'influence des variations de la consommation (ou du revenu) sur l'investissement. Ce principe n'a en soi rien de bien neuf, puisque qu'on peut faire remonter ses origines à Aftalion [1913], voire à Marx. Il avait fait l'objet de nombreuses discussions dans l'après Première guerre mondiale : J.M. Clark, A. Spiethoff, S. Kuznets, A.C. Pigou, Wc. Mitchell, D.H. Robertson sont quelques-uns des noms qui viennent à l'esprit. Ce qui est nouveau chez l'auteur du Trade Cycle, c'est d'une part une conception véritablement dynamique des effets d'accélération et d'autre part, l'étude des interconnexions entre multiplicateur et accélérateur: Harrod ([1936], p. 70) affirme même que par cette étude, il «a révélé le secret du cycle». Notons cependant que si Harrod a bel et bien dynamisé l'effet d'accélération, il continuait, comme Keynes, à concevoir le multiplicateur sur le mode d'une relation instantanée, donc statique, entre l'investissement et le revenu. L'ouvrage d'Alvin Hansen, publié en 1941, est important, non tant sur le plan théorique - il n'ajoute pas grand-chose à l'analyse réalisée par Harrod - que sur celui de la politique éco-
Revue française d'économie, nO 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebalt
23
nomique : c'est un véritable manifeste en faveur d'une politique de plein emploi de facture keynésienne. Aussi n'est-il pas étonnant que Hansen ([1941], p. 292) se fixe par exemple l'objectif « de minimiser le mouvement cyclique par un système de taux de taxation adaptables ». D'une manière générale, il privilégie la politique budgétaire comme moyen de compenser les effets sur l'emploi des variations de l'investissement privé, mais aussi comme moyen d'assurer la relance de l'économie: c'est le « pumppnmmg». Samuelson [1939], quoiqu'il ne le reconnaisse pas, s'inscrit dans le droit fil de l'analyse harrodienne 4• Son apport propre est double: d'un côté, il inclut explicitement la dépense gouvernementale comme composante de la demande globale; de l'autre, il développe un véritable modèle dynamique du cycle, qui tient en trois équations:
(1)
Les notations sont suffisamment explicites; aussi se limitera-t-on à préciser que It représente le seul investissement privé, a la propension marginale à consommer et 13 le coefficient d'accélération. Si l'on suppose que la dépense gouvernementale Gt est exogène au modèle, il vient l'équation de récurrence du second ordre: (2)
La solution de (2) - qui reste simple, parce que ses coefficients sont constants et qu'il n'y a que deux décalages pris en considération - va dépendre des racines de l'équation caractéristique x2 + a(J + f3)x + af3 = 0, elles-mêmes fonctions des paramètres a et 13. On peut alors montrer que l'ensemble des valeurs possibles de a et 13 se découpe en quatre régions, caractérisée chacune par une trajectoire temporelle différente du revenu nationa1 5 : en gros, il y a mouvement cyclique (amorti, régulier
Revu!: française d'écollomie, nO 4/vol XXIV
24
Thierry Aimar, Francis Bismans et Claude Oiebolt
ou explosif) lorsque les racines de l'équation caractéristique sont des complexes conjugués, c'est-à-dire lorsque a < (4f3/(l +(3)2). En d'autres termes, le revenu national oscille temporellement si la propension marginale est faible et le coefficient d'accélération élevé ou vice versa. Le modèle de Samuelson permet donc, sous les conditions rappelées, d'engendrer des fluctuations, mais qui diffèrent des cycles effectifs à trois points de vue au moins: i) les oscillations du modèle ne sont régulières que dans un cas extrêmement particulier, celui où la propension marginale à consommer est égale à l'inverse du coefficient d'accélération; ii) ces oscillations sont, à la différence des cycles observés, parfaitement symétriques; iii) leur amplitude dépend des conditions initiales du modèle, alors que l'amplitude des cycles «réels» est variable et demande au minimum à être expliquée. Hicks reprendra en 1950 la problématique de l'oscillateur en lui imprimant sa touche particulière, de sorte qu'on en viendra rapidement à parler du «modèle de Samuelson-Hicks». Cela dit, tout en se plaçant dans le cas où le modèle connaît des oscillations explosives, l'économiste d'Oxford - Hicks ([1950], p. 83) - a modifié sur trois points importants l'analyse de Samuelson: - il substitue au cadre d'une économie stationnaire celui d'une économie «progressive» et donc la croissance à taux constant à l'équilibre stationnaire. - il introduit un plafond cyclique (ceiling) dans le sens où, en chaque période, le revenu national ne peut dépasser un certain niveau déterminé par le plein emploi des facteurs de production. - enfin, il introduit également un plancher cyclique (floor) qui limite donc les variations à la baisse du revenu; l'existence d'un tel plancher est plausible, parce que le désinvestissement consécutif à cette baisse est, à tout moment du temps, forcément limité par le rythme temporel de mise au rebut des équipements; en d'autres termes, l'accélérateur ne sort plus ces effets dès le moment où le plancher est atteint. Au total, Hicks présente un tableau de la dynamique économique tel que les économies connaissent un mouvement
Revue franç.lisc: d'économic:, nO 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
25
de croissance cyclique, les fluctuations étant contraintes par le plafond du plein emploi et par le plancher de la mise hors service, très progressive, des biens de production. Comme tel, son modèle est bien mieux coordonné au réel que celui du multiplicateuraccélérateur simple. Les approches de Samuelson et Hicks reposent formellement sur des systèmes d'équations linéaires. Il est toutefois possible, tout en conservant le même cadre conceptuel, d'introduire des non-linéarités dans l'analyse. Un des premiers à avoir exploré cette voie est Nicholas Kaldor. Concrètement, ce dernier suppose que les valeurs de la propension marginale à consommer et de l'accélérateur ne sont plus constantes, mais varient avec le niveau de la production. Il peut alors générer un cycle de manière endogène - Kaldor ([1940], spécialement pp. 89-92) -, de sorte que l'amplitude des fluctuations ne dépende plus des conditions initiales ou de chocs aléatoires. La méthode utilisée par Kaldor est essentiellement graphique. Il n'en va pas de même pour deux autres économistes « keynésiens)} qui ont construit, chacun pour leur part, un véritable modèle mathématique: Kalecki et Goodwin. Le premier est l'auteur de plusieurs articles et livres Kalecki [l935a,b, 1943a, 1954] - qui développent un modèle dont le noyau est remarquablement constant même si ses interprétations ont pu varier. Aussi se contentera-t-on d'en donner une seule version, celle de 1935. A noter cependant que l'on modifiera les notations de Kalecki et que l'on ne reprendra pas son hypothèse que l'épargne des travailleurs est nulle et donc pas non plus la distinction entre capitalistes et travailleurs. Kalecki raisonne dans le cadre d'une économie fermée, pour laquelle le revenu ou produit se décompose en consommation C, investissement (dépenses nettes) 1 et dépenses autonomes A. Puisque A est constant et que C = c y, le revenu est déterminé, via le multiplicateur instantané, par: Y(l)
(3)
= (l(t) + A) / (l-c)
Revue fr;lllçaist' d'économie,
[l0
4/vo] XXIV
26
Thierry Aimar, Francis Bismans et Claude Diebolt
Les commandes de biens d'équipement au temps t, notons-les B se traduisent dans des livraisons correspondantes et finalement des dépenses (nettes) I(t) moyennant un décalage temporel (). En moyenne, on a : J(t) = -1
B
fI t-B
B(t) dt
(4)
Si le stock de capital est noté K(t) alors sa dérivée par rapport au temps K'(t) représente le taux de livraison des biens de capital nouveaux, si bien que:
d
-. K(t) dt
= B(t -
B)
(5)
Enfin, B(t) est supposé relier positivement à l'épargne et négativement au stock de capital existant6 : B(t) = a(l- c )Y(t) - kK (t), a, k > 0
(6)
Les équations (3), (4), (5) et (6) constituent un système de quatre équations à quatre inconnues: Y(t), I(t), K(t) et B(t) Après diverses substitutions, on aboutit à l'équation mixte différentielle et de récurrence:
dK (f) = !!-. K (t) - (k +!!-.) K (t - B) dt
()
()
(7)
Le traitement mathématique complet d'une équation telle que (7) a été donné par Frisch et Holme [1935]. Il conduit à la conclusion suivante : le modèle admet comme solution unique? une fonction sinusoïdale de période plusieurs fois supérieure à la longueur du décalage () ; les oscillations peuvent être d'amplitude constante ou amorties selon les valeurs des coefficients a et k. Goodwin [1951] a développé un modèle qui combine multiplicateur dynamique et accélérateur non linéaire et dynamique. Tout comme chez Kalecki, il existe un décalage de ()
Revue française d'économie, nO 4/vo\ XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
27
unités de temps entre le moment de la commande d'un bien de capital et la réalisation de l'investissement, c'est-à-dire I(t) = B(t(). L'accélérateur est alors défini comme une relation entre le total des commandes B(t) et le taux de variation du produit global dY(t) / dt : B(t)
= qJ( dY(t) 1dt)
(8)
où Q -ACTo_i2 1
(10)
1
tient pour toute période proche de i, i.e. pour le court terme au moins, l'unité considérée dispose de flux de trésorerie insuffisants pour faire face au remboursement de ses dettes. Dans ce cas de figure, deux comportements sont possibles pour l'unité en question : soit ses liquidités ne couvrent que le paiement des intérêts et elle adopte alors un mode de financement spéculatif; soit elle n'a même pas la capacité d'assurer le service des intérêts - elle
Revue
fral1ç,li~c
d'économie, n° 4/vol XX1V
38
Thierry Aimar, Francis Bismans et Claude Diebolt
est donc obligée de recourir à l'emprunt -, ce qui traduit un mode de financement qualifié «de Ponzi» par Minskyll. Plus le poids, dans une économie, de la finance spéculative et de celle de Ponzi est grand et plus cette économie est sujette à des crises financières. D'un point de vue général, les économies capitalistes connaissent l'alternance de périodes de robustesse et de fragilité financières selon la combinaison des trois types de financement qui prévaut. C'est lors de ces dernières qu'adviennent les récessions «sérieuses» (serious, Minsky, ([1986], p. 194). On peut dès lors résumer comme suit l'explication des fluctuations cycliques avancée par Minsky. Dans les périodes de tranquillité financière - par exemple, celle qui a suivi la Seconde guerre mondiale jusqu'au «credit crunch» américain de 1966 -, marquées par l'absence de boum spéculatif, de même que par la prédominance de la finance de couverture, la gestion de la demande globale et l'intervention des banques centrales suffisent pour éliminer les variations trop importantes de la demande d'investissement. Mais la robustesse des structures financières laisse penser que cet état va perdurer, ce qui pousse à la multiplication des innovations financières et à l'adoption de comportements spéculatifs. Progressivement, les structures financières se fragilisent, les accidents (financiers) se multiplient, les comportements spéculatifs et de Ponzi se généralisent, l'endettement également. On entre alors dans une période d'instabilité, encore accrue par le boum spéculatif qui s'empare des bourses. Survient une crise boursière, qui entraîne dans sa chute banques et institutions financières. La demande d'investissement s'effondre, tandis que la consommation se réduit consécutivement à la baisse des cours boursiers et à la nécessité de se désendetter. La récession s'ensuit, qui peut éventuellement déboucher sur une dépression profonde ... comme dans les années 1930. Hayek a reçu en 1974 le prix Nobel pour sa théorie du cycle, pourtant si longtemps décriée et marginalisée par la pensée économique de l'après-guerre. Cette attribution a encouragé un certain nombre d'auteurs autrichiens à prolonger l'analyse, en apportant leur propre contribution, tels que Rothbard [1975] ou encore Garrison [1986, 1989, 1997,2001 ... ]. Les travaux
Rl'\'lIC fr.lI1çai~l' d'éLO!lOmi\.!, nO 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
39
de ce dernier ont inspiré de nombreuses applications contemporaines de la perspective hayékienne. Mais ces développements n'ont pourtant pas permis de lever certaines ambiguïtés propres à l'analyse autrichienne du cycle. Les représentants de l'école autrichienne se distinguent par leur insistance sur l'ignorance, le temps historique et le subjectivisme des anticipations. Ils privilégient le raisonnement qualitatif et condamnent l'utilisation du quantitativisme en économie. La légende veut d'ailleurs que Hayek n'ait pas pu ttouver de poste au département d'économie de Chicago du fait de son hostilité aux statistiques, laquelle aurait déclenché le veto de Knight (Hayek s'exprimera de manière laconique à ce sujet: « l was proposed first to the faculty of economics, but they turned me down », Hayek, dans Kreisge ([1994], p. 128). Or, la théorie du cycle est une des rares incursions des Autrichiens dans le domaine macroéconomique, et ses prolongements contemporains suscitent des interrogations. En effet, sans se référer à des variables macroéconomiques quantitatives, comment définir les paramètres du cycle? De quelle manière identifier et mesurer le capital, traduire ses relations de substitution ou de complémentarité? De la même façon, par quelle méthode mesurer l'impact de chocs de politique monétaire sur l'intérêt, les prix relatifs et la longueur des stades de production? Enfin, comment identifier et mesurer l'écart du taux monétaire vis-à-vis du taux d'équilibre puisque celui-ci, en économie théorique, n'est qu'un référent théorique impossible à évaluer ?12 Comme le relèvent Bismans et Mougeot: « L'utilisation d'outils statistiques, économétriques, exige alors quelques assouplissements par rapport à la théorie autrichienne pure» (Bismans et Mougeot [2008], p. 83). Les récentes applications empiriques de la théorie autrichienne du cycle (Keeler [2001] ; Mulligan [2002, 2006] ; Cwik [1998] ; Hugues [1997] ; etc.). sont significatives de ces assouplissements, qui relèvent quelquefois du grand écart. La préoccupation de leurs auteurs est beaucoup moins d'identifier les fluctuations grâce aux outils autrichiens que de partir d'une approche conventionnelle du cycle, basée sur des faits stylisés établis par d'autres théories, pour examiner la pertinence de l'explication hayékienne.
Revue fnl1çaisl' d'économie.
[l0
4/\'o! XXIV
40
Thierry Aimar, Francis Bismans et Claude Diebolt
Ambiguïté aussi au niveau normatif, qui nous renvoie à l'origine du cycle. A-t-on affaire à une approche exogène ou endogène des fluctuations? Hayek, après son prix Nobel, a développé des thèses [1976 et 1978a] visant à affranchir la monnaie des manipulations d'ordre politique. Mais dans Prix et production, il décrivait l'architecture générale du crédit comme une structure pyramidale composée de différentes couches dont l'organisation interne est difficilement régulable par des instruments directs. Même si la quantité de monnaie fiduciaire reste stable, il peut arriver que les autres parties de la structure favorisent une augmentation de l'émission de crédit, suivant des mécanismes peu contrôlables par les autorités. L'accroissement de l'offre de monnaie au sens large et le développement du cycle ne sont donc pas toujours mécaniquement liés à une volonté expansionniste des banques centrales. Ambiguïté, enfin, relativement au statut de l'équilibre. Hayek [1928b] a réfléchi très tôt sur les logiques d'équilibres intertemporels, d'une manière telle que Lucas y a vu une anticipation de ses propres travaux. Mais comment identifier empiriquement l'équilibre d'un point de vue autrichien puisqu'il n'existe pas de méthode permettant de s'assurer que toutes les opportunités connues sont exploitées? Plus fondamentalement, pour les néo-autrichiens (cf, Kirner [1973,1979], etc ... ), le paradigme de l'ignorance empêche de considérer que toutes les opportunités disponibles soient connues et exploitées. Il y a donc toujours déséquilibre, mais on ne peut en connaître ni l'ampleur ni la source. Dans cette perspective, existe-t-il véritablement une épistémologie autrichienne du cycle? De quelle manière, en termes respectueux du paradigme autrichien, rendre compte de la croissance, ou inversement de la crise? Les Autrichiens sont des théoriciens du déséquilibre et ils n'ont jamais délivré de caractère précis et mesurable de l'amélioration de la qualité de la coordination autrement que de manière négative par l'absence d'intervention. La dernière zone de flou concerne le statut explicatif ou prédictif de la théorie autrichienne du cycle. La plupart des études développées après le prix Nobel de Hayek sont rétros-
Revue française d'é(ollomie, n° 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
41
pectives des événements. Rothbard [1975] s'est attaché à une relecture autrichienne de la crise des années 1930 et des phénomènes monétaires qui l'ont précédée. En utilisant des indicateurs variés, et en s'attachant à des périodes et des pays divers, O'Driscoll et Shenoy [1976], Garrison [2001], Cwik [1998], Hugues [1997] ont cherché à tester la capacité explicative de la théorie. Powell [2002] adopte la même démarche lorsqu'il applique les outils autrichiens à l'examen de la récession japonaise de 1990. La théorie et l'histoire sont ainsi mobilisées ensemble pour expliquer des moments particuliers. Doit-on alors renoncer à la prévision? Dans The Pretence of Knowledge, texte correspondant à son allocution du prix Nobel, Hayek affirmait pourtant lui-même: « je suis soucieux de le répéter, nous devons atteindre des prédictions qui peuvent être falsifiées et qui sont donc de signification empirique» (Hayek [1974], p. 33). Mais les choses ne sont pas si claires. Dans le même texte, Hayek condamne les évidences empiriques et précise qu' « étant donné que ne pouvons pas savoir à quelle structure particulière de prix et de salaires s'associe l'équilibre, nous ne pouvons pas mesurer les déviations par rapport à cet équilibre; nous ne pouvons pas non plus tester scientifiquement notre théorie selon laquelle ce sont les déviations par rapport au système de prix d'équilibre qui rendent impossible de vendre quelques-uns des produits et services au prix où ils sont offerts» [ibid., p. 27].
. .. et au renouveau des études économétriques du cycle La première moitié des années 1970 apparaît rétrospectivement comme l'âge d'or de la modélisation macroéconométrique. Cependant, dès les débuts de cette décennie, l'analyse des séries temporelles va opérer des progrès considérables. En particulier, Box et Jenkins [1970], s'appuyant sur les travaux antérieurs de Yule
Revue française d'économie, nO 4/vol XX1V
42
Thierry Aimar, Francis Bismans et Claude Diebolt
et de Wold, développent une méthodologie de prévision fondée sur l'utilisation de processus stochastiques du type ARMA13. Formellement, si Yt désigne la valeur observée, en t, de la série y, alors un modèle ARMA (p, q) se représente par:
où (t) est une suite de perturbations aléatoires, indépendamment et identiquement distribuées. Le membre de gauche de (11) constitue la partie auto régressive du modèle et le membre de droite sa partie moyenne mobile. On voit immédiatement ce qui différencie de tels modèles, essentiellement athéoriques, des systèmes d'équations simultanées, caractéristiques de l'approche de la Cowles Commission. Nelson [1972], en utilisant la méthodologie de Box-Jenkins, a pu montrer, sur la période d'estimation 1956-1966, que les prévisions obtenues à l'aide de modèles univariés de la classe AR(I)MA surclassaient, la plupart du temps, celles fournies par le « groS» modèle FMP (FMP est le nom abrégé du modèle macroéconométrique construit par la Réserve fédérale, le MIT et l'Université de Pennsylvanie.) De la souche Box-Jenkins devait naître l'économétrie des séries temporelles. Cette dernière conduisait à envisager le cycle économique d'une manière nouvelle. Représentative de cette tendance est la conférence sponsorisée par la Banque de réserve fédérale de Minneapolis, tenue en 1975 et dont les actes ont été publiés deux ans plus tard. Christopher Sims [1977, p. 1], qui édita ces actes, déclarait 14 d'emblée que « les méthodes actuellement utilisées pour les analyses de politique économique les plus quantitatives sont fondamentalement déficientes.» Et l'auteur de préciser qu'il existait deux grandes voies pour sortir de l'ornière des déficiences macroéconométriques et identifier correctement les modèles du cycle: i) se servir de méthodes statistiques plus élaborées pour prendre en compte la dimension dynamique des ces modèles, dimension largement ignorée par la théorie économique « statique» ; ii) l'autre voie consiste à octroyer beaucoup plus
Revue française d'économie, nO 4/vol XXIV
Thierry Aimar, Francis Bismans et Claude Diebolt
43
d'attention à la logique du comportement optimal en incertitude et donc à ne pas exclure « quelque variable que ce soit dans une équation du système sur la base d'une théorie a priori, parce que toutes les variables du système affecteront en général les anticipations. » Sims se rangeait évidemment dans ce second courant, ce qui le conduisit à préconiser l'utilisation des « autorégressions vectorielles» (VAR) qui ne sont rien d'autre qu'une généralisation multidimensionnelle des modèles auto régressifs - voir Sims [1980a]. En effet, leur forme (générale) se résume au système d'équations dynamiques: (12)
= (ylt,L, ]Kt)' les Ai' i = 1, L, p, sont des matrices de format K x K de coefficients et Ut = (ult,L ,UKJ un vecteur de bruits
OÙ]t
blancs (on parle également d'innovations) de moyenne 0 et de matrice de variance-covariance Ou. Par le théorème de Wold, tout modèle VAR - stationnaire, on y reviendra bientôt - admet une représentation moyenne mobile infinie:
Y/
= ",-HX
~ i=O
e .li 1
(13)
.
/-./
Dès lors, si l'on interprète les innovations comme des chocs sur les variables endogènes, leur propagation s'effectue, de manière dynamique, dans l'ensemble du système. L'effet d'un choc Ut sur le vecteur ]t+s' S > 0, est alors donné par la matrice des dérivées partielles d'élément général : al!.
(14)
By,t+s .. ==~ ~
uU j /
L'interprétation de (14) est directe: le multiplicateur eij mesure la réponse de la i ème variable endogène à une impulsion, à un choc dans j survenu s périodes auparavant. On obtient à partir de ces multiplicateurs ce que l'on appelle les fonctions de
Revu!:
fr.lIlÇ)'I±j' j=I""k} (B)~d~ = (B)e t ou encore sous la forme cj>(B)(l-B)d~ = O(B)e t où cj>(B) et cj>(B)etsont respectivement des polynômes de degrés p et q en l'opérateur retard B, d est le nombre de différenciations nécessaires pour rendre la série Yt stationnaire et et est un bruit blanc. Si une série est intégrée d'ordre un, les différences premières de la série exprimée en logarithmes correspondent aux taux de croissance de la série originelle. Dans ce cas, la non-stationnarité de la série implique que tous les chocs ont des effets permanents et durables. Le fait de concevoir des chroniques économiques comme des réalisations de processus stochastiques repose sur une longue tradition. Ses origines remontent à l'âge d'or de l'analyse du cycle que l'on trouve dans les travaux de Slutsky [1927], Yule [1927] et d'autres auteurs, qui, tous, cherchent à représenter une série temporelle par l'agrégation d'erreurs stochastiques et critiquent l'hypothèse que les variables économiques sont des fonctions du temps. La méthodologie ARIMA permet par conséquent de modéliser une série stationnaire dans le domaine du temps, tandis que l'analyse spectrale vise l'estimation des fréquences cycliques relatives à une série différenciée, c'est-à-dire exprimée en taux de croissance. Si les ondes longues existent, elles doivent se cacher dans les taux de croissance de la série étudiée. L'analyse spectrale est perçue comme le moyen approprié de les déceler dans la masse de toutes les autres oscillations. Un exemple repré-
o
Revue française d'économie, na 4/vol XXIV
102
Rainer Metz
sentatif de ce type de recherche est fourni par l'article de Van Ewijk [1982]. Ce dernier écrit que « pour éliminer la tendance, nous devons tenter deux conversions: les différences premières de la série originelle et celles des logarithmes de cette série. La première de ces conversions revient à supprimer une tendance linéaire; la seconde une tendance loglinéaire[ ... ]. De plus cette conversion revêt l'avantage d'avoir une signification immédiate et substantielle, car elle représente des taux de croissance. En fait, en utilisant cette conversion, nous recherchons tout simplement l'existence d'une onde longue dans les taux de croissance de la production. )} (p. 478). Van Ewijk conclut cependant que « la caractéristique la plus marquante commune à chaque spectre [des séries en volume] réside dans la concentration de la puissance, pour les pays européens, sur des oscillations d'une longueur de 10 à 15 ans [... ] )} (p. 485). Figure 3 Densités spectrales des cycles et des différences premières 1.4 Spectral Dcnsity
1.........·· Growth rates Pig Iron
- - Long
wavel
0.8
Note: Spectral density = densité spectrale. Growth rates Pig Iron = taux de croissance de la fonte. Long wave = onde longue.
Revue française d'économie, nO 4/vol XXIV
Rainer Metz
103
Illustrons à nouveau cette approche avec la production de fonte. L'ajustement d'un modèle à une série exprimée en logarithmes aboutit à un ARIMA (0, 1, 0), ce qui implique que les taux de croissance de la série sont un bruit blanc sans aucune composante cyclique. Si nous comparons le spectre des différences premières de la série en logarithmes à celui des résidus de la tendance tels qu'ils sont calculés par Kondratieff figure n° 3, nous voyons que les résidus de la tendance montrent des mouvements de basse fréquence. Ces mouvements n'apparaissent pas dans les différences premières. Ce résultat n'est pas spécifique à cette série, mais présente un caractère tout à fait général. Les procédures traditionnelles de décomposition conduisent à des cycles distincts, ce qui n'est pas le cas lorsqu'on utilise les différences premières. Le recours à la méthodologie ARIMA et à l'analyse spectrale des taux de croissance de la production de fonte confirme la conclusion de Van Ewijk relative aux taux de croissance du PIB : « on n'y peut trouver aucune trace d'onde longue». Comment est-il possible de résoudre cette énigme ?
Ondes longues et filtres linéaires Une solution semble être possible en se servant de la théorie des filtres (Stier [2001]). Cette théorie stipule que toute transformation d'une série temporelle est conçue comme un fIltre. La performance d'un filtre linéaire s'observe sur sa fonction de transfert. Il s'agit de manière générale d'une fonction de variable complexe de période 2n, qui peut par conséquent être écrite sous la forme: T(f) = 1 T(f) 1 ev"(j), Os f sO.5 où 1 T(f) 1 est la fonction de gain et n(f) la fonction de phase du filtre. Celle-ci indique de combien d'unités de temps l'output du filtre retarde par rapport à son input. La fonction de phase doit être identiquement zéro, pour toutes les fréquences. Le gain ou fonction de réponse fréquentielle d'un filtre montre comment
Revue française
d'~conomic. nO
4/vol XXIV
104
Rainer Metz
les différentes fréquences sont modifiées par le filtre, c'est-à-dire si elles sont réduites, éliminées ou amplifiées. Un point essentiel de la théorie est qu'il n'y a pas de solutions ad hoc telles que les moyennes mobiles ; les filtres doivent simplement être conçus d'une manière telle qu'ils rendent une fonction d'amplitude spécifiée a priori. Les bandes de fréquence sur lesquelles la valeur de la fonction de gain est égale à 1 (resp. 0) sont dites passebandes (resp. arrêt sur bandes; en anglais band-stop). Les filtres passe-bas, passe-haut et passe-bandes sont des exemples typiques des fonctions de gain recherchées. L'étude de la conception de filtres offre non seulement la possibilité de construire des filtres idéaux, mais aussi d'investiguer les caractéristiques, du point de vue de la théorie des filtres, de la plupart des méthodes de décomposition utilisées jusqu'à ce jour. Elle permet de vérifier, par exemple, si un type déterminé de transformation (une moyenne mobile) possède les caractéristiques nécessaires et ce, relativement aux objectifs de l'analyse. Dans ce contexte, on peut montrer à titre d'illustration que les différences premières correspondent à un filtre passehaut qui élimine la tendance et réduit dans une forte mesure les basses fréquences. La fonction de gain du filtre des différences premières (figure n° 4) fait voir que toutes les basses fréquences sont éliminées, tandis que les hautes fréquences sont amplifiées. Il n'est par conséquent pas surprenant que Van Ewijck n'ait pas décelé d'ondes longues dans ses données compte tenu qu'elles ont été filtrées par différences premières. Bien plus, on a pu argumenter que la plupart des transformations utilisées à ce jour (par exemple, les moyennes mobiles) ne présentaient pas les caractéristiques de filtrage appropriées à l'analyse des ondes longues. Pour qu'une telle analyse soit possible, il faudrait mettre au point un filtre idéal dont la fonction de gain serait spécifiée selon le contenu fréquentiel supposé de la composante de long terme et n'incorporerait pas de changements de phase. Si l'on réussissait à construire ce filtre idéal, il serait alors possible de décider si une série contient ou non des ondes longues. Dans ce cas, la fréquence de rupture  du filtre passe-haut de la figure n04 doit être sélectionnée en fonction des fréquences tendancielle Revue française d'économie, nO 4/vol XXIV
Rainer Metz
105
et cyclique supposées. Si, par exemple, la tendance correspond à toutes les fréquences supérieures à 60 ans, la fréquence de rupture de ce filtre passe-haut doit être ..1= 1/60 Le filtre passehaut associé serait alors tel qu'il éliminerait toutes les fréquences inférieures à À et conserverait celles égales ou supérieures à cette valeur. Figure 4 Fonction de gain des filtres passe-haut et des différences pre., mleres 2.00
1-- - gain function of tirsl diff.
-
Higb-pass
1
1.75
1.50 -
1.25~
I.()()~
,/
1
,/ ,/ ,/
,/
0.75~
,/ ,/ ,/ ,/ ,/,/
0.50
,/ ,/ ,/ ,/
,/ ,/
,/
0.25 -
,/ ,/
/
,/ "-_o.-_o.-_l.Ic-c~~'--'-'-~'--'-'-~.~_l"
0.00
0.25
0.50
0.75
1.00
1.25
1.50
~-"-,--,~Lc
1.75
2.00
L'--'--.L
2.25
~"~_.-'-!~-'-'--!~~"
2.50
2.75
l ...
3.00
Note: Gain function of first diff. = fonction de gain des différences premières. High· pass = passe-haut.
Plusieurs filtres ont été développés qui tentent de mettre en œuvre des fonctions de gain idéales en se servant de bandes à passer ou au contraire à conserver, pré-spécifiées, ainsi que d'une phase exactement nulle. Dans les années 1980 déjà, Stier et ses collaborateurs avaient réussi à concevoir un filtre qui opère complètement dans le domaine des fréquences (Metz et Stier, [1992]). L'utilisateur peut préciser à l'avance quelles sont les bandes à passer et celles qui sont à conserver. De même il peut
Revue française d'économie, n° 4/vo! XXIV
106
Rainer Metz
choisir entre les filtres passe-haut, passe-bas, arrêt sur bande et passe-bande, ou entre de multiples filtres à crans plus spécialement destinés aux ajustements saisonniers. Une telle méthode de filtrage a été largement utilisée pour détecter les ondes longues ; son application confirme leur présence dans plusieurs séries économiques (Metz [1992] ; Metz [2008]). Dans les années 1980 également, Hodrick et Prescott [1980, 1997] ont proposé un filtre (filtre HP) qui est à ce jour le plus utilisé dans l'analyse des cycles économiques. Il s'agit en fait d'un filtre passe-bas qui lisse la série en fonction d'un paramètre, habituellement noté À, défini par l'utilisateur. Plus élevé est À, plus lissée est la composante filtrée. Bien qu'il soit possible de calculer la fonction de gain du filtre HP conditionnellement au paramètre de lissage, il n'est par contre pas possible de spécifier une fonction de gain a priori. Toutefois, dans la pratique, le paramètre de lissage peut être choisi d'une manière telle que le filtre approche la fonction de gain désirée. Metz [2002] démontre que ce type de filtre est bien adapté à l'analyse des ondes longues moyennant le choix d'une valeur appropriée pour À. Récemment, d'autres filtres ont été proposés. Les plus populaires d'entre eux sont les filtres de Baxter-King ([1999], abrégé par BK) et de Christiano-Fitzgerald ([2003], abrégé par CF). Ces auteurs ont essayé d'approximer une fonction de gain pré-spécifiée à l'aide d'une suite symétrique de pondérations de filtrage. De tels filtres sont dits être à fonction de réponse finie à une impulsion (FIR, c'est-à-dire Finite-Impulse-Responsefilters). Formellement, on les note:
JÇ
=
ba~+bj~_j + L + bN~_N
Un filtre FIR est déterminé par la suite des pondérations
ba, bj, L, bN Les moyennes mobiles sont par exemple des filtres FIR particulièrement simples. Pour obtenir des fonctions de gain exactes pour les basses fréquences, beaucoup de poids de filtrage sont nécessaires. Ceci présente l'inconvénient que de nombreuses valeurs de la série sont perdues en ses extrémités. Par exemple, un filtre qui utiliserait 31 pondérations perdrait 15 observations à chacune de ses extrémités. La figure n° 5 montre les fonctions
Revue
franç.li~e
d'économie, n° 4/vol XXIV
Rainer Metz
107
de gain 4 du filtre BK, passe-bandes, pour N= 13 et N=31. Plus élevé est le nombre de pondérations du filtre, meilleure est l'approximation de la fonction de gain spécifiée. Il reste que la perte de données, spécialement pour les séries chronologiques courtes, constitue un sérieux problème. Pour y remédier, Christiano et Fitzgerald [2003] ont développé un filtre FIR asymétrique. Il devrait être évident qu'un tel filtre ne rend pas la même fonction de gain sur l'échantillon tout entier. Figure 5 Fonctions de gain du filtre BK (N=13, N=31) Frequency Response Function (N=31)
Frequency Response Function (N=13)
1.2,------------------,
12,------------------,
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
IV
~A,...,.--------_I
0.0
V
.().2+-~~~~~~-~,_____~__1
.00
.05
.10
.15
.20
.25
.30
.35
.40
.45
.50
.20
.25
.30
.35
cycleslperiod Actual
Ideal 1
.40
.45
.50
cyclesfperiod Aclual
Idealj
Note.' Frequency Response Function = fonction de réponse fréquentielle. Actual = réel. Ideal = idéal. Cycle/period = cycle/période.
Alors que le filtre BK a été rapidement utilisé pour l'analyse des ondes longues (Kriedel [2009]), il n'en va pas de même du filtre CF asymétrique 5• Il serait en conséquence intéressant de comparer - même s'ils sont construits de manière complètement différente -les performances respectives du filtre de Stier et de celui de Christiano-Fitzgerald, le tout sur l'exemple de la production d'acier. Pour chacun d'eux6 , le passe-bande est défini par l'intervalle [40,20]. Comme on peut le constater sur la figure n06a, tous deux reproduisent clairement une espèce d'onde longue. Les amplitudes des cycles filtrés sont différentes, mais les points de retournement sont parfaitement coordonnés. De surcroît, nous avons également représenté le filtre BK par le même passe-bande et N= 13. Evidemment, la composante passeRevue françaisl: d'économie, nO 4/vol XXIV
108
Rainer Metz
bande de Baxter-King est très différente de celle des autres filtres, ce qui s'explique principalement par le fait que, avec N= 13, l'amplitude du passe-bande BK constitue une mauvaise approximation de la fonction de gain idéale. Figure 6 Composantes filtrées de la production de fonte
o.oJ
a)
~":'---BK Band-pass (N~13) SI;er Band-pass [40.z(l]l - - CF Band-pa55 [40,20J _ _ _ _
__J
~18~40~~lit50~~~" . -'-:-:18'=70C-"-~~18:'cc80~ -~-- "~'I~OÔ ~~19L.I0~~-19'--c'20 5.5
r
b)
5.0'
4.5
1--- Stier Band-;top [40,20J
-
~;;;-nJ
4.0 1870
Note: BK band-pass (N=13) = passe-bande (N=13). Stier band-pass [40, 20] = passe-bande de Stier [40, 20]. CF band-pass [40, 20] = passe-bande CF [40, 20]. Log pig iron = ln production de fonte. Stier band-stop = arrêt sur bande de Stier.
Quoique les filtres CF et de Stier semblent être des instruments fiables pour l'analyse des ondes longues, certains problèmes demeurent. Le premier concerne la détermination des bandes à passer et à retenir. On peut montrer à cet égard que la forme des composantes filtrées se modifie parfois fortement à la suite de légères variations de ces fréquences. La deuxième difficulté concerne la pertinence des composantes filtrées. On peut se faire une idée du problème en examinant comment la série aurait évolué si elle ne comportait pas d'onde longue. Pour ce faire, il suffit d'utiliser un filtre arrêt sur bande (band-stop) qui élimine toutes les fréquences correspondant aux fluctuations longues.
Revue française d'économie. n° 4/\'01 XXIV
Rainer Metz
109
Comme on peut le voir sur la figure nO 6b la série de production de fonte sans onde longue est presque identique à la série originelle. Le troisième problème tient au fait que les filtres idéaux reproduisent les composantes fréquentielles indépendamment du processus générateur des données. En appliquant par exemple un filtre passe-bande à un bruit blanc, on obtiendrait une série qui serait sans signification du point de vue du processus générateur des données. Tout en laissant de côté, pour l'instant, cet ensemble de problèmes, on peut avancer la proposition que les filtres idéaux sont un instrument important pour l'analyse des fluctuations longues, des tendances et des cycles économiques. Que les ondes longues détectées par de tels filtres constituent ou non une part pertinente d'une série ou qu'elles soient le produit d'un effet Slutsky est une question fondamentale, très souvent et âprement discutée dans la littérature.
Ondes longues et tendances stochas• tIques Jusqu'à présent nous avons montré que les filtres parfaits sont essentiels à l'analyse des ondes longues. Les différences premières sont considérées comme de mauvais filtres passe-haut qui éliminent les mouvements de basse fréquence à un degré élevé. Le fait que les modèles ARIMA et l'analyse spectrale ne fournissent aucune information sur les ondes longues des séries exprimées en taux de croissance a été vu comme une caractéristique du filtre de différenciation. L'hypothèse de tendance stochastique proposée par Nelson et Plosser [1982] a remis complètement en question cette opinion. Cette hypothèse revient à affirmer que nombre de séries temporelles suivent une tendance stochastique et qu'en conséquence, la seule méthode correcte d'élimination de la tendance réside dans la différenciation des séries en
Revue française d'économie, nO 4/vol XXIV
110
Rainer Metz
question. La forme la plus simple d'une tendance stochastique est la marche aléatoire
T: = T:-I
+ Et
{T:} étant la composante tendancielle et ft: t} le terme d'erreur. En prenant les différences premières, puis en utilisant l'opérateur retard B T:-T:-I=ET (J - BJT: = Et on obtient un processus bruit blanc. Parmi les généralisations de ce processus, on peut citer la marche aléatoire avec dérive
Lu}
T: = f.l
+T:-I + Et T:-T:+I=f.l +Et (J - BJT: =f.l +Et ainsi que la marche aléatoire intégrée (J - Bj2T: = f.l + Et qui doit être différenciée deux fois afin de rendre la série stationnaire. Comme le polynôme en l'opérateur retard de ce type de processus admet une ou deux racines unité, on les appelle des processus racine unité. Par ailleurs, puisque la non-stationnarité de ces modèles résulte exclusivement de l'intégration des erreurs stationnaires, on les qualifie de processus intégrés. Dans le cas d'une seule racine unité, le processus est intégré d'ordre un, ce qui est noté 1(1). S'il y en a deux, le processus est dit être intégré d'ordre deux, c'est-à-dire 1(2). Trois? questions au moins se posent lorsque l'hypothèse de tendance stochastique est retenue: quelles sont les conséquences d'une « mauvaise}) élimination de la tendance? Comment peuton tester l'existence d'une tendance stochastique? Comment les tendances stochastiques peuvent-elles être estimées? Chan et al. [1977] ont été les premiers à montrer que la détendancisation (detrending) linéaire des marches aléatoires conduit généralement à des cycles dont la durée correspond à celle des ondes longues. C'est également le cas lorsqu'on utilise des filtres idéaux. Harvey et Jager [1993] ont montré, par exemple, Revue françai..,c d'économie, n° 4/vo1 XXIV
Rainer Metz
111
que le filtre HP standard produisait des cycles artificiels de long terme lorsque la série suivait un processus 1(1). La fonction de gain citée plus haut ne se vérifie en fait que pour une série 1(0), mais pas pour les processus intégrés. Toute composante d'onde longue dérivée grâce aux procédures de décomposition traditionnelles ou aux filtres idéaux est par conséquent soupçonnée d'être un artefact. Il s'en est suivi une critique générale de l'utilisation des filtres dans l'analyse de la tendance et du cycle. 8 Le fait d'admettre la présence d'une tendance stochastique a-t-il des conséquences lorsque la série suit une tendance temporelle ? Dans ce cas, des ondes longues possibles sont filtrées et éliminées avec la composante de tendance. Si les cycles longs existent, ils constituent une partie de la tendance. Les exemples cités précédemment pour la production de fonte illustrent ce problème. Si la série suit un processus 1(1) les composantes filtrées sont des artefacts. Si elle suit un processus 1(0), les différences premières éliminent toutes les basses fréquences. Ces considérations nous amènent à affirmer qu'il est primordial de savoir si une série est intégrée ou pas. Pour cela, de nombreux tests, dits de racine unité, ont été mis au point. Leurs résultats dépendent fortement de l'hypothèse formulée sur la tendance, à la fois sous l'hypothèse nulle et sous l'alternative. Il faut néanmoins préciser que tous les tests de racine unité ont peu de puissance relativement aux processus quasi intégrés, c'està-dire ceux dont la racine est proche du cercle unité. Ce qui est le cas lorsque des ondes longues existent. La plupart de ces tests, par exemple ceux du Dickey-Fuller augmenté (ADF) et du Phillips-Perron (PP), postulent un processus de racine unité sous l'hypothèse nulle et une tendance stationnaire sous l' alternative 9 . D'autres tests, par exemple celui de Kwiatkowski-Phillips-SchmidtShin [1992] (KPSS), postulent un processus stationnaire sous l'hypothèse nulle et une tendance stochastique sous l'alternative. Dans l'analyse des ondes longues, le modèle dit de rupture de tendance (TB pour trend-break), qui considère une tendance linéaire brisée comme une alternative à une tendance stochastique, est d'un intérêt tout particulier 1o . Les séries temporelles en général suivent une tendance linéaire mais le niveau et/ou la pente de
Revue française d'économie, n° 4/vol XXIV
112
Rainer Metz
cette tendance peuvent se modifier par suite de chocs de grande ampleur, fussent-ils peu fréquents. Les résultats des tests TB ne sont pourtant pas tout à fait concluants. Pour la plupart des séries du PIB, l'hypothèse de racine unité peut être rejetée si les deux guerres mondiales, la grande dépression ainsi que la phase de croissance accélérée débutant après la Seconde guerre mondiale, sont analysées comme des chocs de grande ampleur. Ces tests soulèvent plusieurs problèmes, à savoir la datation de ces ruptures et le fait de savoir si les chocs modifient le niveau et/ou la pente de la tendance. Un modèle TB est également critiquable dans la mesure où, sous l'alternative, il peut conduire à des rejets erronés de l'hypothèse de racine unité (Kim et Perron [2009]). Afin d'illustrer notre propos, nous allons réaliser plusieurs tests sur la série de production de fonte de 1840 à 1914 11 • D'après le test ADF, avec un retard égal à 0 (choisi d'après le critère de Hannah-Quinn (HQ»), la statistique de test ta = -1.93 de sorte que l'hypothèse nulle de racine unité nulle ne peut être rejetée 12 • De plus, le test PP avec un retard d'une longueur égale à 0 (toujours d'après le critère HQ) ainsi que la statistique de test ta = -1.55 13 ne permettent pas le rejet de l'hypothèse nulle de racine unité. Ces conclusions s'accordent avec le test KPSS pour lequel l'hypothèse nulle de stationnarité peut être rejetée 14 • D'après ces tests qui ne considèrent que deux types de tendance, une tendance J(1) et une tendance temporelle linéaire, on peut supposer que la série est intégrée d'ordre un et que les différences premières constituent la méthode correcte d'élimination de la tendance. Ces résultats risquent cependant d'être remis en question si nous considérons un modèle de rupture de tendance (TB) comme alternative au modèle de racine unité. Nous n'effectuerons pas de tests formels sur rupture de tendance, mais il semble plausible de supposer l'existence, en 1872, d'une telle rupture dans la pente d'une tendance linéaire. Le trend qui en découle est représenté sur la figure n° 7d. Si les tests indiquent la présence d'une composante tendancielle stochastique, l'étape suivante consistera à estimer les composantes engendrant la série temporelle. Comme dans la procédure de décomposition classique, le point de départ est
Rcvuco/lomic, nO 4/vol XXIV
Olivier Damette et Zohra Rabah
149
Puisque le modèle originel de Hamilton est incapable de tenir compte du changement de rythme de croissance pour l'ensemble de la période considérée, nous estimons à nouveau le modèle dans la lignée de Kim [1994]. Ce dernier préconise l'introduction d'une variable binaire dans la moyenne du processus pour prendre en compte le moindre taux de croissance du PIE à la fin de l'année 1979. Ainsi, l'équation (2) précédente devient:
où Dt est une variable binaire égale à un pour la période 1979T32009T3. Le tableau n° 2 présente les estimations sur la seconde sous-période (2e colonne) comparées à celles issues du modèle avec variable binaire et ce, pour toute la période étudiée (3 e et 4 e colonnes). Comme nous pouvons l'observer dans la troisième colonne du tableau n° 1, le paramètre associé au régime de croissance forte est positif, mais non significatif, alors que le paramètre '" 1* associé au régime de croissance faible est négatif et significativement différent de zéro 1a. Tableau 2 Estimation du modèle de Hamilton par maximum de vraisemblance (1 ) 1979T3-2009T3 (Sans variable binaire) 0.943 (0.077) PIl 0.578 (0.236) Poo -0.147 (0.265) {la 0.522 (0.110) {lI {lI;
-
{l:
-
Logvraisemblance
-66.226
(2)
(3)
1970T1-2009T3 (Avec variable binaire) 0.919 (0.055) 0.962 (0.027) 0.704 (0.227) 0.667 (0.188) -0.367 (0.327) -0.268 (0.247) 0.981 (0.162) 1.003 (0.143) 0.826 (0.472) -0.509 (0.200) -0.496 (0.162) -97.748
-98.434
Lorsque l'on analyse les résultats du modèle à variable binaire, il ressort que le paramètre associé au taux de croissance Revue franç 1,96). Un examen complémentaire de la distribution du taux de croissance et un test de normalité de type Jarque-Bera permettent d'arriver à la même conclusion. La valeur de la « skewness» est en effet non nulle et la distribution du taux de croissance n'est donc pas symétrique autour de la moyenne. La littérature économétrique s'est intéressée de manière plus approfondie à la question de la justification du recours à certains types de modèles non linéaires plutôt que linéaires. Il en ressort qu'avant d'utiliser un modèle à changement de régime markovien, on devrait tester l'hypothèse d'existence de plusieurs états de régimes contre celle d'existence d'un seul état, cette dernière étant donc équivalente aux modèles linéaires. Il s'agit de comparer un modèle linéaire auto régressif à un modèle à changement de régime markovien. Les difficultés de ce type de test résident dans la présence des paramètres de nuisance (Poo et Pli ici) sous l'hypothèse alternative, alors qu'ils ne sont pas identifiés sous l'hypothèse nulle, de même que la singularité de la matrice d'information sous l'hypothèse nulle. En outre, les différents tests de spécification habituellement utilisés ne suivent plus une distribution asymptotique standard: notons que le problème de la non-identification des paramètres de nuisance est formalisé dans Garcia ([1998], pp. 765-766. Plusieurs travaux ont vu le jour pour remédier à ces problèmes: Davies [1977, 1987], Hansen [1992] ou encore Garcia [1998]. La méthode de Garcia [1998], moins « coûteuse» empiriquement que les précédentes approches, reconsidère le problème du test comme le supremum (au sens mathématique) d'une statistique du rapport de vraisemblance (Sup LR). Le test de Carrasco, Hu et Ploberger [2004] II est le plus récent en la matière l2 • Asymptotiquement équivalent au test de Garcia, il s'avère moins complexe à implémenter, car il nécessite seulement l'estimation du modèle sous l'hypothèse nulle de linéarité. En revanche, les valeurs critiques doivent êtres tabulées par « bootstrap paramétrique».
Revue
frallç.li.~t'
d'économie, nO 4/vol XXIV
Olivier Damette et Zohra Rabah
153
Calendrier du cycle A partir des résultats du modèle à changement de régime markovien que nous avons discutés plus haut, il est possible de dresser le calendrier du cycle de l'économie française. Les points de retournement (pics et creux) sont obtenus à partir des règles définies dans la section précédente. Les durées des phases sont simplement calculées en comptabilisant le nombre de trimestres séparant un pic et un creux. Enfin, la durée moyenne d'une récession est calculée selon la formule (3) précédemment explicitée. La formule (4) permet d'obtenir de façon analogue la durée moyenne d'une phase d'expansion. Pour évaluer la pertinence de nos résultats, nous comparons les estimations obtenues à partir du modèle à changement de régime à celles issues de la méthode non paramétrique de Bry-Boshan [1971], étendue aux données trimestrielles par Harding et Pagan [2002]. Cette méthode algorithmique bien connue (voir Ferrara [2009] ou l'introduction de ce numéro pour plus de détails) présente l'avantage d'être totalement transparente et d'être facilement reproductible par d'autres économistes. D'après nos calculs, la durée moyenne d'une phase de récession est de 2.3 trimestres selon l'approche non paramétrique. Toutefois, cette méthode, fondée sur la recherche de maxima et minima locaux ne prend pas en compte les données de la dernière récession; la moyenne est donc biaisée à la baisse. La durée moyenne d'une récession calculée à partir du modèle à changement de régime markovien est identique sur la période 1970-2008 mais puisqu'elle intègre la récession contemporaine, est plus élevée sur l'ensemble de l'échantillon (3). A l'exception de la récession de 2008-2009, les phases de récession sont généralement très brèves et mettent en avant le caractère asymétrique de la durée des phases du cycle. Il ressort par ailleurs que la crise de 1992-1993 n'a duré que deux trimestres et été relativement peu sévère, son amplitude (0,8%) étant en outre bien inférieure à celle des autres crises (1,38% et 1,4% pour les deux premières). Cela peut expliquer la relative difficulté du modèle à changement de régime markovien à identifier cet épisode de crise. Le fait
Revue française d'économie:, nO 4/vol XXIV
154
Olivier Damette et Zohra Rabah
que le modèle ait facilement détecté la dernière crise (alors que son amplitude est pourtant comparable) résulte de la relative longueur de la récession. D'une manière générale, les résultats dérivés à partir du modèle de Hamilton sont donc tout à fait comparables à ceux obtenus à partir de l'approche non paramétrique de Harding et Pagan [2002] et donc au calendrier du NBER. De manière plus détaillée, on remarque que la durée des phases d'expansion s'accroît depuis les années 1970 bien que l'amplitude d'une période de croissance soit plus restreinte depuis la fin des Trente Glorieuses. Au final, la durée moyenne d'un cycle de l'économie française serait de sept ans sur la période considérée. Tableau 3 Calendrier du cycle français de 1970 à 2009 Bry-Boshan
MSM Kim
Durée
Pics
1974 :T3
1974: T3
Creux
1975 : T1
1975: T1
2
Pics
1980 : T1
1980: T1
20
Creux
1980: T4
1980: T4
3
Pics
1992: T3
1992: T3
46
Creux
1993: T1
1993: T1
2
Pics
2008: T1
2008: T1
60
Creux
-
2009: T2
5
Durée moyenne d'une récession
2,3
3
Note: MSM Kim = modèle de Switching Markov avec variable binaire.
Revue française d'économie, nO 4/vol XXIV
Olivier Damette et Zohra Rabah
155
Conclusion Au total, l'application du modèle à changement de régime markovien a permis d'identifier quatre récessions en France sur la période 1970-2009, en confirmation des phases de contraction généralement reconnues. De plus, cette périodisation recoupe entièrement celle obtenue à partir de l'application de l'algorithme de Bry-Boshan à la série du PIB trimestriel. Un débouché tout naturel de cet article consisterait à réestimer le modèle selon une méthodologie bayésienne, dont l'avantage principal est de traiter à la fois les paramètres du modèle et les états inobservables comme des variables aléatoires et d'apprécier ainsi la robustesse des résultats obtenus.
Les auteurs tiennent à remercier Serge Garcia, Francis Bismans, les participants au séminaire du BETA et un rapporteur anonyme pour leurs commentaires et leur aide précieuse, ainsi que James Hamilton pour sa disponibilité à répondre à leurs questions. Olivier Damette est maître de conférence à l'Université Paris-Est Créteil. Adresse: Université Paris-Est Créteil, Faculté de sciences économiques et gestion, ERUDITE, Mail des mèches, 61 avenue du Général de Gaulle, 94010 Créteil. Email:
[email protected] Zohra Rabah est doctorante à l'Université Nancy 2. Adresse: Université Nancy 2, Faculté de Droit et de Sciences Economiques, BETA, 13 place Carnot, 54000 Nancy. Email:
[email protected] Revue française d'économiL', nO 4/vo! XXIV
156
Olivier Damette et Zohra Rabah
Annexe L'estimation du modèle L'estimation du modèle à changement de régime markovien porte sur les paramètres autorégressifs et les probabilités de transition. Le vecteur à estimer est donc le suivant: (5) Tous les paramètres ont été définis préalablement aux pages 143 et 144. A la suite de Hamilton [1989, 1994], ces paramètres sont obtenus par maximisation de la vraisemblance en utilisant un algorithme de filtrage, c'est-à dire une suite d'opérations mathématiques permettant de ne retenir que certaines valeurs de la série étudiée. L'algorithme, très proche du filtre de Kalman, permet de construire la fonction de vraisemblance du modèle autorégressif ainsi que les probabilités conditionnelles aux observations, dites filtrées, de la variable latente (voir Hamilton [1989]). La caractéristique première du modèle est que l'état St est inobservable. Toute l'inférence est fondée uniquement sur le comportement observé de Yt' La méthode d'estimation est dès lors la suivante. Dans un premier temps, on estime le vecteur des paramètres fi. explicité plus haut, c'est-à-dire les paramètres du modèle auto régressif, les deux moyennes du processus, les deux probabilités de transition et la variance. L'inférence va prendre la forme de deux types de probabilités pour lesquelles St = i, pour i = 1,2, ne dépend pas uniquement de la valeur de St_1 mais aussi des (du ?) taux de croissance réellement observés. La réunion de ces derniers en un vecteur notée Ot permet de compiler ainsi l'information disponible au temps t: Ot = (yt' Yt-I'Yt-2' k, YI' yoJ. Hamilton [1989] présente un algorithme de filtrage itératif permettant de calculer la vraisemblance du modèle ainsi que Revue française d'économie, nO 4/vol XXIV
Olivier Damette et Zohra Rabah
157
les probabilités de régime, conditionnellement aux observations. A chaque itération, il permet de déterminer la vraisemblance conditionnelle pour l'observation t à partir de l'équation suivante: 2
f(Yt IOt_I;8)= If(Yt ISt =i,Ot_I;8)p(St =iIO t_I ;8)
(6)
;=1
Le premier terme du membre de droite représente la densité conditionnelle du taux de croissance Yt sachant l'état de régime dans lequel se trouve l'économie (St = i). Le second terme, P(St = il 0t_1 ; ()), explicite la probabilité de prévision de l'état de l'économie. Cette dernière, également fournie par l'algorithme, est le produit des probabilités de transition Pij par des probabilités a posteriori notées P(St_1 = j 0t_1 ; ()). En appliquant la règle de Bayes, le filtre permet de calculer les probabilités de régime conditionnellement au passé, P(St = il 0t ; ()), appelées probabilités filtrées: 1
La probabilité filtrée est ainsi le rapport entre les vraisemblances conditionnelles des états de régime pour l'observation t, pondérées par les probabilités de prévision. Finalement, la vraisemblance est obtenue à partir du produit des vraisemblances conditionnelles (cf formule (6)) calculées à chaque itération. Ainsi, pour une valeur donnée du vecteur (), la log-vraisemblance conditionnelle est définie par: T
InL( 8) = Ilnf(Yt 10/_1;8) /=1
Une fois, l'inférence réalisée, et la log-vraisemblance calculée, on p~ut déterminer l'estimateur du maximum de vraisemblance 8 MLE en utilisant les techniques habituelles d'optimisation numérique. Dans le cas des variables inobservables, la recherche de cet estimateur se heurte néanmoins fréquemment à la présence de plusieurs maxima locaux (voir Rabault [1993]).
ReUIL· françaj.~l" d'économie, n° 4/vol XXIV
158
Olivier Damette et Zohra Rabah
Le choix des paramètres initiaux et plus particulièrement des probabilités de transitions initiales, est à cet égard crucial. Selon Hamilton [1989, 1994], il existe plusieurs options pour effectuer ces choix. Si St suit une chaîne de Markov irréductible et ergodique, il est possible d'imposer P(So = il 0 0 ; 8) égale à la probabilité non conditionnelle P(So = ;). Plus précisément, les probabilités non conditionnelles sont définies comme:
p(So=O)=
I-PII 2- Poo - PlI
=1f1
p( So = 1) = 1- p( So = 1) = 1f2 La probabilité non conditionnelle P(So = i 1 0 0 ; 8) sera alors égale au vecteur n = (n l , n 2). Deux autres options sont également possibles. La première revient à fixer simplement P(So = i 1 0 0 ; 8)= 1/2 alors que la seconde consiste à estimer la probabilité initiale elle aussi par maximum de vraisemblance (Hamilton, [1994], p. 695). Au total, l'inférence probabiliste sera basée sur les probabilités filtrées fournies par le filtre de Hamilton, mais aussi sur un second type de probabilités dites lissées. Ces dernières, notées P(St = i 1 DT; 8) recensent l'intégralité des valeurs passées de l'échantillon. Elles sont nécessaires pour estimer l'état de régime en chaque point du temps et sont calculées à l'aide d'un algorithme récursif proposé par Kim [1994]. Hamilton [1989] a également proposé un algorithme de calcul des probabilités lissées. Mais cette technique, appelée « espérance-maximisation », est d'une mise en œuvre lourde, puisqu'elle nécessite d'utiliser un grand nombre de fois le filtre (voir Rabault [1993]). Lalgorithme de Kim [1994] est en conséquence mis en œuvre dans le présent article 13 • Il repose sur les probabilités filtrées précédemment calculées et les probabilités lissées jointes consécutives. Ces probabilités filtrées permettent de calculer les prévisions à!' ordre un exprimées comme P(St+11 0t). On aboutit finalement à la probabilité lissée suivante:
Revue françaisl' d'économie, n° 4/vol XXIV
Olivier Damette et Zohra Rabah
159
Le calcul s'effectue de manière itérative, élément par élément. L'algorithme est initialisé par le résultat de la dernière itération à savoir la dernière probabilité filtrée: peST = il pour t = T.
nT ; (})
Revue fr,lIlçaÎ.\c d'écol1omil', n° 4/vo[ XXIV
160
Olivier Damette et Zohra Rabah
Notes 1. Bien que l'objet de l'article ne soit pas la datation du cycle, on y trouve pourtant une contribution du modèle à changement de régime markovien appliquée à la France. Il s'agit, à notre connaissance, de l'une des seules applications de ce genre pour la France depuis Rabault [1993]. 2. Au sens où le modèle de Hamilton a permis de reproduire fidèlement les fluctuations cycliques de l'économie américaine. 3. Switching Markov dans la terminologie anglo-saxonne. 4. Voir Piger ([2007], p. 28) et Chauvet et Hamilton ([2006], p. 35) pour d'autres interventions sur la pertinence du modèle de Hamilton. 5. On notera par ailleurs que le processus autorégressif est ici indépendant de St. Il est cependant possible de faire dépendre les paramètres autorégressifs et la variance du bruit blanc du régime dans lequel l'économie se situe l'économie à chaque période. 6. Il est possible de postuler trois types de régimes différents : un régime de
RC:VlH':
française: d'économie, nO 4/vol XXIV
croissance forte, un régime de croissance faible et un régime de récession. Voir par exemple Ferrara [2003]. 7. Pour choisir le nombre de paramètres autorégressifs, nous estimons un modèle SARIMA pour différents retards. 8. Il s'avère qu'après vérifications, le choix des paramètres initiaux ne modifie pas les résultats de manière significative dans notre étude. 9. Voir par exemple Bosquet et Fouquin [2009] sur ce point précis.
10. Pour cette raison, nous estimons donc uniquement #1' et ne tenons plus compte de #0' (4 c colonne). 11. Il est possible de rencontrer la même référence dans la littérature citée comme Carrasco et al. [2007]. 12. Le lecteur intéressé trouvera une synthèse formalisée dans Morley et Piger ([2009], pp. 41-44). 13. Hamilton lui-même a recours à l'algorithme de Kim [1994] dans plusieurs de ses travaux. Voir, par exemple, Chauvet et Hamilton [2006].
Olivier Damette et Zohra Rabah
161
Références P. Allard [1994]: Un repérage des cycles du PIB en France depuis l'après-guerre, Economie et prévision, 112, pp. 19-34. J. Anas et L. Ferrara [2002] : Detecting Cyclical Turning Points: the ABCD Approach and Two Probabilistic Indicators, paper presented at the 26th Ciret Conference in Taiwan, octobre.
Economies and Finance Review 3, 4, pp. 54-75. M. Chauvet et J. Hamilton [2006]: Dating Business Cycle Turning Points, in
Nonlinear Time Series Analysis of Business Cycles, eds. C. Milas, P. Rothman, and D.van Dijk, Elsevier, North Holland.
J. Anas, M. Billio, L. Ferrara et M. Lo Duca [2007] : A Turning Point Chronology for the Euro-zone, working paper, na 33, University of Venice.
M. Chauvet et J. Piger [2003] : Identijjing Business Cycle Turning Points in Real Time, Federal Reserve Bank of St. Louis
Bellone [2006]: Une lecture probabiliste du cycle d'affaires américain, Economie et
M. Chauvet et J. Piger [2004]: A Comparison of the Real- Time Performance of Business Cycle Dating Methods, Journal
prévision, na 172, pp. 63-81. C. BoutheviJ1ain [1996]: Les cycles des grands pays industrialisés. Des croissances plus proches mais des zones déphasées, Eco-
nomie et statistique, 298, na l, pp. 7191. C. Bosquet et M. Fouquin [2009] : Productivité du travail: les divergences entre pays développés sont-elles durables ?, doc.
de travail du CEPII, na 2009-02. G. Bry et C. Boschan [1971]: Cyclical Analysis ofTime Series: Selected Procedures and Computer Programs, NBER Techni-
cal Paper, na 20. A.F. Burns et W.C. Mitchell [1946]: Measuring Business Cycles, Nber, Columbia University Press. M. Carrasco, L. Hu et W. Ploberger [2004]: Optimal Test for Markov Switching, working paper, University of
Rochester. L. Charfeddine et D. Guégan [2008]: Is it Possible to Discriminate Between Different Switching Regressiom Models? An empirical Investigation, Euro-Mediterranean
Review, 85, pp. 47-61.
of Business and Economic Statistics. R.B. Davies [1977]: Hypothesis Testing when a Nuisance Parameter is Present Only Under Alternative, Biometrica, 64,
pp. 247-254. C. Doz et F. Lenglart [1999] : Analyse factorielle dynamique: test du nombre de facteurs, estimation et application à l'enquhe de conjoncture dam l'industrie, Annales
d'économie et statistique, 54, pp. 91128.
J. Fayolle [1993] : Décrire le cycle économique, Observations et diagnostics économiques, Revue de l'OFCE, 45, juin, pp. 161-197. L. Ferrara [2003] : A Three-regime Realtime Indicator for the US Economy, Economies Letters, 81 (3), pp. 373-378. L. Ferrara [2009]: Caractérisation et datation des cycles économiques en zone euro, Revue économique, 60(3), pp. 703-712.
R. Garcia [1998]: Asymptotic Null Distribution of the Likelihood Ratio Test in Markov Switching Models, International
Economie Review, 39, pp. 763-788.
Revue française d'économie, nO 4/vol XXIV
162
Olivier Damette et Zohra Rabah
J.D. Hamilton [1989]: A New Approach to the Economic Analysis ofNonstationary Time Series and the Business Cycle, Eco-
nometrica, 57, pp. 357-384. J.D. Hamilton [1994]: Time Series AnaIysis, Princeton University Press, Princeton. J.D. Hamilton [2003]: Comment on a Comparison ofTwo Business Cycle Dating Methods, Journal of Economic Dynamies & Control, 27, pp. 1691-1693.
J.D. Hamilton [2005]: Regime-Switching Models, in New Palgrave Dietionary of Economics, 2nd ed., eds. S. Durlauf and L. Blume, Palgrave McMillan Ltd. B.E. Hansen [1992]: The Likelihood
C. J. Kim [1994]: Dynamic Linear Models with Markov-switching, Journal of Econometrics, 60, pp. 1-22.
C. J. Kim et C. Nelson [1999]: StateSpace Models with Regime Switching: and Gibbs-Sampling Classieal Approaches with Applications, Cambridge: MIT Press. 1. Mintz [1969]: Dating Postwar Business Cycles: Methods and their Application to Western Germany, 1950-1967, Occasio-
nal Paper, na 107, National Bureau of Economie Research, New York. J. Morley et J. Piger [2009]: The Asymmetric Business Cycle, working paper. S.N. Neftçi [1984]: Are Economic rime Series Asymmetric over the Business Cycle,
Ratio test Under Non-standard Conditions: Testing the Markov Switching Model of GNP, Journal of Applied Econome-
Journal of Politieal Economy, 92, pp. 307-328.
tries, 7, pp. 61-82.
C.R. Nelson et C.1. Plosser [1982] :
D. Harding et AR. Pagan [2002a] : Dis-
Trends and Random \Vttlks in Macroeconomic Time Series: Some Evidence and Implications, Journal of Monetary Econo-
secting the Cycle: A Methodological Investigation, Journal of Monetary Econo-
mics, 49(2), pp. 365-381. D. Harding et AR. Pagan [2002b]: A
mics, 10, pp. 139-162. M. Nguiffo-Boyom [2006]: Un indica-
Comparison ofTwo Business Cycle Dating Methods, Journal of Economic Dyna-
teur de retournement conjoncturel pour la France: une application du modèle à facteur avec changements de régimes, Econo-
mics and Control, 27, pp. 1681-1690.
mie et prévision, 172, pp. 101-114.
D. Harding et A.R. Pagan [2003]:
R. Nilsson [1987] : Les indicateurs avancés de l'OCDE, Revue économique de
Rejoinder to James Hamilton, Journal of
Economie Dynamies and Control, 27, pp. 1695-1698. D. Harding et A.R. Pagan [2004]: A Suggested Framework for classifjing the Modes of Cycles Research, Center for
Applied Macroeconomie Analyses, The Australian National University, juillet. R. Hodrick et E.C. Prescott [1980]: Post- \Vttr U.S. Business Cycles: An Empirical Investigation, discussion paper na
451, Carnegie-Mellon University, Pittsburgh, P.A
Revu!: française d'économie, n° 4/vol XXIV
l'OCDE, automne, pp. 121-164. G. Peersman F. et Smets [2001]: Are the Effects ofMonetary PoNcy in the Euro Area Greater in Recessions than in Booms?,
European Central Bank working paper, na 52. J. Piger [2007] : Econometrics: Models of Regime Changes, University of Oregon, Springer Encyclopedia of Complexity and System Science. F. Portier [1994] : Les ajustements des prix et des salaires: enjeux théoriques et mesure
Olivier Damette et Zohra Rabah
statIstIque, Economie et statistique, 273(1), pp. 53-73.
G. Rabaul t [1993]: Une application du modèle de Hamilton, Annales d'économie et statistique, 30, pp. 57-83. A. Sauvy [1977] : Conjoncture et prévision économique, PUF, 8' éd., p.317.
163
M.W. Watson [1986]: Univariate Detrending Methods with Stochastic Trends, Journal of Monetary Economics, J 8, pp. 49-75. V. Zarnowitz [1998]: Has the Business Cycle Been Abolished ?, NB ER Working Paper, n° 6367 .
Revue
françai.~c.:
J'économiL' d'économie,
IID
4/vol XXIV
Xiaoshan Chen et Terence C. Mills
179
tillon, les conclusions sont robustes, aussi bien avec l'approche du BBQ qu'avec celle du MSDF. Les pays au cœur de l'UEM montrent un plus grand degré de synchronisation, à la fois entre eux et par rapport à la zone euro agrégée, si on les compare aux pays situés à la périphérie de la zone ou extérieurs à l'UEM. Cela est particulièrement vrai pour l'Allemagne, l'Autriche, la Belgique et les Pays-Bas qui apparaissent proches les uns des autres et de la zone euro agrégée. Les changements dans les corrélations des cycles économiques sur la durée peuvent être analysés en mesurant les distances entre les cycles sur deux sous-échantillons: ceux qui précédent et ceux qui suivent 1991 Q 1. Le choix s'est porté sur 1991Ql comme point de rupture parce qu'un certain nombre d'événements importants a eu lieu autour de cette période, comme la réunification allemande en ocrobre 1990, la crise du système monétaire européen en 1992-1993, et l'adoption du traité de Maastricht en novembre 1993. On peut supposer que ces événements ont tous eu des impacts significatifs sur les corrélations des cycles. Les panels 2(a) et 2(b) figure n° 3 montrent un cluster de pays centraux de l'UEM, l'Allemagne, l'Autriche, la Belgique et les Pays-Bas qui étaient tous plus proches de la zone euro agrégée que la France, l'Italie et les groupes périphériques ou non-UEM, au cours du premier sous-échantillon. Cela apparaît encore plus clairement dans le panel 2(b), où les séries binaires sont produites par le modèle MSDF. Mais on voit apparaître des résultats conflictuels si l'on compare les panels 3(a) et 3(b) de la figure n° 3. Bien que les deux figures montrent que le groupe des quatre pays proches au cœur de l'UEM s'éloignent les uns des autres et que l'on observe une désynchronisation entre l'Autriche, la Belgique, les Pays-Bas et la zone euro agrégée dans le second sous-échantillon, on ne constate pas dans le panel 3(b) une hausse de la corrélation des cycles entre la France, deux pays périphériques et la zone euro agrégée que l'on trouve au panel 3(a). Ce conflit est dû à l'identification des récessions au cours des premières années 2000 pour la zone euro agrégée par le modèle MSDF, mais pas par l'algorithme BBQ. Finalement, on
Revue fLII1ÇJist: d'éulIlomÎc, n° 4/vo1 XXIV
Xiaoshan Chen et Terence C. Mills
180
peut observer clairement dans les panels 3(a) et 3(b) un tableau de cycles économiques divergents des pays non-UEM par rapport à la zone euro agrégée. Ce qui cadre assez bien avec les idées défendues par Garnier [2003], qui a trouvé que les cycles économiques de la zone euro sont de plus en plus indépendants des cycles américains. Figure 3 Cartographie multidimensionnelle des distances entre les cycles économiques 1.2
Panel 1(a): Whole sample (E=O.02644)
1.2
Panel 1(b): Whole sample (E=O.02177)
,
,
SPA FRA
0.8
UK
0.8
us
, CAN
0
,
FIN
0.4 ITA
FIN
0.4
EA BEL
0.0
SPA
0.0
NETH
,
UK
GER
,
-0.4
GER
FRA
0
-0.8
,
BEL
,
-0.4
AUS
, EA
-0.8
US
NETH AUS
0
ITA
CAN
-1.2 -3.2
-2.8
-2.4
-2.0
-1.2
-1.6
-1.2 -3.2
Panel 2(a): pre·1991Q1 (E=O.02095) 1.2
-2.8
-2.0
-2.4
-1.6
-1.2
Panel 2(b): pre-1991Q1 (E=O.01572) 1.6
0.8
1.2
SPA
FIN 0
0.4
,
,
0.8
FRA
CAN
UK
FIN
0.0
,
0.4
0
NETH
0
us
UK
-0.4
BEL
,
ITA
0.0
AUS EA
-0.8
-0.4
GER
ITA
NETH
FRA
-1.2
0
-0.8
US
CAN
0
GER
SPA o
BEL
AUS 0
EA
-1.6 -4.0
-3.5
-3.0
-2.5
Revue fLtIlÇ.li.'it: d'éconol11it", nO 4/vol XXIV
-2.0
-1.5
-1.2 -3.5
-3.0
-2.5
-2.0
-1.5
-1.0
Xiaoshan Chen et Terence C. Mills
1.5
Panel 3(b): post-1991Q1 (E=O.01339)
Panel 3(a): post-1991Q1 (E=O.01274) 1.5
0
0
0
US/CAN
UK
181
UK
1.0
1.0
0.5
0.5
CAN FIN
0.0
SPA US
0
FIN
0
AUS
0.0
0
0
FRA
BEL
-0.5
GER
-0.5
0
0
ITA
-1.0
NETH
ITA
0
NETH
-2.8
-1.0
0 0
EA
-1.5 -3.2
BEL
-2.4
-2.0
-1.6
-1.2
0 0
AUS
FRNSPA
-1.5 -3.2
GER
-2.8
-2.4
-2.0
0
EA
-1.6
-1.2
-0.8
Note: deux paires de pays, les USA et le Canada, la France et l'Espagne, synchronisent parfaitement les retournements dans le deuxième sous-échantillon quand l'algorithme BBQ est employé.
Corrélation des probabilités de récession A côté d'une analyse des changements dans la synchronisation qui s'appuie sur deux sous-échantillons fixes, nous calculons également les corrélations bilatérales des probabilités de récessions sur la base d'une série d'échantillons non fixes, avec une fenêtre sur six ans. 4 Les corrélations moyennes du centre, de la périphérie et des pays non-UEM par rapport à la zone euro agrégée sont calculées pour chaque fenêtre et sont représentées figure n° 4. Plusieurs points méritent d'être notés. Tout d'abord, on a observé au cours des années 1980 un déclin marqué de la synchronisation entre les cycles économiques qui affectent les pays du centre et de la périphérie de l'UEM vis-à-vis de la zone euro agrégée. Cette constatation corrobore les conclusions d'lnklaar et de Hann [2002] et de celles de Massmann et Mitchell [2004], qui ont trouvé des cycles de croissance désynchronisés dans la zone euro au cours de cette période. Ensuite, on observe dans les années 1990 une hausse considérable de la convergence des cycles, surtout pour les deux pays périphériques, dont la corrélation moyenne par rapport à la zone euro agrégée a dépassé Revue française d'économie, nO 4/vol XXIV
182
Xiaoshan Chen et Terence C. Mills
celle des pays du centre vers la fin des années 1990 ; mais cette tendance s'est renversée au cours des années 2000. Cette évolution reflète en partie une performance économique déséquilibrée dans les pays membres de l'UEM après l'introduction de l'euro. Un certain nombre de pays au centre de l'UEM, comme l'Allemagne et l'Italie, se sont vus attribuer des pondérations importantes au moment de la construction des séries de données sur la zone euro agrégée; ils ont subi des récessions et une croissance molle pendant plusieurs années au cours des années 2000, tandis que les deux pays périphériques, notamment l'Espagne, continuaient à connaître une croissance économique forte. Enfin la corrélation des cycles entre les pays non-UEM et la zone euro agrégée n'a augmenté que pendant les périodes de baisse générale, par exemple au cours des premières années 1980 et au début des années 2000, mais elle a complètement divergé de la zone euro pendant la période du serpent monétaire européen. Figure 4 Les corrélations des probabilités de récession 1.0
1985
1990
---+- EA-core
Revue française d'économie, n° 4/vol XXIV
1995 --0--
2000
EA-periphery - - - EA-non
2005
Xiaoshan Chen et Terence C. Mills
183
Conclusion Cet article se proposait de revenir sur la question de l'évaluation de la synchronisation des cycles économiques dans la zone euro. Mais contrairement à des études précédentes, qui mesurent la synchronisation à l'aide de points de retournement identifiés à partir de séries individuelles comme le PIB réel ou la production industrielle, nous extrayons les points de retournement d'un indice composite qui est une moyenne pondérée d'un certain nombre de variables macroéconomiques qui coïncident. L'idée est qu'en incluant davantage de variables contenant des informations sur les cycles économiques dans le processus de datation, il devrait être possible de produire des points de retournement plus précis et ainsi d'améliorer la précision des mesures des corrélations de cycle. La zone euro agrégée et les onze pays individuels sont analysés ici. Ils sont classés en trois groupes: centre, périphérie et non-UEM. Pour illustrer nos résultats, une technique de cartographie multidimensionnelle est utilisée afin de fournir une représentation graphique des différences entre les cycles économiques. Nos résultats indiquent l'existence d'un degré plus élevé de synchronisation entre les pays au cœur de l'UEM et la zone euro agrégée qu'entre les groupes périphériques et non-UEM. Cependant, ce phénomène reflète, dans une certaine mesure, la pondération importante affectée aux pays du centre dans la construction des données sur la zone euro agrégée. On peut également observer des cycles économiques plus synchronisés au sein d'un petit groupe de pays composé de l'Allemagne, de l'Autriche, de la Belgique et des Pays-Bas. Cela tient en partie au fait que l'Autriche et les Pays-Bas avaient amarré leur taux de change sur le deutsche mark et que leurs économies étaient très intégrées à celle de l'Allemagne. L'évolution des corrélations des cycles est tout d'abord évaluée sur la base de deux sous-échantillons fixes en prenant 1991Ql comme point de rupture. On ne voit apparaître aucune ten-
Rl'VUC
française d'économie, n° 4/vo! XXIV
184
Xiaoshan Chen et Terence C. Mills
dance commune de la synchronisation entre les cycles économiques de la zone euro, que ce soit en termes de convergence ou de divergence par rapport à la zone euro agrégée. Les coefficients de corrélation des probabilités de récessions sont également calculés dans une série d'échantillons non fixes qui révèle des périodes de convergence et des périodes de divergence. On peut aussi noter que la performance économique continue à être déséquilibrée. Au cours des dernières années, les économies allemande, italienne et néerlandaise ont connu des récessions et une croissance inférieure à la moyenne, tandis que les économies espagnole et finlandaise ont crû de façon solide. De telles variations risquent d'entraîner des exigences différentes en matière de politique monétaire et, par conséquent, de réduire les possibilités de mettre en œuvre une politique monétaire commune pour l'ensemble des membres. Xiaoshan Chen est professeur à l'université de Glasgow. Adresse: Department of Economics, the University of Glasgow, UK. Email:
[email protected] Terence C. Mills est professeur à Loughborough University, UK. Adresse: Department of Economics, Loughborough University, UK. Phone: +44 (0) /509222703, Fax: +44 (0) 1509223910. Email:
[email protected] Revue française d'économie, nO 4/\'01 XXlV
Xiaoshan Chen et Terence C. Mills
185
Notes 1. Les séries du PIB réel et de la formation brute de capital fixe sont issues de la base de données des comptes nationaux trimestriels de l'OCDE. Les séries de la production industrielle et du commerce de détail total sont tirées de la base de données des indicateurs essentiels de l'OCDE. Puisque les séries de chômage ne sont pas disponibles pour la France, la Belgique et les PaysBas, elles sont issues de la base Datastream, avec respectivement les codes FROCFEMPO, BGOCFETNO et NLOCFETNO. Les données agrégées d'emploi dans la zone euro proviennent de la base AWM construite à la Banque centrale européenne par Fagan et al. [2001]. Les données du commerce de détail ne sont pas disponibles au niveau agrégé européen, ni pour l'Espagne. Toutes les séries ont été désaisonnalisées. Les observations trimestrielles ont été présentées en logarithmes.
2. L'ensemble des calculs, données et mesures utilisés dans ces modèles sont disponibles sur simple demande. 3. Les récessions survenues au milieu des années 1970 ne peuvent pas être analysées pour la zone euro agrégée ni pour la France, du fait de l'insuffisance des données. Les séries de production industrielle pour la zone euro agrégée sont disponibles à partir de 1975Q3 et les chiffres des ventes de détail démarrent seulement en 1975Q 1. 4. Nous reconnaissons que les résultats peuvent être sensibles au choix de la largeur de la fenêtre. Des fenêtres larges tendent à modérer des changements importants de moyen-terme dans la synchronisation, alors que des fenêtres courtes sont plus sensibles à des déviations de court ou de moyen terme. La littérature utilise souvent une fenêtre large de six ans. Voir par exemple Gayer [2007].
Revue française: d'économie, nO 4/vol XXIV
186
Xiaoshan Chen et Terence C. Mills
Références C. Altavilla [2004] : Do EMU Members Share the Same Business Cycle?, Journal of Common Market Studies, 42, pp. 869896.
Performance of Markov-Switching and Threshold Autoregressive Models of CNP, Econometries Journal, l, pp. 4775.
M. Artis, H-M. Krolzig et 1. Toro [2004]: The European Business Cycle, Oxford Economie Papers, 56, pp. 1-44.
F. X. Diebold et G. D. Rudebusch [1996] : Measuring Business Cycles: A Modern perspective, Review of Economies and Statistics, 78, pp. 67-77.
M. Beine, B. Candelon et K. Sekkat [2003] : EMU Membership and Business Cycle Phases in Europe: Markov-Switching VAR Analysis, Journal of Economie Integration, 18, pp. 214-242. M. D. Boldin [1996] : A Check on the Robustness ofHamilton's Markov Switching Model Approach to the Economic Analysis ofthe Business Cycle, Studies in Nonlinear Dynamies and Econometries, l, pp. 3546 G. Bry et C. Boschan [1971] : Cyclical Analysis ofEconomic Time Series: Selected Procedures and Computer Programs, NBER working paper n° 20. M. Camacho et G. Pérez-Quir6s [2006]: A New Framework to Analyze Business Cycle Synchronization, in C. Milas, P. Rothman et D. van Dijk (Ed.) Nonlinear Time Series Analysis of Business Cycles, Elsevier, pp. 133-149. M. Chauvet [1998] : An Econometric Characterization of Business Cycle Dynamics with Factor Structure and Regime Switching, International Economic Review, 39, pp. 969-996. M. Chauvet et C. Yu [2006] : International Business Cycles: C7 and OECD Countries, Federal Reserve Bank of Atlanta Economic Review, First Quarter, pp. 43-54. M.P. Clements et H.M. Krolzig [1998]: A Comparison of the Forecast
Revue française d'économie, nO 4/vo[ XXIV
us
G. Fagan, 1. Henry et R. Mestre [2001] : An Area- Wide Model (AWM) for the Euro Area, ECB working paper, 42.
J. Garnier [2003] : Has the Similarity of Business Cycles in Europe Increased with the Monetary Integration Pro cess? A Use of the Classical Business Cycle, EUI working paper n° 2003/12.
C. Gayer [2007] : A Fresh Look at Business Cycle Synchronisation in the Euro Area, European Economy, Economie Papers, 287. J. D. Hamilton [1989] : A New Approach to the Economic Analysis ofNonstationary Time Series and the Business Cycle, Econometriea, 57, pp. 357-384.
J. D. Hamilton [2003] : Comment on /1 Comparison ofTwo Business Cycle Dating Methods', Journal of Economie Dynamies and Control, 27, pp. 1691-1693.
D. Harding et A. Pagan [2000] : Knowing the Cycle, in R. Backhouse et A. Salanti (Eds.), Macroeconomics and the Real World, Oxford University Press. D. Harding et A. Pagan [2001]: Extracting, Using and Analysing Cyclical Information, MPRA Paper, 15. D. Harding et A. Pagan [2002] : Dissecting the Cycle: a Methodological Investigation, Journal of Monetary Economies, 49, pp. 365-381.
Xiaoshan Chen et Terence C. Mills
D. Harding et A. Pagan [2003] : A Comparison of two Business Cycle Dating Methods, Journal of Economie Dynamies and Control, 27, pp. 1681-1690. R. Inklaar et J. de Haan [2001] : Is there Really a European Business Cycle? A Comment, Oxford Economic Papers, 53,
187
J.W. Sammon [1969]: A Nonlinear Mapping for Data Structural Analysis, IEEE Transactions pp. 401-409.
on
Computers,
18,
D. E. Sichel [1994]: Inventories and the Three Phases ofthe Business Cycle, Jour-
pp. 215-220.
nal of Business and Economie Statistics, 12, pp. 269-277.
M. 1. Kim et J. S. Yoo [1995]: New
J. H. Stock et M. W. Watson [1989] :
Index ofCoincident Indicators: A Multivariate Markov Switching Factor Model Approach, Journal of Monetary Econo-
New Indexes of Coincident and Leading Indicators, in O. J. Blanchard et S.
mies, 36, pp. 607-630. C. J. Kim et C.R. Nelson [1999] : StateSpace Models with Regime Switching: and Gibbs-Sampling Classieal Approaches with Applications, MIT Press. C. J. Kim, J. Morley et J. Piger [2005]: Nonlinearity and the Permanent Efficts of Recessions, Journal of Applied Econo-
metries, 20, pp. 291-309. M. Massmann et J. Mitchell [2004]: Reconsidering the Evidence: Are Eurozone Business Cycles Converging ?, Journal of
Business Cycle Measurement and Analysis, 1, pp. 275-308.
Fischer (Eds.), NBER Macroeconomics Annual, MIT Press, pp. 351-393. J. H. Stock, et M. W. Watson [1991] : A Probability Model of the Coincident Economie Indicators, in K. Lahiri et G. H.
Moore (Eds.), Leading Economie Indicators: New Approaches and Forecasting Records, pp. 63-95, Cambridge University Press. J. H. Stock, et M. W. Watson (1993) : A Procedure for Predicting Recessions with Leading Indicators: Econometrie Issues and Recent Experiences, in J. H. Stock, et M. W. Watson (Eds.), Business Cycles, Indieators, and Forecasting, University of Chicago Press, pp. 95-156.
Revue française d'écol1omie.:, nO 4/vol XXIV
Muriel DAL-PONT LEGRAND Harald HAGEMANN Théories réelles versus monétaires des cycles d'équilibre
uiconque s'intéresse à l'histoire de la macroéconomie est assez rapidement frappé de constater combien l'intérêt des économistes pour la théorie des cycles est lui-même éminemment cyclique. En effet, après d'intenses débats durant la
Revue française d'économie, nO 4/vol XXlV
190
Muriel Dai-Pont Legrand et Harald Hagemann
période de l'entre-deux-guerres, c'est seulement la situation économique du début des années 1970 qui va faire renaître un intérêt pour ce champ de l'analyse économique. Dans l'intervalle, il n'est plus véritablement question du cycle l • Les économistes concentrèrent leur attention, d'une part, sur l'analyse du long terme qui cherchait à expliquer une croissance régulière et soutenue et, d'autre part, sur l'étude du court terme mettant alors en œuvre les outils de la macroéconomie keynésienne qui permettaient à cette époque de contrôler efficacement la demande agrégée. Finalement, cette période témoigne d'un certain optimisme qui parvint même à la fin des années 1960 à faire douter les économistes de la pertinence du concept de cycle (Bronfenbrenner, [1969]). Lorsque la théorie des cycles apparaît de nouveau, c'est dans un cadre analytique radicalement différent, qui va révolutionner la macroéconomie dans son ensemble. Au début des années 1970, le contexte économique a changé : la théorie keynésienne est mise à mal tant sur le plan empirique que théorique. La situation la plus favorable à la diffusion d'une nouvelle théorie, aussi révolutionnaire soit-elle, étant très certainement l'existence d'une orthodoxie établie qui devient soudainement incohérente avec les faits stylisés les plus caractéristiques de la réalité observée2 , on va assister à une transformation véritablement radicale de la macroéconomie. Cette « révolution », portée par un courant que l'on appelle la nouvelle école classique (NEC) va prendre la forme de ce que l'on va nommer la théorie des cycles d'équilibre (TCE). Sa première version, appelée théorie des cycles monétaires (TCMP, a été initiée par Robert Lucas. Bien au-delà de sa théorie des cycles, la contribution de cet auteur va marquer un tournant majeur dans la discipline. En effet, l'introduction du concept d'anticipations rationnelles emprunté à Muth [1961], mais bien plus encore son hypothèse de marchés continuellement soldés, ont suscité de nombreux débats, concernant à la fois le fond mais aussi les conséquences que l'utilisation de ces hypothèses pouvait avoir sur le traitement des questions macroéconomiques. Pour autant, nul ne remet en cause la contribution de Lucas à la macroéconomie4• Si la rupture méthodologique est actée5, d'importantes critiques Revue française d'économie. nO 4/vol XXIV
Muriel Dal-Pont Legrand et Harald Hagemann
191
vont néanmoins être formulées à propos de sa théorie des cycles monétaires et vont donner lieu, en réaction, à l'émergence de la théorie des cycles réels (TCR)6. Apparaît ainsi au début des années 1980 un débat opposant théories monétaires et théories réelles des cycles d'équilibre. Malgré son caractère novateur, la TCE semble donc reproduire, à première vue, les clivages traditionnels qui ont nourri la théorie des cycles depuis ses origines. En effet, la période de l'entredeux-guerres, connue pour le foisonnement de sa recherche, en particulier dans le domaine de la théorie des cycles, a produit une littérature importante sur cette question, notamment (mais pas seulement) via des échanges nourris entre Hayek et Hicks. Doiton considérer pour autant que le débat se pose dans les années 1980 dans les mêmes termes que dans la période de l'entredeux-guerres? On peut être tenté de le penser. Dans un premier temps, Lucas multiplie les références à Hayek notamment dans son célèbre article Understanding Business Cycles?, dans lequel il n'hésite pas à faire explicitement référence au programme de recherche de ce dernier lorsque celui-ci considérait « that the incorporation of cyclical phenomena into the system of economic equilibrium theory, with which they are in apparent contradiction, remains the crucial problem ofTrade Cycle theory » (Hayek [1933], 33n). Pourtant, pour quiconque a investi sérieusement cette question, cette filiation pose problème. En effet, on sait depuis 8 que le contenu théorique de ces approches diffère profondément, Lucas ayant d'ailleurs lui-même renoncé à toutes références à Hayek et préférant se situer dans la lignée de Hume9• Lorsque la théorie des cycles réels émerge à son tour, elle va également chercher à fonder sa démarche en faisant cette fois-ci explicitement référence au programme de recherche de Hicks. Ainsi, Plosser expose son parti-pris méthodologique ... « Progress towards understanding this idealized state is essential becauseit is logically impossible to attribute an important portion of fluctuations to market failure without an understanding of the sorts of fluctuations to market failure withollt an understanding of the sort of fluctuations that would be obserRevue..' fmnçaisc d'économk', n° 4/vol XXIV
192
Muriel Dal-Pont Legrand et Harald Hagemann
ved in the absence of the hypothesized market failure.» (Plosser [1989]: 53) . ... puis, fait explicitement référence aux travaux de Hicks « an idealized state of dynamic equilibrium ... give(s) us a way of assessing the extent or degree of disequilibrium». Or, si on procède à une lecture plus complète de ce passage, on appréhende peut-être différemment le message délivré par Hicks: «Because of ignorance of future changes of data ( ... ) such a perfect Equilibrium is never attainable. A real economy is always in disequilibrium. The actual disequilibrium may be compared with the idealized state of dynamic equilibrium to give us a way of assessing the extent or degree of disequilibrium» (Hicks [1933] p.32). Le rôle que Hicks attribue à l'équilibre semble bien différent de celui que Plosser, et l'approche moderne des cycles d'équilibre en général, lui confèrent lO • En effet, comme l'avait judicieusement noté Laidler [1986], le changement fondamental qui caractérise les théories modernes des cycles d'équilibre est que l'équilibre est devenu une méthode d'analyse. Nous est-il alors permis de pousser la comparaison entre ces débats? En d'autres termes, peut-on considérer que, modulo des différences (majeures!) en termes de modélisation, Plosser adopte finalement la même posture vis-à-vis de Lucas que Hicks vis-à-vis de Hayek? Sommes-nous certains que les choix de formalisation comme l'évolution de certains concepts n'ont pas affecté de manière significative la nature des débats qui opposent les tenants d'une approche réelle à ceux qui soutiennent une interprétation monétaire des cycles? Cet article propose d'éclairer ces questions. Notre objectif consiste à examiner dans quelle mesure les grands clivages qui structuraient les débats au sein de la théorie des cycles dans la période de l'entre-deux-guerres sont toujours présents dans la théorie moderne des cycles d'équilibre et s'ils s'expriment dans les mêmes termes. En effet, au-delà des apparences, il semble légitime de supposer que l'évolution des techniques et des concepts a dû altérer le contenu théorique de ces approches et modifier ainsi la teneur des débats. (> à la nouvelle école classique Avant que son renouveau analytique ne soit véritable perçu, la nouvelle école classique (NEC) est apparue en premier lieu comme une évolution du monétarisme: Lucas cherchait à expliquer l'inflation des années 1960-1970. On peut en effet consi-
Revue française d'éco!lomie, n° 4/vol XXIV
Muriel Dal-Pont Legrand et Harald Hagemann
209
dérer que Lucas [1972] n'est autre qu'une nouvelle formulation, plus rigoureuse, de la théorie du taux naturel de Friedman et Phelps. La démarche de Lucas consistait à intégrer la théorie de la monnaie à celle des prix tout en préservant le plus possible la théorie des prix relatifs issue de l'équilibre général, en utilisant la théorie quantitative de la monnaie pour déterminer le niveau général des prix et enfin, en fondant le caractère perturbateur de la monnaie sur l'existence de problèmes informationnels (cf Sargent, [1996] p. 9). En développant néanmoins un nouveau concept d'équilibre, cette approche a déplacé un débat qui initialement portait sur la forme des courbes de Phillips de court et de long terme, sur la question de l'impact de modifications anticipées (ou pas) de la masse monétaire sur la production et l'emploi. Apparaît alors une sorte de dualité dans l'interprétation que l'on peut faire de Lucas [1972]. D'une part, on constate une certaine continuité de ces travaux avec le monétarisme de Friedman qui tient pour l'essentiel à ce que ce papier reprend explicitement les résultats ou postulats de travaux précédents comme la théorie quantitative de la monnaie, l'hypothèse du taux naturel, la courbe de Phillips ou encore la proposition de Friedman en faveur d'un taux de croissance constant de la masse monétaire. S'il ne rejette pas totalement cette sorte de filiation avec Friedman, Laidler [1986] ne considère pas que sur le plan strictement analytique, l'appréciation de la courbe de Phillips donnée par Lucas constitue un véritable progrès: « The monetarist' expectations-augmented Phillips curve' was an empirical observation in need of an explanation, but a weIl grounded structural rel ationship in its own right» (ibid. p. 336). D'autre part, on voit apparaître des arguments qui semblent davantage attester une rupture profonde avec le monétarisme, Lucas [1972] proposant un cadre analytique révolutionnaire, a priori jugé plus cohérent mais surtout conduisant à des conclusions extrêmement tranchées concernant la forme et les modalités des politiques contracycliques. En fait, comme on va le voir, la théorie des cycles contenue dans l'article de 1972 va rapidement être critiquée puis abandonnée au sens strict. En revanche, la méthodologie proposée dans cet article et développée plus explicitement en 1977,
Revue française
d'~c()nomic. na
4/vo! XXIV
210
Muriel Dal-Pont Legrand et Harald Hagemann
puis en 1980, va constituer la pierre angulaire d'une nouvelle école de pensée qui va véritablement révolutionner la macroéconomie20 , la nouvelle école classique et plus précisément en son sein, la théorie des cycles d'équilibre (TCE). Le modèle de 1972, et plus généralement la TCE, reposent sur trois hypothèses : i) l'usage des anticipations rationnelles, ii) l'hypothèse de marchés continuellement soldés et iii) l'hypothèse d'offre globale21 • Dans ce nouveau cadre22 , Lucas va pouvoir démontrer qu'il est possible de réconcilier instabilité et équilibre. En fait, il va pour cela utiliser la présence de problèmes informationnels liés à la confusion des mouvements de prix relatifs et de prix monétaires, i.e. ce que l'on a baptisé le problème « d'extraction du signal». Ces problèmes vont se manifester dès lors que les agents sont en présence de chocs de demande (pour l'essentiel monétaires) non anticipés. Plus précisément, la confusion sur l'origine des variations de prix (variation du niveau général des prix versus variation des prix relatifs) peut conduire les agents et, ce, malgré la formation d'anticipations rationnelles au sens de Muth, à ne pas anticiper correctement les niveaux de production et d'emploi. Ces derniers s'éloignent alors de leur niveau d'équilibre de long terme et le retour vers cet équilibre sera automatique dès lors que les agents auront accès à l'ensemble des prix de l'économie et pourront ainsi déterminer la véritable nature de la variation de prix constatée à la période précédente. Il faut noter que même lorsque les agents quittent l'équilibre de long terme ou encore l'optimum, ils sont toujours à l'équilibre : c'est là l' œuvre de la parfaite flexibilité des prix. Cette imperfection de l'information - comme d'ailleurs l'écart à la tendance qu'elle suscite - est donc purement temporaire et ne constitue pas comme chez Friedman 23 le fruit qu'une quelconque asymétrie d'information. Une fois l'imperfection dissipée, et en l'absence de nouvelles perturbations, les agents « corrigent» leurs anticipations et on a ainsi une force de rappel forte et immédiate vers l'équilibre de long terme. Comme Hayek, Lucas considère que l'économie tend de manière irrémédiable vers un équilibre naturel. Il semble alors avoir comblé les lacunes de la théorie classique:
Revue française d'éconnmk', na 4/vol XXIV
Muriel Dal-Pont Legrand et Harald Hagemann
211
il rompt avec la dichotomie réelle monétaire et permet l'analyse des fluctuations dans un cadre d' équilibre24 • Si au premier abord, Lucas semble avoir relevé le défi de Hayek, il existe cependant des différences substantielles entre les conclusions de Lucas et le projet de Hayek. Outre les remarques aujourd'hui largement connues consistant à souligner l'absence de mécanisme de marché et de coordination explicite via le marché, des hypothèses radicalement différentes sur l'information et ses processus d'acquisition (Hoover, [1988]), sur les notions d'équilibre éminemment différentes (Arena, [1994]) ou encore concernant la nature du monétarisme sous-jacent (Laidler [1986]), on doit noter un changement de perspective assez radical qui nous pousse à penser que les questions posées par ses théories modernes des cycles ne sont plus les mêmes que celles qui guidaient les recherches au sein de la période de l'entre-deux-guerres. En effet, plus qu'une notion différente d'équilibre, « désormais », i.e. après Lucas, la macroéconomie conçoit l'équilibre non plus comme la solution d'un problème statique ou dynamique, mais comme des fonctions. C'est le comportement même des agents qui répond à une logique de l'équilibre. « The difficulty with the newclassical economics lies not in the equilibrium postulate per se, but in its insistence that we model the economy as a whole as if the equilibrium strategies of individuals were formulated and executed in an institutional framework characterized by continuously clearing competitive markets» (Laidler [1986] p. 349). Par ailleurs, si pour Hayek les cycles sont des phénomènes monétaires c'est parce qu'il considère que seule une économie monétaire possède le caractère instable qui permet de concevoir une dynamique cyclique endogène Y Lucas partage l'idée selon laquelle l'économie réelle est fondamentalement, naturellement, stable mais, dans son modèle, la monnaie n'intervient que comme une perturbation exogène. Si donc dans les deux cas l'instabilité est monétaire, elle est néanmoins purement exogène chez Lucas. D'une certaine manière, Lucas franchit une étape qui l'éloigne de Hayek en considérant qu'une économie monétaire n'est pas fondamentalement instable; en fait, ce sont seulement les « surprises» qui sont les vecteurs de l'instabilité. Si
R