
Voilà un billet que je voulais écrire il y a bien longtemps. Lawrence Christiano et ses co-auteurs me font sauter le pas. Dans un document récent, ils prennent la défense du travail des macroéconomistes contemporains, et de leur principal outil de travail qui s’appelle les modèles DSGE. Étant donné que ces modèles constituent en quelque sorte l’orthodoxie macroéconomique, et qu’ils n’ont pas très bien fonctionné pendant la crise, il est de bon ton soit de leur rentrer dans le lard, comme le font beaucoup, soit de la jouer discrète quand on en est un partisan. Christiano et al, pour leur part, en prennent la défense, de façon assez agressive. Les gens qui critiquent ces modèles sont tout simplement des feignasses (« People who don’t like dynamic stochastic general equilibrium (DSGE) models are dilettantes »). Pour Noah Smith, cette agressivité ne risque pas de convaincre grand monde. Il caricature le propos comme suit : « Vous n’êtes pas qualifiés pour juger notre travail, fermez-la et continuez à nous envoyer des chèques ».
Il a un peu raison, la condescendance n’encourage pas l’interlocuteur à l’ouverture d’esprit. Mais soyons ouverts quand même.
Leur article comprend des arguments intéressants, mais également un argument qui, paradoxalement, met en lumière ce qui cloche avec l’approche utilisée par ces modèles.
Commençons par expliquer brièvement ce que sont les modèles DSGE (pour Dynamic Stochastic General Equilibrium). En macroéconomie, on doit tenir compte des interactions entre les différents secteurs de l’économie (marché du travail, marché financier, marché des biens et services…). C’est pourquoi, en règle générale, on travaille sur des modèles d’équilibre général, qui tiennent compte de toutes ces interactions. Il y a bien longtemps que les économistes ont compris l’importance des anticipations sur les comportements économiques. Les modèles DSGE sont donc dynamiques, en ce sens qu’ils ne se focalisent pas sur une année isolée, mais ils représentent le fonctionnement de l’économie sur plusieurs années. Plus précisément, ces modèles comportent une hypothèse d’anticipations rationnelles de la part des agents économiques. Cela signifie 1- que les décisions prises aujourd’hui sont impactées par ce qu’on attend du futur, 2- en moyenne, les agents économiques ne font pas d’anticipations systématiquement biaisées du futur. Ces deux points permettent de définir un état stationnaire, dans lequel l’inflation est constante, de même que le PIB (en fait, il peut suivre un trend pour tenir compte de la croissance à long terme) et le taux d’intérêt de la banque centrale (pour prendre les variables les plus fondamentales). Dans cet état stationnaire, par définition, rien ne bouge, et tout le monde anticipe correctement le futur.
Mais soudain, un choc inattendu vient perturber cet équilibre. Par exemple, les banques gèlent les crédits qu’elles octroient à leurs clients. Boom, le PIB baisse, ainsi que l’inflation, on quitte l’équilibre ! C’est la dimension Stochastique du modèle. Que se passe-t-il alors ? Personne n’avait anticipé le choc, mais une fois qu’il s’est produit, chacun sait précisément ce qui va s’ensuivre. La banque centrale va baisser son taux d’intérêt pour stimuler à nouveau l’activité. L’inflation va repartir à la hausse, les taux d’intérêt, après la baisse initiale vont progressivement remonter, etc. On va, au bout de quelques temps, retrouver l’équilibre. Cela pourrait même se faire instantanément, s’il n’y avait des rigidités nominales (des prix qui ne peuvent pas s’ajuster tout de suite) freinant le retour à la normale.
Les modèles, partant de là, peuvent supporter des tas de variantes : rigidités des salaires, modélisation du secteur financier, modélisation de l’endettement, etc. Dans tous les cas, ces modèles sont calibrés, selon l’expression consacrée, pour reproduire les données d’un pays donné. Autrement dit, les paramètres du modèle sont choisis de manière à s’approcher au plus près des variations observées sur une période donnée (20 ans, 30 ans…) du PIB, de l’inflation, du taux d’intérêt (…) Ceci étant fait, on considère le modèle comme une maquette du vrai monde, et on peut simuler des chocs. Par exemple, tel pays envisage un programme d’austérité fiscale. Quelle contraction de l’activité peut-on en attendre, et combien faudra-t-il d’années pour un retour à la normale si la politique est mise en œuvre ?
Pourquoi ces modèles sont-ils critiqués ? Parce que leurs prévisions ont en général été trop optimistes sur la capacité de résilience des économies confrontées à la crise de 2008. A les en croire, la crise aurait dû être courte et d’intensité assez modeste. En science humaine (l’économie en est une) lorsque l’histoire donne tort à une théorie, ses partisans peuvent être tentés de se retrancher dans leur mauvaise foi, ses détracteurs de toujours jubilent et entament la curée. Ces deux attitudes sont également contreproductives.
L’article de Christiano donne un certain nombre d’arguments pour défendre les DSGE. Parmi eux, on mentionnera par exemple le fait que, dès avant la crise, certains modèles avaient déjà commencé à évoluer pour tenir compte des dysfonctionnements financiers, et que cette tendance s’est évidemment poursuivie avec la crise. S’ils ne l’avaient pas fait avant, c’est que personne ne prévoyait une crise d’une telle ampleur, et que les modèles fonctionnaient bien dans des contextes plus calmes.
Mais l’argument le plus intéressant est le suivant : certaines options politiques comportent des effets attendus positifs et d’autres négatifs. Seuls des modèles calibrés sur données réelles permettent d’évaluer lesquels l’emportent. Un pays envisage de dévaluer sa monnaie ? Il va stimuler ses exportations, mais augmenter le poids de la dette de ses ménages, si elle est libellée en monnaie étrangère. Quel effet prendra le dessus ? Un pays envisage d’accroître sa règlementation bancaire ? Il va accroître la stabilité financière, mais aussi freiner certains investissements. Quel effet prendra le dessus ? Pour Christiano, on a beau jeu de baratiner sur les avantages et les inconvénients d’une réforme. Ce qui compte, c’est de savoir quelle sera l’ampleur de ses effets, et à quel niveau la mettre en œuvre. Les dilettantes, pour reprendre son expression, se contenteront de dire ‘ah, ça c’est une bonne idée, mais attention, il y a un risque’. Les économistes qui maitrisent l’art des DSGE feront des prévisions chiffrées pour évaluer l’ampleur de ces risques.
« Prévisions chiffrées », le mot est lâché.
L’argument est suffisamment intéressant pour être pris au sérieux. Mais pour ma part, j’ai le sentiment que, paradoxalement, en mettant l’accent sur la capacité de ces modèles à produire des chiffres, Christiano met le doigt sur ce qui, justement, pose problème avec l’approche DSGE. La macroéconomie est une des rares spécialités, en économie, où l’on s’attend à ce qu’une théorie soit immédiatement présentée sous forme d’un modèle calibré, et donc chiffré. Ça n’a pas toujours été le cas, et les autres spécialités en économie fonctionnent aujourd’hui encore de manière assez différente.
Dans les autres spécialités, une intuition se formule de façon théorique, dans un modèle où les variables et les paramètres sont représentés par des lettres. (Soit Y le revenu d’un consommateur, X son nombre d’années d’études, beta son aversion au risque, etc). Ces modèles sont, la plupart du temps, résolus, dans le sens où l’on est capable d’exprimer la valeur de chaque variable en fonction des paramètres du modèle. Cette démarche permet d’identifier, théoriquement, l’impact d’une variation des paramètres sur les variables qui nous intéressent. Par exemple, l’impact d’un contrôle de la démographie sur le niveau de développement d’un pays, l’impact d’une diminution des barrières douanières sur le commerce entre pays, l’impact d’une taxe carbone sur les émissions de CO2, l’impact d’une subvention à l’éducation sur le salaire, etc.
C’est uniquement lorsqu’on passe à la phase d’évaluation empirique qu’on tente de chiffrer ces effets, en confrontant le modèle aux données disponibles. Bien sûr, s’il s’agit d’en faire des recommandations politiques, on sera tenté de s’appuyer sur ces résultats chiffrés pour donner du corps à la recommandation. Mais au fond, si les tests empiriques vont dans le sens de la théorie, ce sont les lettres de la théorie qui restent, plus que les chiffres des tests.
En macroéconomie, si je souhaite attirer l’attention sur un effet particulier, par exemple l’impact des banques en ligne sur l’efficacité de la politique monétaire, je devrai dériver ce que changent ces banques en ligne sur les principales équations du modèle, prises isolément, mais pour convaincre la communauté que cet effet est intéressant, il faudra que j’arrive à simuler des données existantes avec mon modèle. Je ne pourrai pas me contenter de résultats théoriques (caveat : j’ai probablement une connaissance partielle de ce qui se publie en macroéconomie, ce que je décris là est la manière, peut-être biaisée dont je vois les choses ; je peux me tromper).
Pourquoi cette spécificité ? Je vois deux raisons possibles.
La première raison est une raison de fond. La macroéconomie est une discipline particulièrement ardue, avec toutes ces interactions, et cette contrainte qu’on s’est fixée de raisonner en dynamique. Dès lors, il est difficile de dériver des résultats théoriques de manière purement analytique. Autant dire que cette raison ne me semble pas très bonne. Dans une défense un peu tiède des modèles DSGE, Olivier Blanchard reconnait que, bien souvent, les intuitions derrière les modèles proposés par les chercheurs peuvent être mises en lumière dans des versions amendées de modèles plus simples, tels qu’ISLM. L’avantage de passer d’un modèle intuitif clair, qu’on peut présenter sous forme de graphique, à une version obscure et insoluble analytiquement ne me saute pas aux yeux (Blanchard est plus tolérant sur ce point).
La deuxième raison est que de riches institutions sont demandeuses de prévisions chiffrées. Le FMI, la BCE, l’OCDE, les grands États… tout le monde veut son équipe d’économistes pour faire des prévisions, et on est prêt à payer cher pour qu’ils développent leurs propres modèles de prévision. Christiano explique que lorsque les économistes du FMI font à Mme Lagarde des prévisions basées sur les résultats des DSGE, ils transforment ça en langage intuitif et donnent les ordres de grandeur fournis par leurs simulations. Ce qu’il décrit ressemble passablement à un problème d’asymétrie informationnelle. Quelques puissants veulent leurs modèles macroéconomiques dont ils ne sont pas capables de comprendre le fonctionnement, mais les développeurs leurs disent : « En gros, ce que dit le modèle c’est blablabla, et d’après nos simulations qu’on ne peut pas vous expliquer, les ordres de grandeurs sont entre tant et tant ».
S’il y a une demande, après tout, ne faut-il pas la satisfaire ? Eh bien en l’espèce, je pense que non. La raison est la suivante : quel que soit le modèle utilisé, si on veut faire de la prévision chiffrée en macroéconomie, on ne peut avoir de bons résultats que lorsqu’il n’y a pas de gros choc, c’est à dire quand la prévision ne sert pas à grand chose. Lorsque les chocs sont importants, les modèles chiffrés sont condamnés à échouer. Et à la rigueur, même dans ces situations, une bonne analyse qualitative est probablement plus utile qu’une prévision chiffrée forcément fragile.
Imaginez-vous dans la peau des trois derniers responsables de la fed : Alan Greenspan, Ben Bernanke et Janet Yellen, et demandez vous de quel type d’éclairages vous avez besoin pour mener votre politique monétaire. Greenspan n’a pas traversé de situations aussi difficiles que ses deux successeurs. La crise des dot-coms est peut-être ce qu’il a eu de plus difficile à gérer. Concrètement, comment se passe la gestion de la politique monétaire pendant la grande modération ? On jette un œil à des indicateurs conjoncturels. Indice de la production, évolution du chômage, des salaires, des prix. Petit coup d’œil sur la bourse et sur les prix de l’immobilier. Sur les différents spreads de taux d’intérêt également. Puis on guette. L’inflation s’accélère ? On augmente le taux d’intérêt. Selon le principe de Taylor, on l’augmente plus que ce qu’a augmenté l’inflation, pour que le taux réel augmente. En général, ça calme le jeu. Attention, coup d’œil au chômage, il ne faudrait pas que la hausse des taux soit trop brutale… on les re-diminue progressivement lorsque la menace inflationniste est passée. Bim ! Une petite crise boursière ! Aller, on rassure les marchés, on fournit des liquidités, on baisse les taux. Tout ça, c’est du pilotage. Il y a des questions techniques, là dessous. Mais elles portent plus sur des choses très empiriques telles que les délais avant que les variations de taux portent leurs fruits, que sur les fondements microéconomiques des modèles ! Soudain, vous êtes Ben Bernanke, et paf, vous vous prenez la crise des subprimes en pleine poire. Du jamais vu depuis 1929. Vite, les modèles, que disent-ils ? Ils se plantent ! Ils n’ont rien vu venir et ils surestiment la reprise qui n’arrive pas, bien au contraire. On fait quoi les gars ? Bah… on reprend la bonne vieille macro en lettres des années 70, et on y voit : que les dépenses publiques sont utiles dans ce contexte, que la baisse des taux à court-terme va vite buter sur un plancher et qu’il faut commencer à cibler les taux à long terme avec des politiques non conventionnelles, qu’il faut éviter aux banques une crise de liquidité qui risque de déraper en problèmes de solvabilité. « Oui mais combien ? » réponse : « on met le paquet ! ». « Oui mais jusqu’à quand ? » réponse : « jusqu’à ce que ça redémarre ».
Derrière la remise en cause aujourd’hui très visible des modèles DSGE, il n’y a pas toujours un bon diagnostic. Il y a souvent l’espoir qu’un changement de paradigme va redistribuer les positions au sein de ce vaste terrain de jeu qu’est le monde académique. Ce fut le cas dans les années 70. Pourquoi pas aujourd’hui ? Tous ceux qui se sont fait un petit nom dans une spécialité un peu marginale espèrent que le jour de gloire est arrivé. Maintenant que les grandes institutions ont compris que les modèles DSGE n’étaient pas à la hauteur, il faut les convaincre que la clé d’un bon modèle de prévision est : la modélisation multi-agent, la prise en compte des biais cognitifs, les esprits animaux, le machine-learning, etc.
Il y a peut-être de bonnes choses dans tous ces nouveaux courants, mais ils ne répondent aucunement au vrai problème de la prévision chiffrée en macro : la macroéconomie est tout simplement trop complexe pour être l’objet de prévisions chiffrées fiables lorsque les chocs sont importants. Ça ne veut pas dire que la recherche en macroéconomie n’est pas utile. Elle doit fournir des règles de bonnes conduite en période normale, et des principes d’intervention efficaces en périodes de crises. Bien entendu, les périodes de crises comportent de l’incertitude. Une dévaluation peut stimuler les exportations mais asphyxier les débiteurs. Alors que faire ? N’en déplaise à Christiano, utiliser des modèles qui ne marchent pas n’est pas forcément une meilleure réponse que le doigt mouillé, si le doigt mouillé est connecté à un cerveau qui comprend quelques mécanismes économiques fondamentaux. Au fond, il n’est pas très difficile de savoir de combien va augmenter le poids de la dette extérieure si l’on dévalue de 10%, ni d’estimer de combien vont augmenter les exportations nettes. Et si on se trompe ? On avisera, on renégociera, on fera défaut… pas très pro ? Vous pensez que la Troïka et ses modèles DSGE ont fait mieux avec la Grèce ?
Le vrai changement salutaire pour la macroéconomie consiste peut-être à abandonner cette prétention à vouloir prédire l’avenir, à se re-concentrer sur l’étude qualitative des mécanismes à l’œuvre, et à coupler cette étude de tests empiriques, comme le font les autres spécialités en économie. Les travaux empiriques existent, bien sûr, et ils sont peut-être ce qui se fait de mieux dans la macroéconomie contemporaine. Mais ils sont passablement déconnectés de ce qu’est devenu la macroéconomie théorique.
Un tel objectif n’est peut-être pas très ambitieux, mais parmi les objectifs atteignables, il n’y a probablement pas mieux.