Compétitivité des pays

J’ai longtemps pensé que les différentes attitudes possibles vis-à-vis de la notion de « compétitivité » appliquée à des pays pris dans leur ensemble pouvaient être partitionnées en trois catégories :

– La première regroupe ceux qui pensent que l’on doit, dans un contexte mondialisé, tout mettre en œuvre pour remporter la grande bataille économique : baisser les salaires pour gagner des parts de marché à l’exportation, baisser les impôts pour attirer les investisseurs…

– La deuxième est celle de ceux qui déplorent cette compétition effrénée et qui pensent que l’on serait mieux inspiré de renoncer à la mondialisation, afin de pouvoir à nouveau décider souverainement de son système social.

Bien que diamétralement opposées au plan normatif, ces deux premières attitudes partagent une même vision de la mondialisation : celle d’une lutte sans merci, dont les vainqueurs seront bénis des dieux, et les perdants condamnés au déclin. Ce qui les distingue, c’est que les uns l’acceptent, les autres la refusent.

– La troisième renvoie les deux premières dos à dos, en faisant siens les arguments mis en avant par Paul Krugman depuis les années 90 : la notion de « compétitivité » a un sens pour les entreprises, mais ne peut pas être transposée au niveau macroéconomique, c’est-à-dire au niveau des pays. Deux argument sont centraux pour comprendre cette non-transposabilité (il y en a d’autres, mais je me concentre sur ceux-là) : 1- La théorie des avantages comparatifs. Cette théorie, extrêmement puissante et contre-intuitive, indique que deux pays ont un intérêt mutuel à échanger dès lors que leurs coûts de production sont différents. Plus précisément, ce sont les différences de coûts relatifs qui sont à l’origine de cet enrichissement mutuel des pays qui commercent. Si produire un pantalon en Inde coûte 10 fois plus cher qu’un kilo de blé, alors que le même pantalon coûte 20 fois plus cher à produire qu’un kilo de blé aux USA, alors les Indiens ont intérêt à produire des pantalons et les américains du blé, et ce même s’il existe des différences globales de productivité entre eux (l’exemple ne dit pas si produire un kilo de blé coûte plus ou moins cher aux USA, car cette information n’est pas utile). Le prix international des pantalons s’établira à un niveau compris entre 10 et 20 fois le prix d’un kilo de blé. Disons 15. Les Indiens seront gagnants, car pour chaque pantalon vendu, ils pourront acheter 5 kilos de blé en plus que s’ils avaient renoncé à produire ce pantalon pour produire eux-même leur blé. Inversement, il suffira aux américains de produire 15 kilos de blé pour s’acheter 1 pantalon, alors qu’ils auraient dû sacrifier la production de 20 kilos de blé (5 de plus) pour fabriquer eux-même ce pantalon. C’est du gagnant-gagnant. 2- la dynamique de la spécialisation : si, comme dans l’exemple précédent, les pays se spécialisent en conséquence de la mondialisation, alors il est logique que les entreprises des secteurs dans lesquels un pays ne se spécialise pas fassent faillite. Ça peut être prodigieusement douloureux, mais c’est la condition pour que les moyens de production (travailleurs, usines…) passent d’un secteur à l’autre. Autrement dit, l’intérêt des entreprises peut être opposé à celui de leurs États.

J’ai découvert l’existence d’une quatrième catégorie il y a plusieurs années en discutant avec ma directrice de thèse Flora Bellone, qui en était une représentante convaincue et passionnée. Pour comprendre cette quatrième catégorie, il faut entrer un peu plus dans le détail. Depuis que l’on sait modéliser en équilibre général des économies caractérisées par de la concurrence imparfaite et des rendements d’échelle croissants (en gros depuis une quarantaine d’années), les théoriciens du commerce international ont produit des modèles qui mettent en avant la possibilité qu’un pays enregistre des pertes nettes en conséquence de son intégration au commerce international. Ces théories ne font pas du commerce international un jeu à somme nulle, mais le gain n’est pas systématiquement garanti pour tous les pays. Pendant longtemps, les inventeurs de ces théories, dont Paul Krugman lui-même, ont considéré que l’hypothèse des pertes à l’échange pour certains pays était empiriquement négligeable, et qu’il valait mieux s’en tenir à la théorie des avantages comparatifs pour guider l’action publique. Mais cet argument empirique était très circonstancié, et pas forcément très probant. La quatrième catégorie correspond donc à ces économistes qui, sans confondre le commerce international avec une compétition, croient en l’idée qu’un pays peut être globalement perdant à s’insérer dans le commerce mondial.

Quelques années plus tard, Flora Bellone, et son collègue niçois Raphaël Chiappini, publient à La Découverte un Repère simplement intitulé « La compétitivité des pays« .

Je ne peux pas chroniquer ce livre avec impartialité, mais je pense sincèrement qu’il est une lecture indispensable pour faire le point sur la littérature pertinente sur la question des gains aux échanges, et pour pouvoir aborder la question de la compétitivité des pays en évitant les écueils des catégories 1 et 2 ci-dessus.

C’est justement sur un court chapitre « clarifier les concepts » que s’ouvre l’exercice. La compétitivité d’un pays n’est pas celle de ses entreprises, n’est pas la productivité de ses travailleurs, n’est pas son attractivité, n’est pas la faiblesse des prix de ses exportations, mais bien sa faculté à tirer un gain net de son intégration internationale.

Le chapitre suivant fait un point, assez complet à ma connaissance, et très clair, sur les modèles théoriques dans lesquels le développement du commerce international peut se traduire par une perte nette pour un pays donné. Une précision peut être utile à ce stade : j’ai dit plus haut que les progrès faits en matière de modélisation de la concurrence imparfaite avaient fait émerger de nouvelles théories du commerce international dans lesquelles les gains à l’échange ne sont pas garantis pour tous. Néanmoins, il serait largement erroné de penser que cette possibilité de perdre à l’intégration internationale soit l’objet central de cette nouvelle littérature. Celle-ci s’attache plus largement à mettre en avant des effets du commerce qui n’étaient pas pris en compte dans la théorie classique des avantages comparatifs. Or certains de ces effets sont positifs : permettre d’approfondir la division du travail grâce à des marchés plus grands et donc des effets d’échelle (modèle de Krugman 1980, qui reprend une intuition d’Adam Smith), permettre de diffuser le progrès technique via les importations (modèle de Grossman Helpman 1991), permettre d’éliminer les firmes les moins productives au sein d’un pays, balayées par la concurrence, au profit des plus productives (Melitz 2003). Les auteurs du repère, évidemment, citent ces effets, mais ils tendent à mettre davantage l’accent sur les effets potentiellement négatifs de l’intégration internationale.

De ce point de vue, tout n’est pas également convaincant, mais tous les modèles présentés sont à connaître car ils structurent les débats actuels sur les gains à l’échange. A mon sens, l’effet négatif le plus convaincant concerne le risque d’agglomération, tel qu’il apparaît dans le modèle de Krugman et Venables (1995). Le principe est le suivant : les entreprises industrielles préfèrent avoir à proximité de nombreux fournisseurs d’intrants différenciés. Si un pays est plus industrialisé qu’un autre, elles préfèreront s’y installer. Ayant des coûts fixes, les fournisseurs en question ont eux-même intérêt à intervenir à proximité des grands marchés, donc dans les pays les plus industrialisés. Dans ces conditions, le monde attire le monde (ce sont des forces centripètes) et l’industrie tend à s’agglomérer. Une économie mondiale agglomérée concentre la richesse dans un petit nombre de centres, laissant au reste du monde des activités traditionnelles à rendements décroissants. Néanmoins, si les coûts de transport sont très élevés, ils peuvent empêcher ce phénomène d’agglomération car ils permettent aux entreprises industrielles de bénéficier de marchés protégés de la concurrence en s’installant en périphérie (c’est une force centrifuge). Une autre force centrifuge se manifeste si les coûts de transport sont, au contraire, très faibles : les entreprises industrielles peuvent alors bénéficier de salaires faibles en périphérie tout en continuant à fournir leurs clients où qu’ils se trouvent. Finalement, ce que montrent Krugman et Venables, c’est que l’agglomération est un phénomène intermédiaire, apparaissant lorsque l’économie mondiale commence à s’intégrer, puis disparaissant lorsque cette intégration s’approfondit. Ainsi, les pays du sud auraient-ils souffert des premières phases de la mondialisation, alors que ceux du Nord seraient victimes de son approfondissement actuel. (#autopromo J’ai eu le privilège de travailler récemment avec l’excellente Sandine Noblet, une autre doctorante de Flora Bellone, sur des modèles de ce type).

D’autres effets sont mis en avant dans le chapitre tels que les avantages comparatifs dynamiques (se spécialiser ou non dans des secteurs ayant un potentiel d’innovation à long terme) ou encore des défaillances institutionnelles qui condamnent certains pays à choisir de mauvaises spécialisations. Bien que Dani Rodrik soit largement cité dans le livre, je regrette que son article de 1996 Coordination failures and government policy: A model with applications to East Asia and Eastern Europe ne figure pas dans la revue de littérature car il est très éclairant sur ce que peut être un mauvais choix de spécialisation international dû à un défaut de coordination. En gros : une industrie à rendements croissants peut être viable dans un pays de niveau éducatif intermédiaire, mais ne jamais apparaître en l’absence d’un amorçage conséquent.

S’il vous semble superfétatoire de s’attarder sur des théories expliquant qu’un pays puisse être perdant à la mondialisation, alors que l’expérience quotidienne nous enseigne qu’il s’agit d’une évidence, je vous encourage vivement à réviser votre jugement. Car la question n’est pas de savoir si tout le monde est gagnant à la mondialisation. L’évidence est qu’il y a des gagnants et des perdants. La question est de savoir si, au sein d’un pays donné, les perdants peuvent perdre plus que ce que gagnent les gagnants. Et cette question est loin d’être triviale. Comme nous l’avons vu plus haut, il existe une mécanique très puissante, celle des avantages comparatifs, qui pousse à ce que les pays soient tous gagnants en net à commercer. Que les économistes orthodoxes aient, pendant si longtemps, fait de ces avantages comparatifs le socle de leur réflexion sur la mondialisation ne signifie pas qu’ils ignoraient l’existence de perdants. Au contraire : la théorie avait été affinée par le modèle Heckscher-Ohlin-Samuelson, dont le principal apport était précisément de mettre en avant les gagnants (capitalistes du Nord, travailleurs du Sud), et les perdants (travailleurs du Nord, capitalistes du Sud). Mais là encore, les gains nets positifs dans chaque pays étaient la règle. Il est très facile de bricoler sur un coin de table une théorie prouvant qu’un pays peut être perdant à la mondialisation. Allez, lançons-nous :

« 30% des emplois et du PIB de la Syldavie proviennent de l’industrie textile. Suite à l’abandon de ses tarifs douaniers, l’industrie textile Syldave a subi de plein fouet la concurrence de pays à salaires plus faibles, et a dû réduire son activité de moitié. La mondialisation a donc coûté aux Syldaves 15% de leurs emplois et de leur PIB »

Si cette « théorie » vous convainc, alors vraiment, vraiment, je vous encourage à réviser votre jugement. Car cette théorie n’est pas en équilibre général : rien n’est dit sur ce que deviennent les salariés de l’industrie textile, sur la manière dont les syldaves financent leurs importations s’ils n’exportent plus, sur l’évolution des salaires, du taux de profit, des prix relatifs, du taux de change… Or, dès qu’on cherche à modéliser ces aspects là, il n’est pas si facile de ne pas retomber sur la bonne vieille histoire des avantages comparatifs. En bref, si on a mis du temps à créer ces nouvelles théories présentées dans le chapitre II de ce repère, c’est parce qu’on cherchait des théories qui tiennent vraiment la route, et il est vraiment important de les connaître et de les comprendre.

Le chapitre suivant passe en revue les différentes manières de mesurer la compétitivité des pays. Le sentiment qui prédomine est celui d’une grande frustration. Alors que, nous l’avons vu, la théorie économique dispose aujourd’hui d’outils conceptuels forts pour expliquer les mécanismes à l’origine des gains ou des pertes à l’intégration économique, la recherche sur les indicateurs permettant de prédire l’occurrence de ces effets semble balbutiante. Passons sur les mesures qui n’ont pas ou peu de fondements théoriques : parts de marché à l’exportation, mesure de la compétitivité prix (qui peut se justifier théoriquement à court terme, dans un cadre macroéconomique conjoncturel), ou le très médiatique indicateur du World Economic Forum. Les auteurs du Repère portent évidemment un regard critique sur ces indicateurs. Des indicateurs plus récents sont plus en phase avec les avancées de la littérature, et sont plus performants pour prédire les trajectoires de croissance. Citons entre autres les indicateurs développés par Hidalgo et Hausmann portant sur le niveau de sophistication et de complexité des exportations d’un pays. Ces indicateurs sont à rapprocher de la théorie des avantages comparatifs dynamiques : l’idée est que les produits les plus complexes sont associés à un fort contenu technologique, avec un fort potentiel d’innovation, et donc de croissance à long terme. Les pays ayant des spécialisations les plus sophistiquées / complexes connaissent, en effet, les meilleures performances en termes de croissance. Si le sujet vous intéresse, vous devriez d’ailleurs lire cet Atlas of Economic Complexity d’Hidalgo et Hausmann (et d’autres coauteurs). D’autres recherches récentes portent sur les verrous à la croissance des firmes (importants dans le cas indien par exemple) ou sur la diffusion des pratiques managériales.

Malgré ces avancées indéniables, la frustration vient du fait que ces indicateurs ne permettent pas, en soi, de prédire si un pays a intérêt à développer son intégration au commerce mondial. Supposons, à titre d’exemple, qu’un pays relativement protectionniste, ait un score assez faible sur les indicateurs de complexité / sophistication d’Hidalgo et Hausmann. Doit-on en conclure qu’il ne devrait pas faire disparaître ses protections commerciales ? Rien n’indique qu’une plus grande intégration économique ne va pas aider ce pays à rediriger ses moyens de production en direction des secteurs les plus complexes, grâce à une structure de la demande internationale plus favorable à ces secteurs-là.

Les auteurs ne cachent d’ailleurs pas éprouver eux-même cette frustration en fin de chapitre (p83) :

« (…) on peut souligner un manque notoire d’indicateurs qui aideraient les pays à mieux appréhender leur degré de vulnérabilité face aux risques d’agglomération et de spécialisation appauvrissantes, de conflits sociaux liés aux effets distributifs de l’ouverture, ou encore face aux crises liées aux mouvements internationaux de capitaux. »

Il faut d’ailleurs reconnaître la difficulté de la tâche, puisqu’au moins dans le cas des phénomènes d’agglomération, la théorie prédit un effet boule de neige : deux régions initialement identiques en tout point finissent par diverger radicalement pour un niveau d’intégration intermédiaire, au profit de celle qui aura eu une activité industrielle un tout petit peu plus forte par hasard. Certes, dans la vie, d’autres considérations interviendront que le simple hasard, mais le message ici est que des différences importantes peuvent naître de conditions initiales presque identiques.

Le dernier chapitre fait le point sur les politiques de compétitivité. Parmi elles, les politiques industrielles. Une des questions abordées les plus importantes est, selon moi, celle de l’horizontalité ou de la verticalité de ces politiques industrielles. Comme le résument les auteurs, des années 80 jusqu’à une période récente, la tendance était à promouvoir des politiques industrielles dites horizontales. Le principe est de ne pas chercher à privilégier des secteurs, dits « stratégiques », au détriment d’autres, ni des « champions nationaux » au détriment de leurs concurrents, potentiels ou actifs. Pourquoi ? Pour deux raisons : la première est que des fonctionnaires du ministère au plan n’ont pas de raison a priori de faire de meilleurs choix que le marché pour désigner les secteurs prometteurs en termes de croissance. La seconde est que désigner des « champions nationaux » est la porte ouverte à tous les petits arrangements entre amis entre classe politique et grands patrons, sur le dos des contribuables et des consommateurs. Ainsi, l’horizontalité consiste à encourager les investissements quel que soit le secteur, à développer une formation supérieure de qualité, à encourager l’innovation… Depuis le déclenchement de la crise de 2008, les politiques verticales semblent revenir en odeur de sainteté. Pour les auteurs du Repère, les modèles fondés sur les avantages comparatifs dynamiques justifient ce choix, sans pour autant faire disparaître les limites de cette verticalité. Il est possible que certains secteurs soient plus porteurs que d’autres au niveau macroéconomique, et que les incitations privées soient insuffisantes (externalités et/ou contraintes de crédit) pour les soutenir autant qu’il serait pertinent. De là à dire que nos élus sont capables d’identifier ces secteurs… je ne peux m’empêcher de penser à Teddy Riner sur son nuage chantant « c’est cloud, c’est watt, c’est cloudwatt ! » pour vanter les mérites de ce nouveau champion national du cloud computing. Je n’ai pas le sentiment qu’il s’agisse d’une grande réussite, ni que ce projet rayonne sur le reste de l’industrie française, mais l’avenir me donnera peut-être tort. Quelques minutes de cette leçon de Philippe Aghion au Collège de France (de 18:00 à 25:50 environ ; voire écoutez toute la leçon, y compris sa première partie pour mieux comprendre l’argument) sont consacrées au même sujet, et mettent en avant deux critères pour guider les politiques verticales (qu’Aghion soutient également) : cibler les secteurs innovants (en termes de brevets), et cibler les secteurs concurrentiels, dans les deux cas sans privilégier une firme au détriment des autres (y compris les entrants potentiels)

Une question apparait en filigrane dans ce chapitre : dans quelle mesure une politique de compétitivité adéquate peut-elle se substituer aux protections commerciales ? La question peut se poser différemment : si des pays ou des régions sont effectivement perdants en net dans la globalisation, la solution consiste-t-elle à revenir aux tarifs douaniers d’il y a 50 ans ? Ce n’est clairement pas le propos des auteurs, puisqu’ils posent le problème dans les termes suivants :

« Du côté des PVD, l’enjeu premier d’une bonne stratégie d’industrialisation est devenu celui d’attirer des IDE entrants de « qualité » (…). Du côté des pays industrialisés, l’enjeu est lié à l’insertion dans les chaînes d’activité mondiales et au repositionnement de leur économie sur des industries à forte capacité d’emploi à haute valeur ajoutée »

Si l’on se concentre sur le cas des pays industrialisés (Brexit et élection de Trump obligent), l’idée est que la mondialisation actuelle est, dans une large mesure, affaire de fragmentation des processus de production. Comme l’avaient prédit Jones et Kierzkowski dès 1988, l’amélioration des moyens de communication a permis aux firmes de découper leurs processus de production de manière à ce que chaque étape soit réalisée dans le pays disposant d’avantages comparatifs pour l’étape concernée. Il serait illusoire de penser que les pays industrialisés pourraient renouer avec une croissance vigoureuse, voire même demeurer prospères, en se coupant de ces processus. Si la politique industrielle doit avoir un rôle, il doit être précisément d’accompagner ce positionnement dans les chaînes d’activité mondiale, et certainement pas de remettre au goût du jour les politiques de substitution des importations qui ont échoué dans les années 70.

Vous l’aurez compris, « La compétitivité des pays » est plus qu’un simple Repère. Il alerte les non-spécialistes sur l’évolution récente du logiciel des spécialistes de commerce international, et il aborde les problèmes posés par la mondialisation en des termes tout autant éloignés d’une béatitude aveugle qui a pu, il y a peu de temps encore, négliger les risques réels de l’intégration, que des idées simplistes des populismes tant à la mode ces derniers temps. Si les inventeurs des nouvelles théories du commerce international avaient pris leurs propres idées un peu plus au sérieux un peu plus tôt, le terrain aurait d’ailleurs peut-être été moins fertile pour l’essor de ces populismes.

(PS : parce qu’un ancien thésard peut bien se faire plaisir à relever les coquilles de son ancienne directrice : non, Bill Clinton n’était pas président des USA en 1985 (p4), et le nom de Rodrik n’apparait pas dans la bibliographie (p120), ni son papier de 2014 cité p99. :-p )

Trump, le vote populaire et le (bon) électeur médian

Pour la deuxième fois de son histoire depuis plus d’un siècle [corrigé le 7 mars], mais également pour la deuxième fois en 16 ans, les USA ont élu un président n’ayant pas recueilli la majorité du vote populaire. Depuis plus de 20 ans, l’électorat américain est « structurellement » démocrate, puisque depuis la première élection de William Clinton en 1992, le candidat du parti républicain n’a recueilli la majorité du vote populaire qu’une seule fois. C’était en 2004 et les circonstances permettent de penser qu’il s’agissait alors probablement davantage de soutenir un chef de guerre 3 ans après le 11 septembre que la marque d’une grande adhésion idéologique. L’explication de ce phénomène est assez simple. Les démocrates sont concentrés dans un petit nombre d’états dans lesquels ils sont nettement majoritaires. Or, être nettement majoritaire au sein d’un État ne sert à rien. Qu’un candidat soit légèrement majoritaire ou nettement majoritaire dans un État, de toute façon il obtiendra la totalité des grands électeurs de l’État. Mieux vaut, dans ce système, être légèrement majoritaire dans une majorité d’états que d’être nettement majoritaire dans une minorité d’états. Ainsi, sur les 232 votes recueillis par Hillary Clinton, près des deux tiers (147) l’ont été dans seulement 9 États sur 51(dont la Californie et New York) dans lesquels elle l’emporte par plus de 15 points d’avance. Donald Trump a, lui aussi, emporté certains états par plus de 15 points d’avance, 19 d’entre eux précisément, mais il s’agit d’états moins importants (Alabama, Alaska, Arkansas…) qui ne lui ont rapporté que 117 grands électeurs sur 306 (source).

Cette concentration géographique des électeurs démocrates est donc un handicap pour eux. Le propos de ce billet n’est pas de s’attarder sur les avantages et les inconvénients d’un tel système électoral. Je me contenterai de dire que ses inconvénients sautent aux yeux. A contrario, vous trouverez dans ce vieux post de John Cochrane (dont, soit dit en passant, les sympathies républicaines sont assez peu dissimulées dans cette interview récente) un argument favorable à ce système : dans un État fédéral, il est préférable d’éviter que le pouvoir soit confié à un camp n’étant majoritaire que dans une minorité d’états. Remarquons que la désignation de la majorité parlementaire en France obéit aux mêmes règles (bien qu’il n’y ait eu, à ma connaissance, aucun ‘bug’ de ce style sous la 5ème république). De même, le jour où les électeurs Européens éliront le président de la commission au suffrage universel, il y a fort à parier qu’ils le feront selon un système de grands électeurs, pour éviter, par exemple, que ne soit élu un candidat minoritaire dans tous les pays sauf en Allemagne où il remporterait 80% des suffrages (imaginez l’ambiance…)

Le propos de ce billet est de mettre en garde contre la tentation que l’on aurait de penser que si la règle électorale avait été différente, alors Hillary Clinton aurait emporté l’élection. En effet, si la règle avait été différente, alors la campagne elle-même aurait été différente. Si une équipe de football perd un match par 1 but à 0 après s’être vue refuser deux buts pour hors-jeu, elle peut se consoler en disant qu’en l’absence de la règle du hors-jeu, elle aurait gagné la partie. Sauf qu’en raison même de l’existence de la règle, les défenses « jouent » le hors-jeu, laissant les attaquants tout seuls devant afin qu’ils soient en faute. Elles ne le feraient pas si les règles étaient différentes.

En matière de politique, également, on joue en fonction de la règle. Lorsque la règle est qu’il faut une majorité d’électeurs pour emporter l’élection, alors la stratégie à jouer est celle de l’électeur médian (cf). Le principe est simple : si seuls deux candidats sont en lice, celui de droite obtiendra toujours le vote des électeurs plus à droite que lui, le candidat de gauche obtiendra celui des électeurs plus à gauche que lui. L’enjeu est donc le centre. Chaque candidat doit donc se rapprocher au maximum des positions de l’autre pour lui chiper ses électeurs. A l’équilibre, les deux candidats défendent quasiment les mêmes positions, correspondant à celles de l’électeur médian : celui qui est plus à droite que la moitié du corps électoral, et plus à gauche que l’autre moitié. Le hasard détermine le résultat du suffrage. Seule la volonté de ne pas créer trop d’abstention aux extrêmes peut justifier de légères différences entre les candidats.

On peut espérer que les positions outrancières défendues par Donald Trump durant la campagne ne soient pas celles de l’électeur américain médian. Ce qui ne signifie pas que sa stratégie était mauvaise.

Car lorsque, en revanche, le système électoral est celui des grands électeurs, alors ce n’est plus l’électeur médian qu’il faut draguer, mais l’électeur médian… de l’État médian. Pour se choisir un style et un discours de campagne efficaces (en termes de probabilités d’être élu), les électeurs californiens et texans n’ont strictement aucun intérêt. Les premiers voteront démocrate, les seconds républicain. Seuls comptent les états susceptibles d’hésiter entre les deux candidats. Les fameux ‘swing states’. Il se trouve que nombre de ces swing states sont situés dans la rust belt, c’est à dire dans ce nord-est qui a subi de plein fouet la désindustrialisation : notamment le Michigan, l’Ohio, la Pennsylvanie, le Wisconsin. Donald Trump a remporté ces États, et leurs 64 grands électeurs. Pour mémoire, il a en tout 74 grands électeurs d’avance sur Hillary Clinton.  Contrairement à ce que dit le Figaro, il n’a pas « cartonné » dans ces états, qui font partie de ceux qu’il a remporté avec les scores les plus serrés. Mais il a réussi à toucher leurs électeurs médians. Et il n’est guère douteux que les électeurs médians de ces états là sont assez différents de l’électeur médian américain. Plus en révolte contre la classe politique traditionnelle, plus hostiles à la mondialisation et aux traités de libre échange, plus sensibles à l’intérêt que pourraient avoir pour eux une politique de grands travaux. Étant donnée la règle du jeu de cette élection, la bonne stratégie consistait à séduire ces électeurs là, et pas les autres. Trump a perdu la Californie de 2’500’000 voix, et a gagné le Michigan (et ses 16 grands électeurs) de 13’000. Si ses outrances anti-système lui ont fait perdre 1’000’000 voix en Californie et lui en ont fait gagné 20’000 dans le Michigan, alors elles ont été une mauvaise stratégie pour gagner le vote populaire, mais une bonne stratégie pour remporter l’élection, ce qui était son but. La seule finesse était de ne pas perdre d’autres swing states importants, comme la Floride. Je ne connais pas les spécificités politiques de la Floride, mais on peut penser que le côté anti-immigration du discours de Trump y a trouvé un écho favorable, et parfaitement compatible avec le discours anti-mondialisation destiné à la rust belt.

Suite aux commentaires spontanés des journalistes sur la victoire du candidat des laissés pour compte, de nombreux commentateurs ont souligné que Trump avait, en fait, réalisé de meilleurs scores chez les riches que chez les pauvres. Mais ce contre-argument n’est pas convaincant, car il raisonne sur la moyenne au lieu de raisonner à la marge. Bien entendu, l’électorat démocrate est plus populaire que l’électorat républicain. Mais c’est probablement en séduisant, dans la rust belt en particulier, quelques centaines de milliers de laissés pour compte de plus que s’il avait tenu un discours plus mainstream qu’il a emporté l’élection.

Maintenant qu’il est élu, il sera, comme tous les présidents, sensible aux sondages d’opinion. Or ceux-ci ne sont pas exprimés selon le système des grands électeurs, mais selon le système du vote populaire (« x% d’américains se disent satisfaits de l’action du président »). Il y a fort à parier que, pour ne pas trop être challengé par l’opinion publique, il va tenter de faire évoluer son positionnement de celui de l’électeur médian de l’Ohio vers celui de l’électeur médian des USA. Une heure de discussion avec Barack Obama l’a déjà conduit à renoncer à abroger l’Obamacare. Avec l’image de dur à cuire qu’il s’est forgée durant cette campagne, il sera probablement raillé lorsqu’il commencera à renoncer une à une à ses promesses les plus extravagantes. Lui le pourfendeur d’une classe politique sans scrupule ni valeur entrera-t-il dans l’histoire de son pays comme le champion du reniement ? On a quelques raisons de le penser, et pour tout dire, de l’espérer.

Faut-il encore innover ?

Si vous ne l’avez pas encore fait, vous devriez lire le billet « We don’t need no innovation » d’Alexandre Delaigue. Le propos est assez simple, mais très iconoclaste : on en fait trop avec l’innovation. Dans la lignée de Robert Gordon, l’auteur nous rappelle que les innovations les plus récentes sont les moins utiles. Cessons donc de réclamer à cor et à cri des entreprises innovantes, des pédagogies innovantes, des politiques innovantes. Contentons-nous de bien faire ce qu’on sait déjà faire et de maintenir en bon état nos moyens de production, d’éventuelles innovations naîtrons par hasard de ces opérations de maintenance.

Toutes les modes finissent par être agaçantes, la passion pour l’innovation n’échappe pas à la règle. Comme Alexandre Delaigue, je préfèrerais que les universitaires soient au moins un peu évalués sur la qualité de leurs cours (ce qui n’est pas du tout le cas actuellement) plutôt que sur le caractère innovant de leur pédagogie (filmer son cours sur sa gopro plutôt que de le faire face à des étudiants) ou sur leur capacité à couper en morceau les résultats de leur dernière recherche pour en tirer 3 articles au lieu d’un seul.

Il y a quand même quelques objections.

1- AD nous rappelle que, d’après le modèle de Solow, un pays riche consacre l’essentiel de ses investissements à entretenir les équipements existants, et non à en créer de nouveaux. C’est vrai, mais selon le même modèle, en l’absence d’innovation depuis la révolution industrielle, nous aurions un revenu par habitant environ 10 fois inférieur à ce qu’il est. Grâce à l’innovation, les pays qui étaient déjà riches au 19ème siècle n’ont pas cessé d’accumuler de nouveaux moyens de production, largement au-delà de la maintenance de l’existant.

2- Lorsque les efforts de recherche sont moins efficaces (parce que les meilleures idées ont déjà été inventées), faut-il faire moins d’efforts (parce qu’ils sont moins rentables), ou faut-il en faire plus (parce qu’on accepte mal de voir diminuer le rythme du progrès technique) ? Je présume que le lien entre efficacité de la recherche et effort optimal a la forme d’une courbe en cloche. Si les idées tombent du ciel, inutile de faire trop d’efforts, le progrès est presque gratuit. Si, au contraire, quels que soient les efforts fournis, aucune idée nouvelle ne peut plus être découverte, alors autant laisser tomber la recherche et se consacrer à la production de ce qu’on sait déjà faire. Entre les deux, il doit exister une valeur critique de la productivité des activités de recherche au-delà de laquelle il est pertinent de faire plus d’efforts lorsque ces efforts sont moins efficaces. Je suis, hélas, convaincu que les efforts de la recherche sont moins efficaces aujourd’hui qu’il y a 100 ans, mais je ne suis pas sûr que l’on ait déjà franchi cette valeur critique, qui légitimerait une baisse des efforts de recherche.

3- Ce qui me fait penser que cette valeur critique n’a pas encore été franchie, c’est que j’imagine assez facilement de quelle manière des innovations incrémentales fondées sur des technologies déjà connues pourraient rendre caduques grand nombre d’activités jusqu’ici exercées par des hommes, ce qui est, dans une perspective Schumpeterienne, le moteur de la croissance : chauffeur, caissier, jardinier, agent d’entretien, comptable, maçon, secrétaire, manutentionnaire… Les robots, intelligences artificielles, imprimantes 3d et autres techniques qui, à défaut d’être récentes, sont en tout cas en progrès constants, pourraient permettre de remplacer les hommes dans ce que ces tâches ont de plus mécanique. Certes, cette perspective a de quoi effrayer, en particulier pour ce qui concerne les capacités de reconversion des travailleurs les moins qualifiés. Mais ces craintes légitimes sont très différentes de celles liées à la fin du progrès technique. Et elles sont la contrepartie d’un enrichissement global rendu à nouveau possible par l’innovation.

4- Les véritables politiques de l’innovation ne sont pas nécessairement celles que l’on croit. Les crédits d’impôt ou les programmes ciblés de financement de la recherche sont au mieux de petits coups de pouce à l’innovation, au pire de simples campagnes de pub pour les dirigeants politiques qui les promeuvent. Pour ne pas parler de « l’esprit start-up » qu’il s’agirait s’insuffler aux futurs conseillers d’Etat ou aux caissières de Monoprix. A en croire la thèse défendue brillamment par Daron Acemoglu et James Robinson, ce qui fait la différence entre une société qui n’innove pas et une société qui innove, ce sont des institutions politiques et économiques inclusives : état de droit, protection des libertés individuelles, système éducatif ouvert, marchés ouverts… Cette thèse n’est certes pas consensuelle, et des recherches récentes pointent plutôt une causalité inverse. Le débat est loin d’être clos, mais une chose est sûre, c’est que renoncer à l’innovation, c’est accepter que la croissance ne provienne que de l’accumulation de facteurs de production. Et accepter cette idée peut être lourd de conséquences. Dans une société qui fait reposer son économie sur la simple accumulation du capital, les incitations à investir peuvent être remplacées par une étatisation de l’investissement. Les principales activités économiques peuvent être confiées à des monopoles protégés par le pouvoir en place. Les rares innovateurs peuvent être dénoncés comme risquant de déstabiliser l’ordre social. On peut exproprier sans risque. L’éducation ne sert qu’à reproduire les catégories sociales à l’identique. Enfin la répartition des richesses devient la seule façon de s’enrichir, ce qui est propice soit à la généralisation des conflits, soit à un contrôle accru de l’Etat sur ses administrés pour maintenir la stabilité par la force.

L’histoire récente nous invite à considérer avec prudence les vertus de l’innovation. Les figures de Carlos Slim et de Vladimir Poutine devraient nous faire considérer avec plus de méfiance encore les sociétés qui renoncent à l’innovation.

Le défaut et la Drachme

John Cochrane est rarement convainquant sur les questions macroéconomiques. Il a cependant bien raison de s’indigner de l’équation qui tend à s’imposer dans les discours les plus convenus : ‘défaut de l’État grec = sortie de la zone Euro’. L’idée sous-jacente est que la zone Euro est un club d’États vertueux, et que, par conséquent, un État qui ne paie pas ses dettes ne mériterait plus de faire partie du club. Cette idée ne repose sur à peu près rien. On peut tout à fait imaginer que l’État grec fasse défaut purement et simplement, tout en restant dans la zone euro. Un État qui fait défaut ne prend-il pas le risque d’éprouver les pires difficultés à ré-emprunter de quoi financer de futurs déficits ? A l’évidence, mais en quoi cela devrait gêner les autres pays membres ? Les prêteurs savent faire la différence entre les différents États de la zone ! Encore si l’économie grecque pesait lourd au sein de la zone, pourrait-on dire que la fragilité de cet État est de nature à fragiliser l’Euro, mais la dette grecque pèse, rappelons-le une nouvelle fois, bien peu dans le PIB de la zone Euro.

J’ai moi-même, ici, présenté le retour à la drachme comme une option à envisager sérieusement. Mais soyons bien clairs : il ne s’agissait pas de présenter ce retour à la Drachme comme une punition pour la Grèce, mais comme un moyen pour elle de retrouver une politique monétaire. Je ne cachais pas le chaos que provoquerait certainement une éventuelle sortie de l’Euro pendant quelques mois, mais j’invitais à comparer ce chaos avec la situation actuelle, qui ressemble elle-même déjà à un gros chaos.

Si l’on se place du point de vue des autres membres de la zone euro, ils n’ont quasiment rien à gagner à un retour à la Drachme, qui créerait un précédent susceptible de fragiliser la monnaie unique.

Ce qui manque, à mon avis, à l’argument de Cochrane, c’est une indication de ce que gagnerait la Grèce à rester dans la zone Euro. [add 5 juin 14h37 : Cochrane propose que la grece reste dans la zone Euro mais fasse défaut « My favorite solution for Europe is sovereign default and keep the common currency«  ] Bien sûr qu’un défaut total soulagerait largement les finances publiques (pas à 100% d’ailleurs, car il faudrait compenser par des dépenses sociales la perte de revenu de certains retraités grecs, dont le patrimoine est en partie investi dans de la dette de leur État). Mais la contrepartie serait une impossibilité quasi totale de connaître des déficits pendant de longues années, et on peine à comprendre ce qui pourrait faire office de stimulus dans un tel scenario : pas de déficit, pas de politique monétaire. Restent les politiques de compétitivité, qui consistent à espérer que tous les prix, et donc tous les salaires baissent suffisamment en Grèce pour stimuler les exportations. Beaucoup de douleur en perspective.

Quel macroéconomiste êtes-vous ? (réponses)

Éléments de réponse pour le test de jeudi dernier. Bravo à Jean et à Mathek [add: et à ALC] qui ont répondu à peu près ce que j’avais en tête. Reprenons.

La première question était « la demande globale a-t-elle une importance ? ». La plupart des macroéconomistes répondent « oui » à cette question. Les seuls à répondre « non » (réponse F) appartiennent au courant dit de la « nouvelle économie classique », née dans les années 1970 sous l’influence de Robert Lucas. Il serait très exagéré de considérer que tous les auteurs appartenant à cette école nient tous et de façon absolue que la demande globale puisse avoir une importance. En revanche, la pensée de cette école a deux caractéristiques fortes : 1- la demande globale ne peut avoir d’influence que si les agents économiques se trompent dans leurs anticipations d’inflation, et il est vain d’imaginer que la banque centrale ou le gouvernement puissent les tromper. 2- Dans toutes les crises économiques, les représentants de cette école cherchent systématiquement des causes du côté de l’offre, c’est à dire dans les fondamentaux de l’économie. Pour la grande dépression des années 1930, par exemple, Harold Cole et Lee Ohanian cherchent dans le New Deal des mesures qui auraient ralenti la reprise économique en augmentant le coût du travail et le pouvoir de monopole des grandes entreprises. Pour être honnête, les auteurs reconnaissent que la crise est bel et bien créée par un choc de demande, mais que la longueur de la crise est imputable à l’offre. De nos jours, les conséquences fiscale de la réforme de la protection sociale mise en œuvre par Barack Obama ainsi que l’augmentation de la durée d’indemnisation du chômage seront volontiers convoquées pour expliquer la lenteur de la reprise.

En résumé, pour les nouveaux classiques : 

– une crise peut survenir si l’inflation chute d’une façon brutale et inattendue.

– mais le public révisera alors rapidement ses anticipations d’inflation, si bien que la crise devrait prendre fin rapidement. Nul besoin d’intervenir.

– si malgré tout la crise se prolonge, c’est certainement à cause des interventions politiques destinées à y mettre fin.

Tous les autres courants de la macroéconomie reconnaissent un rôle à la demande globale. Mais ce rôle peut concerner uniquement le court terme, ou le long terme également. Commençons par ceux qui considèrent que la demande globale a « toujours » un rôle. C’est là que se situait mon piège. La question suivante était de savoir si la demande globale était stimulée plus efficacement par la politique monétaire ou budgétaire. A ma connaissance, il n’existe pas de courant qui considère en même temps que la demande globale a une importance même à long terme et qui considère que la politique monétaire la stimule avec plus d’efficacité que la politique budgétaire. Donc, selon moi, la réponse A ne correspond à aucun courant établi. Mais la réponse de Jean me fait douter… Les post-keynésiens constituent un courant relativement marginal, qui insistent sur le caractère endogène de la monnaie : en périodes fastes, les banques sont enclines à accorder des crédits qui, par construction, gonflent la masse monétaire. Inversement, les phases de récessions paralysent le crédit ce qui contracte la masse monétaire. Ainsi, pour eux, il est vain de vouloir contrôler la masse monétaire pour influencer le cycle économique. Ce qui me fait dire que Jean se trompe. Mais, en revanche, il est exact que les mêmes post-keynésiens insistent sur l’importance des taux d’intérêt de la banque centrale, si bien que Jean a peut-être raison de les mettre dans la catégorie A. Serais-je tombé dans mon propre piège ?

Je suis, en revanche, plus sûr de moi quand je dit que la réponse B correspond aux premiers keynésiens, et à quelques keynésiens actuels qui n’adhèrent pas entièrement aux évolutions récentes du keynésianisme. Pour les keynésiens « à l’ancienne », évidemment, la demande globale a une importance, et cette importance concerne le fonctionnement de l’économie dans le long terme. Les politiques devraient avoir le soucis constant de s’assurer que la dépense des agents économiques soit suffisamment importante pour assurer le plein emploi des capacités de production. En témoigne cette citation de Joan Robinson, extraite d’une lettre que j’ai traduite récemment :

« (…) je comprends en un coup d’œil que Keynes montre que le chômage va être un écrou très difficile à desserrer, car il n’est pas juste un accident – il a une fonction. »

En témoigne également cet extrait d’un article du keynésien James Tobin publié en 1972 par l’American Economic Review :

« Zero-inflation unemployment is not wholly voluntary, not optimal, I might even say not natural. In other words, the economy has an inflationary bias: When labor markets provide as many jobs as there are willing workers, there is inflation, perhaps accelerating inflation. »

Le sens de cet extrait est extrêmement clair : il ne saurait y avoir, en aucun cas, de plein emploi sans inflation. En témoigne enfin cette analyse récente de Joseph Stiglitz de la crise. Selon lui, la dynamique de long terme des sociétés capitalistes se caractérise par des changements techniques qui réduisent le revenu de certaines catégories d’agents, entrainant ainsi des crises, si le pouvoir politique n’intervient pas. Ainsi, la grande dépression des années 30 aurait été causée par l’amélioration de la productivité agricole, qui a privé d’emploi et de revenu un grand nombre d’agriculteurs. De la même manière, le basculement de l’activité économique américaine de l’industrie vers les services serait responsable de la chute de la demande globale qui aurait entrainé la crise actuelle.

L’autre caractéristique de ces keynésiens « à l’ancienne » est qu’ils doutent de l’efficacité de la politique monétaire. Toujours dans le même article, Joseph Stiglitz constate ce qu’il considère comme un échec des politiques de quantitative easing (qui reviennent à des créations massives de liquidités) de la part de la federal reserve, et en tire également des conclusions sur l’inanité (selon lui) des analyses monétaires de la grande dépression :

« the inability of the monetary expansion to counteract this current recession should forever lay to rest the idea that monetary policy was the prime culprit in the 1930s »

De nos jours, l’idée que la demande globale a une importance à long terme sur le fonctionnement réel de l’économie est assez nettement devenue minoritaire. Quand ils n’appartiennent pas à la catégorie F, les macroéconomistes contemporains (de même que certains anciens) considèrent généralement que la demande globale n’a d’importance qu’à court terme. On peut dire sans craindre de trop se tromper (et au prix d’anachronismes pour certains auteurs) que les auteurs des catégories C, D et E sont convaincus que ceux de la catégorie F ont raison i- de mettre l’accent sur les anticipations faites par les agents économiques, et ii- de refuser de construire des modèles dans lesquels ces anticipations sont entachées d’un biais systématique (consistant, par exemple, à systématiquement surestimer ou sous-estimer l’inflation).

Ils se distinguent néanmoins des nouveaux classiques car ils estiment que lorsque les anticipations ne se réalisent pas, ce qui peut arriver lorsque l’économie est soumise à des chocs, l’ajustement de tous les prix (yc salaires, loyers, etc) est beaucoup trop compliqué à mettre en place pour que l’économie puisse se relever à court terme. Paul Krugman citait récemment un texte de Milton Friedman, avec qui il était pourtant en désaccord sur bien des choses, qui illustre ce problème de coordination :

« The argument for flexible exchange rate is, strange to say, very nearly identical with the argument for daylight saving time. Isn’t it absurd to change the clock in summer when exactly the same result could be achieved by having each individual change his habits? All that is required is that everyone decide to come to his office an hour earlier, have lunch an hour earlier, etc. But obviously it is much simpler to change the clock that guides all than to have each individual separately change his pattern of reaction to the clock, even though all want to do so. The situation is exactly the same in the exchange market. It is far simpler to allow one price to change, namely, the price of foreign exchange, than to rely upon changes in the multitude of prices that together constitute the internal price structure. »

Ce texte, qui concerne à priori le rôle du taux de change en matière de commerce international, permet de façon plus générale de comprendre l’importance de la demande à court terme : si l’inflation, en raison d’un choc (panique bancaire par exemple), est plus faible que prévu, alors il faudrait revoir à la baisse tous les prix simultanément : les prix de vente des biens manufacturés, les salaires, les loyers, les taux d’intérêt, etc. ce qui peut être long et pénible. Une autre solution  est de stimuler la demande afin de recréer suffisamment d’inflation pour que le niveau général des prix soit à nouveau en ligne avec ce qui était anticipé.

Trois écoles se reconnaissent (avec peut-être un bémol pour une d’entre elles) dans cette vision du rôle de la demande à court terme. Voyons ce qui les distingue.

Pour l’école représentée par la réponse C, c’est la politique monétaire qui est, en toutes circonstances, la plus efficace pour stimuler la demande. Le mécanisme est le suivant : une augmentation de la masse monétaire créée un excédent de liquidité, que les agents économiques chercheront à remplacer par des placements plus rentables : obligations, actions, logements, …, dont le prix augmentera. Ces augmentations de prix encouragent l’investissement (les obligations plus chères correspondent à des taux d’intérêt plus faibles, les actions plus chères permettent de lever des fonds à moindre coût, les logements plus chers rendent rentables les constructions nouvelles…). La politique budgétaire, en revanche, a une faible efficacité, car les dépenses publiques doivent être financées, soit par des impôts immédiats, soit par de la dette et donc des impôts futurs, qui, dans les deux cas, contrebalanceront au moins une partie du stimulus budgétaire.

Ce contrôle de la demande via la politique monétaire est souhaitable, pour les monétaristes (école de Milton Friedman), ainsi, comme le souligne Jean dans ses réponses, que pour les nouveaux monétaristes (ou « monétaristes de marché » : Laars Christensen, Scott Sumner,…) et certains nouveaux keynésiens (Greg Mankiw par exemple). Bien des anciens classiques (tels David Hume) se reconnaitraient vraisemblablement eux aussi dans ce courant. Il ne s’agit pas ici de stimuler en permanence la demande, mais de la stimuler lorsque l’activité donne des signes de ralentissement, et de la freiner, au contraire, lorsque l’inflation menace de s’emballer.

Pour les tenants de la réponse D, au contraire, il est dangereux de vouloir intervenir : bien que la demande globale ait une importance à court terme, la banque centrale ne devrait pas s’en préoccuper. Les représentants de cette réponse sont les plus « libéraux » (dans le sens de l’hostilité à l’intervention publique) de la liste : les économistes autrichiens, héritiers de Friedrich Hayek. Leur argument est que la production ne doit pas être considérée comme un tout homogène : une distinction doit être faite entre les biens de consommation, qui répondent à une demande immédiate, et les biens d’investissement, qui permettent d’augmenter les capacités de production futures de l’économie, et qui répondent donc à une demande future. Or, selon les autrichiens, investir n’a de sens que si les consommateurs souhaitent réellement accroître leur épargne actuelle, pour accroître leur consommation future. Les stimuli monétaires donnent l’illusion que l’investissement est rentable, car le taux d’intérêt est faible. Mais les biens d’investissement ainsi accumulés se révèlent finalement inutiles, lorsqu’il apparait que les consommateurs n’ont pas réellement accru leur épargne, et qu’ils ne souhaitent donc pas accroître leur consommation future. Les bulles immobilières sont le type d’évènements mis en avant par les autrichiens : des taux d’intérêt faibles encouragent la construction de logements neufs, comme en Espagne dans les années 2000, mais ces logements ne trouvent pas acquéreurs, et conduisent à la ruine des entrepreneurs trompés par des taux d’intérêt artificiellement faibles. Certes, le stimulus a créé de l’emploi (dans la construction), mais est à l’origine de la crise (la destruction d’emplois dans la construction). Mieux vaut donc laisser le marché déterminer dans quel secteur d’activité se trouvent les emplois pérennes, plutôt que de brouiller ce signal fondamental qu’est le taux d’intérêt.

Enfin, les partisans de la réponse E sont, pour l’essentiel, ceux que l’on appelle les nouveaux keynésiens (ou la plupart d’entre eux en tout cas). Paul Krugman est, évidemment, le plus éminent représentant de ce courant. Pour les nouveaux keynésiens, il existe deux situations économiques bien distinctes : les situations ordinaires, au cours desquelles le taux d’intérêt nominal de la banque centrale est éloigné de 0%, et les « trappes à liquidités », au cours desquelles ce taux est à peu près à 0%. Pendant les situations ordinaires, les nouveaux keynésiens ne soutiennent pas des positions très éloignées de celles des monétaristes. Dans ces situations, ce qui les distingue des monétaristes est presque un détail technique : ils considèrent que l’instrument privilégié de la politique monétaire est le taux d’intérêt (que la banque centrale doit baisser ou accroître), tandis que les monétaristes accordent plus d’importance à la masse monétaire. Mais lorsque le taux d’intérêt nominal de la banque centrale est proche de 0%, ce détail prend toute son importance. En effet, le taux nominal ne peut pas, pour des raisons évidentes, prendre une valeur négative. Si l’on considère, comme les nouveaux keynésiens, que l’efficacité de la politique monétaire passe par l’influence des taux à court terme sur les taux à long terme, qui eux-même stimulent les investissements, alors la banque centrale ne peut plus rien faire lorsque son taux est déjà à 0. Certes, elle peut accroître les liquidités, mais lorsque les taux d’intérêt sont nuls, conserver ces liquidités ne rapporte pas mois que d’autres placements, si bien que les liquidités nouvellement créées sont tout simplement thésaurisées, et n’ont aucune conséquence économique. Dans ces conditions, la seule façon de stimuler la demande est de dépenser directement, via l’accroissement temporaire des dépenses publiques.

Quelques remarques pour conclure :

-D’abord, je fais observer que le courant le plus radical dans son hostilité à l’intervention publique (le courant autrichien) n’est pas le courant le plus radical concernant l’inefficacité de cette intervention publique (le courant nouveau-classique). Pour les nouveaux classiques, la politique monétaire n’a simplement pas d’influence, ni positive ni négative, sauf si elle conduit à une hyper-inflation. Pour les autrichiens, la politique monétaire a bien des effets positifs à court terme, mais est à proscrire car ses effets à long terme sont d’autant plus désastreux que les effets de court terme auront été positifs.

-Ensuite, j’attire l’attention des lecteurs sur une source de confusion importante : il existe deux types biens distincts d’oppositions à la politique monétaire. La première forme d’opposition est celle qui considère qu’elle est néfaste car inflationniste (nouveaux classiques, autrichiens). La seconde est celle qui considère qu’elle est insuffisante pour stimuler la demande globale (anciens keynésiens), et qu’il faut lui préférer la politique budgétaire. Il est important de ne pas confondre ces deux types de rejets de la politique monétaire : pour les premiers, elle va trop loin, pour les seconds, elle ne va pas assez loin.

-Enfin, je voudrais mettre en avant le fait que la présentation faite dans ce billet des différents courants macroéconomiques peut donner une impression bien trompeuse d’une profession totalement balkanisée. En réalité, (outre le courant A qui n’existe pas) les courants B et D sont relativement marginaux : le courant B (les vieux keynésiens) parce qu’il n’a pas intégré la révolution des anticipations rationnelles, le courant D (les autrichiens) parce que ses représentants refusent de proposer de leur théorie une version formalisée qui permettrait d’expliciter tous les mécanismes sous-jacents et de les rendre empiriquement réfutables (c’est en tout cas mon interprétation). Le courant F (les nouveaux classiques) est théoriquement assez éloigné des courants C (monétaristes, anciens classiques) et E (nouveaux keynésiens), mais en pratique, ils reconnaissent volontiers que les crises peuvent provenir de problèmes de demande. Je vous invite par exemple à parcourir ces diapositives de Robert Lucas sur les crises de 1930 et 2008, qui avancent sans ambiguïté des explications basées sur la demande (résumées par cette phrase p17, au sujet des années 30 : « No change in american ability to produce »), même s’il préconise un arrêt des politiques actives pour des raisons basées sur l’offre. Enfin, les mêmes courants C et E sont en réalité relativement proches. Ils ont les mêmes modèles, basés sur les anticipations rationnelles (pour les contemporains en tout cas) et sur la rigidité des prix. Leur seul point de divergence concerne les trappes à liquidité, mais même dans ce cas, les nouveaux keynésiens reconnaissent que des interventions de la banque centrale peuvent, au moins en théorie, sortir l’économie de telles trappes, via les anticipations d’inflation. C’est pour cette raison que Krugman, pourtant grand défenseur de la théorie des trappes à liquidité, a néanmoins accueilli favorablement les « quantitatives easings » (injections de liquidités) de la federal reserve. 

J’irai même plus loin : étant donné i- la proximité entre la plupart des macroéconomistes contemporains, et ii- leur distance avec la perception qu’ont de l’économie nombre de dirigeants politique, ils seraient mieux inspirés en tentant de communiquer sur les points de consensus qu’en se perdant en polémiques stériles.

PS : pour ma part, je suis C la plupart du temps, E de temps en temps, et j’ai quelques rares accès de D et F, mais je me soigne.

Quel macroéconomiste êtes-vous ?

Petit test, façon femme actuelle.

Le but du jeu est de donner la lettre que vous trouvez au terme des flèches, et d’essayer de trouver à quelle(s) école(s) de pensée macroéconomique vous vous rattachez.

Une autre façon de jouer consiste à ne pas se prononcer sur la lettre, mais à essayer de caractériser chaque lettre. Si vous êtes étudiant ou si vous essayez d’y voir clair dans les différents discours ambiants concernant la crise, ça vous aidera à mettre de l’ordre dans vos idées (j’espère !). Mes réponses d’ici demain peu.

Enjoy !

PS : attention, il y a un piège !

https://i0.wp.com/www.optimum-blog.net/public/quelle_macro.png

Joan Robinson à un marxiste

Ne ratez pas, trouvée via Brad Delong, cette superbe lettre ouverte de Joan Robinson à un marxiste, datant de 1953. Avec énormément d’humour, celle qui se définit elle-même comme une « keynésienne de gauche » nous donne, en quelques lignes, une superbe leçon de méthode et d’histoire de la pensée, en tournant en dérision l’idolâtrie dont les marxistes savaient parfois faire preuve en ces temps là.

Pour les non anglophones, je me suis permis la petite traduction suivante (n’hésitez pas à me proposer des améliorations) :

Lettre ouverte d’une keynésienne à un marxiste

Je dois vous avertir que vous allez trouver cette lettre très difficile à suivre. Non pas, je l’espère, en raison de sa difficulté (je ne vais pas vous embêter avec de l’algèbre, ou des courbes d’indifférence), mais parce que vous la trouverez extrêmement choquante et que vous serez trop sonné pour en accepter la teneur.

Je voudrais commencer par une considération personnelle. Vous êtes très poli et essayez de ne pas me le faire sentir, mais, comme je suis une économiste bourgeoise, votre seul intérêt possible à m’écouter est d’entendre quelle sorte de non-sens je vais bien pouvoir débiter. Pire encore – je suis une keynésienne de gauche. J’ai tiré des conclusions plus roses que bleutées de la Théorie générale, bien avant sa publication. (J’étais dans la position privilégiée d’être membre d’un groupe d’amis qui ont travaillé avec Keynes alors qu’il était en cours d’écriture.) J’ai donc été la toute première à atterrir dans le bocal étiqueté «de gauche keynésienne». Au demeurant, je constitue aujourd’hui une grande proportion du contenu du bocal, parce qu’une bonne partie du reste s’en est exfiltré depuis. Maintenant, vous savez le pire.

Mais je veux que vous m’envisagiez en utilisant la méthode dialectique. Le premier principe de la dialectique, c’est que la signification d’une proposition dépend de ce qu’elle réfute. Ainsi la même proposition a deux significations opposées selon que vous la considérez d’en haut ou d’en bas. Je sais à peu près de quel point de vue vous considérez Keynes, et j’en infère correctement votre jugement. Utilisez un peu de dialectique, et essayez de comprendre le mien.

J’ai été étudiante à un moment où l’économie vulgaire était dans un état particulièrement vulgaire. La Grande-Bretagne ne comptait pas moins d’un million de chômeurs, et j’étais là, avec mon professeur m’enseignant qu’il est logiquement impossible d’avoir du chômage à cause de la loi de Say.

C’est alors qu’arriva Keynes, qui prouva que la loi de Say est une absurdité (Marx en a fait autant, bien sûr, mais mon professeur n’a jamais attiré mon attention sur les opinions de Marx à ce sujet). Par ailleurs (et c’est en cela que je suis une keynésienne de gauche, plutôt que de l’autre genre), je comprends en un coup d’œil que Keynes montre que le chômage va être un écrou très difficile à desserrer, car il n’est pas juste un accident – il a une fonction. En bref, Keynes a mis dans ma tête l’idée même de l’armée de réserve de travailleurs que mon professeur avait été si attentif à garder hors d’elle.

Si vous avez la moindre petite pincée de dialectique en vous, vous verrez que la phrase « Je suis une keynésienne » a une signification totalement différente quand je la prononce, de celle qu’elle aurait eu si vous l’aviez prononcée (ce que, bien sûr, vous n’auriez jamais fait).

La seule chose que je vais dire qui va vous sonner ou vous faire bouillir (selon votre tempérament) au point de vous rendre incompréhensible le reste de ma lettre est la suivante : Je comprends Marx, et de loin mieux que vous. (Je vais vous donner une intéressante explication historique dans une minute, si vous n’êtes pas complètement raide ou bouillant avant d’en arriver là.)

Quand je dis que je comprends mieux Marx que vous, je ne veux pas dire que je connais le texte mieux que vous. Si vous commencez à me lancer des citations, vous m’aurez déroutée en peu de temps. En fait, je refuse de jouer avant même de commencer.

Ce que je veux dire est que j’ai Marx dans mes os alors que vous l’avez dans la bouche. Pour prendre un exemple – l’idée que le capital constant est une accumulation de la force de travail dépensée dans le passé. Pour vous c’est quelque chose qui doit être prouvé avec un tas de trucs hégéliens et de non-sens. Alors que moi, je dis (même si ma terminologie n’est pas aussi pompeuse que la vôtre): « Naturellement – que pourrait-il être d’autre ? »

C’est pour cela que je suis terriblement embrouillée. Pendant que vous étiez en train d’essayer de le prouver, je pensais que vous parliez de quelque autre chose (sans que je sache exactement laquelle) qui avait besoin d’être prouvée.

Autre exemple, supposons que nous voulions nous remémorer quelque point délicat dans le capital, par exemple le schéma à la fin du tome II. Que faites-vous? Vous ouvrez le volume et y cherchez l’explication. Que fais-je? Je prends le dos d’une enveloppe et tente de résoudre le problème.

Maintenant, je vais vous dire quelque chose d’encore pire. Supposons, uniquement pour l’exemple, que la réponse trouvée sur ma vieille enveloppe n’est pas celle qui figure dans le livre. Que dois-je faire? Je vérifie mon travail, et si je n’y trouve pas d’erreur, je cherche une erreur dans le livre. Maintenant, je suppose que je pourrais aussi bien arrêter d’écrire, parce que vous pensez que je suis folle à lier. Mais si vous arrivez à me lire un instant de plus, je vais essayer de m’expliquer.

J’ai été élevée à Cambridge, comme je vous l’ai dit, dans une période où l’économie vulgaire avait atteint les plus grandes profondeurs de la vulgarité. Mais tout de même, à côté d’un tas d’inepties, avait été conservé un patrimoine précieux – la façon de penser de Ricardo.

 Ce n’est pas une chose que vous pouvez apprendre dans les livres. Si vous vouliez apprendre à rouler à bicyclette, prendriez-vous un cours par correspondance sur la bicyclette? Non, vous emprunteriez un vieux vélo, vous sauteriez en scelle, tomberiez, vous écorcheriez, avanceriez en tremblotant, et puis tout d’un coup, hop ! Vous feriez du vélo. C’est à cela que ressemblait le cours d’économie à Cambridge. Et c’est comme pour une bicyclette : une fois que vous savez en faire, ça devient une seconde nature.

Lorsque je lis un passage dans le capital je dois d’abord comprendre ce que Marx entend par « c »  à ce moment-là, s’il s’agit bien du stock total de travail accumulé (il n’aide pas souvent en précisant de quoi il parle – ça doit être déduit du contexte), et ensuite je me sens aussi à l’aise que sur ma bicyclette.

Un marxiste est très différent. Il sait que ce que Marx dit doit être juste dans tous les cas, alors pourquoi gaspiller sa propre capacité mentale à savoir si « c » est un stock ou un flux ?

Puis j’en arrive à un endroit où Marx dit qu’il s’agit d’un flux, alors qu’il est assez clair dans le contexte qu’il devait s’agir d’un stock. Sauriez-vous ce que je fais dans ce cas ? Je descends de mon vélo, et je corrige l’erreur, et puis je me remets en scelle et me voilà.

Maintenant, supposons que je dise à un marxiste: « Regardez un peu – veut-il dire le stock ou le flux ? » Le marxiste dit: « « c » signifie le capital constant », et il me donne une petite leçon sur le sens philosophique du capital constant. Je dis : « Tant pis pour le capital constant, n’a-t-il pas confondu le stock et le flux ? » Le marxiste me répond : « Comment aurait-il pu faire une erreur ? Ne sais-tu pas qu’il était un génie ? » Et il me donne une petite leçon sur le génie de Marx. Je me dis : « Cet homme peut être un marxiste, mais il ne comprend pas grand-chose au génie ». Votre esprit laborieux avance étape par étape, prend le temps d’être prudent et évite les dérapages. Votre génie porte des bottes de sept lieues, et va arpentant, en laissant un jeu de piste de petites erreurs derrière lui (et qui s’en soucie ?). Je dis : « peu importe ​​le génie de Marx Est-ce un stock ou un flux ? » C’est alors que le marxiste se froisse et change de sujet. Et je me dis « Cet homme peut être un marxiste, mais il ne risque pas d’aller loin en bicyclette. »

La chose qui est intéressante et curieuse dans tout cela, est que le brouillard idéologique qui entourait mon vélo quand j’ai débuté n’avait rien en commun avec l’idéologie de Marx, et pourtant mon vélo devrait être le même que le sien, avec quelques améliorations modernes et quelques altérations modernes. A partir d’ici, ce que je vais dire est plus dans votre ligne, donc vous pouvez vous détendre une minute.

Ricardo a existé à un tournant si fort de l’histoire anglaise que les positions progressistes et les positions réactionnaires se sont totalement déplacées en une génération. Il écrivait juste au moment où les capitalistes étaient sur le point de remplacer l’ancienne aristocratie foncière en tant que classe dirigeante. Ricardo était dans le camp progressiste. Sa principale préoccupation était de montrer que les propriétaires étaient des parasites pour la société. Ce faisant, il a été dans une certaine mesure le champion des capitalistes. Ils faisaient partie des forces productives contre les parasites. Il a été pro-capitalistes contre les propriétaires plus qu’il n’a été pro-travailleurs contre les capitalistes (avec la loi d’airain des salaires, c’était simplement pas de chance pour les travailleurs, quoi qu’il arrive).

Ricardo a été suivi par deux élèves doués et bien formés – Marx et Marshall. En attendant, l’histoire anglaise avait dépassé son tournant, et les propriétaires n’étaient plus la question depuis longtemps. Maintenant c’était les capitalistes. Marx retourna l’argument de Ricardo de cette façon: les capitalistes sont très semblables à des propriétaires. Et Marshall le retourna dans l’autre sens : Les propriétaires sont très semblables à des capitalistes. Du tournant de l’histoire anglaise, partirent deux bicyclettes de la même fabrication – l’une roulant vers la gauche et l’autre vers la droite.

Marshall a fait bien plus que de changer la réponse. Il a changé la question. Pour Ricardo, la théorie de la valeur a été un moyen d’étudier la répartition de la production totale entre les salaires, la rente et le profit, considérés chacun comme un tout. C’est une grande question. Marshall fait de la signification de la valeur une petite question : Pourquoi un œuf coûte plus cher qu’une tasse de thé ? C’est peut-être une petite question, mais il est très difficile et compliqué d’y répondre. Cela prend beaucoup de temps et d’algèbre à théoriser. Ça a donc occupé tous les élèves de Marshall pendant cinquante ans. Ils n’avaient pas le temps de penser à la grande question, ou même de se rappeler qu’il y avait une grande question, parce qu’ils devaient garder le nez dans le guidon pour élaborer la théorie du prix d’une tasse de thé.

Keynes a retourné la question à nouveau. Il a commencé à penser en termes ricardiens : la production comme un tout, et pourquoi se soucier d’une tasse de thé ? Lorsque vous pensez à la production comme un tout, les prix relatifs partent au lavage – y compris le prix relatif de l’argent et du travail. Le niveau des prix s’invite au débat, mais il s’invite en tant que complication, et non comme question principale. Si vous avez un tant soit peu pédalé sur les vélos de Ricardo, vous n’avez pas besoin de vous arrêter et de vous demander ce qu’il faut faire dans un cas comme ça, vous vous contentez d’avancer. Vous écartez par hypothèse la complication jusqu’à ce que vous ayez clarifié le point principal. Ainsi, Keynes a commencé en se débarrassant des prix exprimés en monnaie. La tasse de thé de Marshall s’est évaporée dans le néant. Mais si vous ne pouvez pas utiliser l’argent, quelle unité de valeur prenez-vous ? Une heure de temps de travail d’un homme. C’est la mesure la plus utile et judicieuse de la valeur, donc, naturellement, vous la prenez. Vous n’avez pas à prouver quoi que ce soit, vous le faite, tout simplement.

Et voilà où nous en sommes – nous sommes revenus aux grandes questions de Ricardo, et nous utilisons l’unité marxienne de la valeur. De quoi vous plaignez-vous ?

Et pour l’amour du ciel, laissez Hegel en dehors de ça. Pourquoi Hegel vient-il mettre son nez entre moi et Ricardo ?

Le NIURONG et les trois zones euro

La mode est au NGDP targeting dans les milieux autorisés. Le NGDP targeting consiste à demander aux banques centrales de se fixer comme objectif de faire croitre à taux constant le PIB nominal (le Nominal Gross Domestic Product en anglais). La croissance du PIB nominal correspond à la somme de la croissance telle qu’on l’entend d’ordinaire (la croissance « réelle » ou « en volume ») et du taux d’inflation. L’idée est que le PIB réel est censé croître à un rythme relativement régulier, de même que les prix. Un accroissement plus lent que prévu du PIB nominal contient un risque de récession (ou de baisse de la croissance), tandis qu’une croissance plus forte que prévu risque de se traduire par un excès d’inflation. Ainsi, si le taux s’avère inférieur à l’objectif, la banque centrale mettra en œuvre une politique accommodante (baisse des taux, création de liquidités) pour éviter un ralentissement de l’activité. Si, au contraire, le taux est supérieur à l’objectif, la banque centrale augmentera ses taux pour éviter une dérive inflationniste. Le NGDP targeting apparaît comme une manière de faire coïncider les deux objectifs que partagent la plupart des banques centrales : stabilité des prix et soutien à l’activité.  La blogosphère (surtout anglo-saxonne) regorge de discussions sur les avantages et inconvénients de cette idée. Mon propos ici est de me demander ce que pourrait être l’objectif de croissance du PIB nominal dans la zone euro. La réponse, hélas, semble varier selon les pays.

Je n’aurai sans doute pas de prix Nobel pour ça, mais je propose une piste. Elle consiste à utiliser, pour définir l’objectif de croissance nominale, un concept adapté du fameux NAIRU : le Non Accelerating Increasing Unemployment Rate Of Nominal Growth, autrement dit le NAURONG NIURONG. L’idée est simple : si le NGDP targeting est efficace, alors il ne devrait conduire à une stabilité économique, se traduisant par un chômage constant. S’il existe un lien entre le taux de croissance du chômage (gu) et le taux de croissance nominale (gn) tel que gu=a – b * gn, alors le chômage sera constant (gu=0) si gn=a/b. Il nous faut donc une estimation de a et b pour calculer le NIURONG.

Évaluer sérieusement a et b est au-dessus de mes compétences. Je peux en revanche les estimer approximativement, avec toutes les précautions d’usage (merci aux commentateurs les plus féroces de bien noter que cette phrase n’est pas qu’une précaution oratoire de principe !).

J’ai constitué un petit jeu de données sur la macroéconomie de la zone Euro. Ces données proviennent d’Eurostat, sauf en ce qui concerne les agrégats monétaires par pays, qui proviennent des banques centrales nationales de la zone. Je n’utiliserai ici que deux variables : le nombre de chômeurs et le PIB nominal.

Les données sont mensuelles. En fait, elles sont vraiment mensuelles pour les statistique monétaires. Pour les autres données, elles sont trimestrielles, mais mensualisées par interpolation linéaire, ce qui induit peut-être un biais concernant la pertinence des tests de significativité (le nombre de degrés de liberté est certainement surestimé).

Bref. Je calcule, pour ces deux séries (chômage et NGDP) des taux de croissance sur six mois (ce qui me semble être un découpage raisonnable à vue d’œil), sur la période janvier 2003 – juillet 2011.

Dans le cas emblématique de la Grèce, une simple régression linéaire donne le résultat suivant :

On a donc, pour la Grèce gu=9-3gn. Par conséquent, le taux de croissance semestriel du PIB nominal devrait être de 9/3=3% pour stabiliser le chômage, ce qui correspond à un rythme annuel de 6% (si vous me passez les intérêts composés négligeables).

La Grèce aurait donc besoin, d’après ce calcul, d’une banque centrale ayant comme objectif de faire croître de 6% par an le PIB nominal.

Il y a peu de chances que la BCE se fixe un jour cet objectif. En effet, répéter cet exercice sur chaque pays de la zone euro (à 12, c’est à dire les 12 pays membres de la zone à l’origine), révèle l’existence de trois groupes de pays bien distincts (les résultats pour le Luxembourg ne sont pas significatifs) :

1) les pays à fort NIURONG :

Grèce 6%

Espagne 6.6%

Portugal 8,4%

Irlande 9.6%

2) les pays à NIURONG modéré :

Pays Bas : 2.6%

Autriche : 4,2%

Belgique : 3,6%

Finlande : 3%

France : 3,4%

Italie : 2,2%

3) Le pays à NIURONG nul :

Allemagne -0,2%

Je suis bien conscient des limites méthodologiques de ce petit exercice. J’espère pour la zone Euro et pour l’amitié germano-irlandaise qu’elles suffisent à expliquer cette apparente disparité des structures macroéconomiques.

Géographie monétaire de la zone Euro

Un des sujets intéressants à étudier pour les spécialistes d’économie monétaire, dans le contexte actuel, est la capacité, ou plutôt l’incapacité, pour la BCE, à localiser les effets de sa politique monétaire.

Imaginons que la BCE puisse créer plus ou moins de monnaie selon les pays membres de la zone. Si c’était le cas, partager la même banque centrale ne serait pas un problème, puisqu’elle pourrait adapter sa politique aux besoins (différents) des différents pays. Mais on comprend bien que si la BCE créait davantage de monnaie en Grèce qu’en Allemagne (enfin, en corrigeant pour la taille des pays), par exemple en alimentant davantage en liquidité les banques grecques que les banques allemandes, l’excédant monétaire pourrait rapidement franchir les frontières pour se retrouver en Allemagne, où il est plus tentant pour les banques d’accorder des prêts.

La question de l’endogéneité de la monnaie est vieille (pour votre culture, voir l’opposition entre la banking school et la currency school). Pour résumer grossièrement, les partisans de l’exogéneité de la monnaie considèrent que les variations de la masse monétaire, décidées par la banque centrale (ou par le hasard des découvertes de mines d’or lorsque la création monétaire était conditionnée aux réserves d’or) ont une influence sur l’activité économique nominale.

Pour les partisans de l’endogéneité de la monnaie, c’est au contraire l’activité économique qui suscite la création monétaire, car celle-ci transite par l’octroi de crédits, qui eux-même dépendent des opportunités d’investissement, et donc de l’activité économique.

Il va de soi qu’il est tout à fait possible de considérer que la monnaie a une composante endogène et une composante exogène, mais il est difficile de ne pas penser à la composante endogène lorsque l’on voit les graphiques suivants, faits avec des données de la banque mondiale :

Ces graphiques mettent en lumière une nouvelle difficulté liée à la conduite d’une politique monétaire commune eu Europe. Cette difficulté est que si les crédits sont accordés plus aisément dans les pays où l’activité économique est forte, alors pour une même valeur des outils de politique monétaire (création de liquidité ou taux d’intérêt), la création monétaire est plus importante dans les pays ayant la meilleure conjoncture. C’est à dire dans les pays qui en ont le moins besoin.

Cet effet est particulièrement visible sur le premier graphique, c’est à dire pour M1, autrement dit, pour la monnaie au sens strict (billets + comptes courants. cf agrégats monétaires). En 2010, la Grèce, l’Italie et l’Irlande avaient moins de monnaie qu’en 2009, alors que la France et l’Allemagne en avaient plus. Dans l’ensemble, la masse monétaire a bien augmenté de 2009 à 2010 (même si cette augmentation est plus faible que l’année précédente), mais cette augmentation globale masque des disparités entre les pays où elle a augmenté et ceux où elle a diminué.

Milton Friedman considérait que l’évolution de M2 est un bon prédicteur de l’activité économique avec quelques mois de décalage. Si j’étais Friedmanien et irlandais, le second graphique me ficherait une sacrée frousse.

Wishful thinking

Le sommet Européen du 26 Octobre s’est conclu par l’adoption d’une déclaration dont voici le texte. Concernant le problème de solvabilité de certains états membres, cette déclaration comporte des éléments qui ont largement été rendus publics (voir, par exemple, cette présentation de l’Expansion). Tout au plus pourra-t-on s’étonner que la déclaration officielle ne soit pas beaucoup plus précise que certains compte-rendus journalistiques. En revanche, en ce qui concerne la crise économique, et le fait qu’elle touche avec plus de vigueur certains pays que d’autres, la déclaration ne contient qu’un mélange de pensée magique et d’erreurs de diagnostic.

Clarifions bien les choses pour éviter les malentendus.  Que faut-il pour qu’un pays soit prospère ? La réponse à cette question tient en deux points, qui concernent deux champs relativement séparés de la macroéconomie : 1) il faut qu’il ait des capacités de production importantes 2) il faut qu’il les utilise. Le problème de l’accord européen, c’est qu’il n’évoque la croissance qu’en de vagues termes relevant du point 1), alors que le problème provient du point 2).

L’importance relative de ces deux points dépend de l’horizon temporel auquel on se situe. A long terme, c’est le point 1) qui compte. Et de ce fait, c’est le plus important. Si un jeune couple s’interroge sur le niveau de vie qu’aura son nouveau-né dans 50 ans, alors il doit s’interroger sur ce que seront les capacités de production de son pays d’ici là. Ces capacités de production dépendent de quelques facteurs abondamment étudiés par les économistes de la croissance. Pour l’essentiel : taux d’investissement élevé, taux de scolarité élevé, recherche féconde, ouverture commerciale.

A long terme, seules comptent les capacités de production, car même des fluctuations de 10 ou 15 points de leur taux d’utilisation pèsent peu par rapport à leur augmentation. Pour vous en convaincre, gardez en tête le fait qu’une croissance de 2% par an pendant 50 ans correspond à une augmentation de 170%, tandis qu’une croissance de 3% par an pendant la même période correspond à une augmentation de 338%.

Pour vous en convaincre, également, regardez ce graphique qui représente l’évolution à long terme du PIB Français en millions de dollars constants de l’an 2000:

On voit bien que les petites fluctuations à court terme du PIB pèsent peu par rapport à la tendance de long terme qui est portée par l’accroissement des capacités de production (via l’épargne, l’éducation, le progrès technique…). Je préfère sans ambiguïté vivre dans un pays riche qui n’utilise que 75% de ses (fortes) capacités de production à cause d’une crise que dans un pays pauvre qui utilise 95% de ses (faibles) capacités de production. 

A court terme, les priorités s’inversent, et le point 2) devient le plus important.  Pourquoi ? Parce que sur 2 ou 3 ans, l’augmentation à un rythme annuel de 2% ou 3% pèse peu par rapport à un taux d’utilisation des capacités de production qui, en temps de crise, peut chuter de 10%. Dans le graphique suivant, je zoome sur le PIB de la France de 1926 à 1939 :

L’évolution à court terme ne ressemble décidément pas à celle connue à long terme. C’est d’ailleurs pour cette raison que la macroéconomie à court terme n’utilise pas les mêmes modèles que la macroéconomie à long terme (à quelques exceptions peu convaincantes près).

Ce graphique montre que le PIB français est passé de 195 à 165 milliards de Dollars de 1929 à 1932, soit une perte de 15,3% en 3 ans. Personne ne peut raisonnablement penser que cette diminution puisse être entièrement due, voire même majoritairement due, à une baisse des capacités de production.

Ici, il n’est pas question de technologie, de formation des travailleurs ou de modernité de l’appareil productif, mais de demande : une crise de ce type est un problème de coordination, qui fait que l’on pourrait produire plus de richesses si davantage de travailleurs avaient un emploi, mais on ne les emploie pas car la demande est insuffisante, et la demande est insuffisante car on ne les emploie pas. 

Et ce genre de situations appelle des réponses appropriées, qui prennent généralement la forme d’un accroissement de la masse monétaire et/ou d’un accroissement des dépenses publiques.

La crise économique de la Grèce correspond exactement à ce genre de situations : l’appareil productif grec est capable de produire plus de richesse qu’il n’en produit actuellement. Il « suffirait » pour cela que les 400’000 nouveaux chômeurs grecs depuis 2008 retrouvent un emploi. Que faire pour cela ? J’évoquais récemment deux solutions : une monétisation de la dette grecque par la BCE permettant un ré-endettement (plus modeste bien sûr) de l’Etat grec afin de financer un plan de relance, ou un retrait de la Grèce de la zone Euro afin de retrouver une politique monétaire. On aurait pu en mentionner d’autres : un plan de relance directement financé par les autres pays européens (je doute qu’ils y tiennent) ; une vaste négociation avec les syndicats et les entreprises pour baisser à la fois les prix et les salaires, afin de stimuler les exportations (ou les visites de touristes, ce qui revient au même) ; ou, tout simplement, ne rien faire, car les crises de la demande ne durent pas éternellement, les problèmes de coordination finissent par se résoudre via des ajustements des prix. Le problème de la dernière solution est que ça peut durer de longues années.

Les leaders européens semblent pourtant avoir choisi cette dernière option, puisque leur déclaration commune ne dit rien sur ce qui permettrait d’accroître le taux d’utilisation des capacités de production.

En revanche, conscients qu’il existe bel et bien un problème de croissance, ils se contentent d’évoquer des pistes qui, au mieux, relèvent de la question des capacités de productions. Comme si accroître des capacités de production était une urgence au moment où les capacités existantes sont sous-utilisées.

Extraits :

D’abord un effet d’annonce :


« La stratégie que nous avons mise en place comprend des efforts déterminés qui visent à assurer l’assainissement budgétaire, à soutenir les pays en difficulté et à renforcer la gouvernance de la zone euro, ouvrant ainsi la voie à un approfondissement de l’intégration économique entre nous et à une stratégie ambitieuse pour la croissance. « 

on va voir ce qu’on va voir.

« Nous soutenons pleinement la BCE dans son action visant à maintenir la stabilité des prix dans la zone euro. »

Ça, c’est juste pour être sûr qu’on ne risque pas de faire appel à la BCE comme prêteur en dernier ressort. Donc si le point 2) mentionné plus haut avait quelque importance dans la situation actuelle, il ne faudrait pas compter sur la BCE pour donner un coup de main, même à l’échelle de la zone Euro (alors la Grèce, vous pensez bien…)

« Des finances publiques viables et des réformes structurelles au service de la croissance « 

C’est une rubrique entière dévouée au service de la croissance. voyons ce que ça contient.

« Nous réaffirmons que nous sommes pleinement résolus (…) à orienter les dépenses publiques vers les secteurs de croissance. »

ça ne mange pas de pain.

« Tous les États membres de la zone euro sont fermement déterminés à poursuivre leur politique d’assainissement budgétaire et leurs réformes structurelles. »

y compris les pays AAA qui préfèrent prendre le risque de replonger en récession plutôt que de perdre un A.

Sur l’Espagne :

« Des mesures supplémentaires sont nécessaires pour stimuler la croissance afin de réduire le taux de chômage, qui atteint un niveau inacceptable. Il convient notamment d’approfondir les modifications apportées au marché du travail en vue d’accroître la flexibilité au niveau des entreprises et de renforcer l’employabilité de la main-d’œuvre, tout en menant d’autres réformes destinées à renforcer la compétitivité, et notamment d’amplifier les réformes dans le secteur des services. »

Autrement dit, le marché du travail fonctionnait très bien en Espagne jusqu’à la crise, puis il s’est mis à moins bien fonctionner ce qui a déclenché la crise, il faut donc revenir au fonctionnement du marché du travail d’avant la crise pour mettre fin à la crise. Ça tombe sous le sens.

Pour l’Italie, même style de diagnostic :

« L’Italie mettra maintenant en œuvre les réformes structurelles proposées afin d’accroitre la compétitivité en réduisant l’excès de formalités administratives, en abolissant les tarifs minimaux dans les services professionnels et en poursuivant la libéralisation des services publics et des services d’intérêt général au niveau local. Nous notons que l’Italie est déterminée à réformer le droit du travail et en particulier les règles et les procédures en matière de licenciement et à réexaminer avant la fin de 2011 le système d’allocations chômage qui est actuellement morcelé, en tenant compte des contraintes budgétaires.
Nous prenons acte du projet de porter l’âge de la retraite à 67 ans d’ici 2026 et recommandons que le processus qui permettra d’atteindre cet objectif soit défini d’ici la fin de l’année. « 

ou encore

« Nous approuvons l’intention qu’a l’Italie de réexaminer les programmes relevant des fonds structurels en redéfinissant l’ordre de priorité des projets et en privilégiant l’éducation, l’emploi, la stratégie numérique et les chemins de fer/les réseaux, l’objectif étant de créer des conditions plus propices pour renforcer la croissance et s’attaquer à la fracture régionale. »

Bref, tout cela concerne les capacités de production uniquement.
plus loin, sur la zone Euro en général :

« Une coordination pragmatique des politiques fiscales au sein de la zone euro est un élément nécessaire du renforcement de la coordination des politiques économiques en vue de favoriser l’assainissement budgétaire et la croissance économique« .

Essayez de prononcer cette phrase en omettant la partie en gras, et demandez-vous s’il manque vraiment quelque chose.

Et c’est tout ! Rien de spécifique sur la croissance en Grèce, qui semble n’être concernée que par son défaut partiel et la solidité de ses banques. Comme si, par magie, un défaut partiel allait résorber l’accroissement du chômage depuis 2008. Wishful thinking.

Si la gouvernance économique de l’Europe ne change pas et si les grecs tiennent vraiment à conserver l’Euro, ils auront intérêt à renouer avec leurs traditions les plus anciennes pour prendre la longueur de la crise avec philosophie.