« The Great Reversal » par Thomas Philippon

La thèse défendue par Thomas Philippon dans son dernier livre « the great reversal: how america gave up on free markets » est assez simple et percutante : les USA étaient il y a 20 ans caractérisés par un niveau élevé de concurrence sur les marchés de biens et services, pour le plus grand bénéfice des consommateurs. Depuis, le niveau de concurrence y a fortement diminué, alors même qu’il augmentait en Union Européenne, sous l’impulsion de la commission. Cette évolution a des allures de tectonique des plaques : elle n’est pas la conséquence d’un évènement spectaculaire (guerre, krach boursier…) mais elle a des répercussions importantes sur le quotidien des consommateurs américains, qui payent trop cher leurs conversations téléphoniques, leurs traitements médicaux et leurs voyages en avion, et qui voient leurs salaires stagner.

les complots de maîtres et les vertus de la défiance

Comment expliquer cette évolution contradictoire ? Évolution naturelle côté américain, défiance vertueuse côté européen.

L’évolution américaine est conforme aux prédictions théoriques faites par Mancur Olson en 1965 dans son livre Logic of Collective Action. A l’époque, les économistes étaient déjà obsédés par l’identification des politiques optimales, le plus souvent comprises comme des politiques créant davantage de richesses qu’elles n’en détruisaient. Mais sur la questions des vertus des différentes formes de régimes politiques, ils avaient généralement une vision assez naïve des institutions démocratiques : celles-ci devaient être les plus à même de promouvoir les politiques optimales, puisque la création de richesses nettes a toutes les chances d’emporter les faveurs du public, qui se trouve être l’arbitre dans les régimes démocratiques.

Pour Olson, cette vision optimiste néglige que, dans bien des cas, une politique optimale va créer des gains extrêmement diffus, alors que les pertes, même si elles sont inférieures aux gains, seront extrêmement concentrées. Si le démantèlement d’un cartel coûte 50 millions d’euros par an à une poignée d’actionnaires, et rapporte 10 euros à chacun des 10 millions d’habitants d’un pays, il est peu probable que les habitants se mobilisent pour réclamer ce démantèlement, alors même qu’il créerait des richesses nettes. Si 10€ correspond au salaire horaire de ces habitants, il n’y a pas de raison d’attendre de chacun d’eux qu’il consacre plus d’une heure par an à ce combat. En revanche, les quelques actionnaires qui perdraient beaucoup au démantèlement pourront facilement s’accorder pour consacrer quelques millions à graisser des pattes afin de l’éviter.

Et c’est bien, selon Philippon, ce qu’ont fait les grandes entreprises américaines depuis 20 ans, en dépensant des sommes folles en lobbying pour accroître la tolérance des juridictions anti-trust vis-à-vis de la concentration, et pour utiliser la règlementation comme moyen de freiner la concurrence potentielle.

Et elles en profitent pour faire payer plus aux consommateurs, pour leurs coups de téléphone, leur frais médicaux, leurs voyages aériens, leurs frais bancaires, etc.

Ces grandes entreprises n’exercent pas simplement leur pouvoir de marché sur les biens et services qu’elles vendent, elles l’exercent également sur le marché du travail, où leur position dominante leur permet de faire pression à la baisse sur les salaires, contribuant certainement à l’accroissement des inégalités. C’est le retour des complots des maîtres contre le public dénoncés en son temps par Adam Smith.

De quelle vertu les européens sont-ils parés pour avoir évité ces dérives, et qui semble faire défaut aux américains ? Pour Philippon, cette évolution inversée entre les deux continents tient davantage au hasard des évolutions institutionnelles qu’à la vertu. La construction européenne est un projet entre pays qui se font suffisamment confiance pour mettre leur destin en commun, mais pas suffisamment pour prendre le risque de laisser des coalitions d’États détourner la politique concurrentielle à leur avantage, et au détriment des autres pays. Les membres de l’union n’ont donc pu s’entendre sur une politique de la concurrence commune qu’à la condition que sa mise en œuvre soit confiée à une juridiction totalement indépendante, la direction générale de la concurrence. Que ce soit en matière d’abus de position dominante, de fusions ou d’aides d’État, la DG concurrence semble plus en mesure de résister aux pressions politiques que le département de la justice et la federal trade commission aux USA (note personnelle : j’admets avoir un peu de mal à comprendre la répartition des tâches entre ces deux entités dans le système américain).

Ainsi, les européens se sont lié les mains : en s’interdisant par les traités de s’immiscer dans la politique concurrentielle, les Etats membres auraient réussi à protéger les consommateurs européens de leurs turpitudes, rendant le lobbying et la corruption moins efficaces, et donc moins pratiqués.

L’obsession du détail

Le livre de Philippon est un modèle de vulgarisation du travail des économistes. La thèse centrale est assez simple à exposer, mais beaucoup plus délicate à démontrer. C’est souvent le cas en économie, et plus généralement en sciences sociales. Car s’il est facile de démontrer que différentes mesures de concentration ont augmenté, ces dernières décennies, aux USA, plusieurs théories différentes peuvent expliquer cette évolution.

Celle d’une baisse de la concurrence, privilégiée par l’auteur, en est une. Mais en voici une autre, loin d’être absurde bien que contre-intuitive : l’augmentation de la concentration pourrait avoir été provoquée par un accroissement de la concurrence. Ça vous semble absurde ? Imaginez qu’une loi interdise l’implantation de nouvelles grandes surfaces dans un pays. En fonction de l’histoire, chaque ville aurait sa ou ses grandes surfaces, appartenant à des groupes différents. Si vous mesurez la concentration du secteur de la distribution au niveau national, vous aurez l’impression d’un secteur assez concurrentiel, avec un nombre d’acteurs assez élevé. Mais localement, les consommateurs auront du mal à faire jouer la concurrence entre les enseignes. Si l’on abrogeait cette loi, il est possible qu’un distributeur particulier, plus efficace que les autres pour tirer les prix vers le bas, à l’image de Walmart aux USA dans les années 90, finisse par s’implanter dans toutes les villes et par laminer la concurrence, faisant ainsi croître les indices de concentration du secteur.

Dans cette seconde théorie, l’accroissement de la concentration serait une bonne chose : on aurait permis à l’entreprise la plus efficace de remplacer des concurrents moins efficaces, au bénéfice d’une baisse des prix pour les consommateurs.

Et d’ailleurs, le développement du commerce en ligne n’est-il pas un moyen pour les consommateurs de sélectionner les meilleurs fournisseurs au détriment des moins bons ?

Comment départager ces deux théories ? En en comprenant les implications contradictoires, et en s’appuyant sur les données pour trancher. C’est ce que fait Philippon en mobilisant une littérature académique à la fois abondante et très actuelle, puisque de nombreuses références sont de 2018 et 2019. Par exemple, la théorie de la concentration tirée par l’entreprise la plus efficace implique que les secteurs concernés devraient connaître une diminution des marges, une augmentation des investissements et des gains de productivité. Philippon montre avec beaucoup de minutie que c’est plutôt l’inverse qui se produit : les marges tendent à augmenter et l’investissement et la productivité à stagner avec l’accroissement de la concentration.

Le « q » de Tobin, ratio entre la capitalisation boursière d’une société et ses fonds propres, est souvent considéré comme un bon instrument pour prédire le niveau d’investissement des entreprises. Un q>1 pour une entreprise signifie que les actionnaires considèrent que 100€ de capital investis dans cette entreprise valent plus de 100€, en raison des surprofits à en attendre. Si c’est le cas, alors l’entreprise a intérêt à procéder à des levées de fonds et à accroître son activité. Or, à l’échelle de l’économie américaine, l’investissement a commencé à décrocher par rapport à l’évolution du « q » de Tobin à partir de 2000. Et ce décrochage est surtout marqué dans les secteurs les plus concentrés. Si cette concentration était due à un supplément d’efficacité des entreprises survivant dans un monde plus concurrentiel, alors les opportunités d’enrichissement seraient rapidement saisies par les acteurs du secteur. La faiblesse de l’investissement plaide donc en faveur de l’hypothèse d’une baisse de la pression concurrentielle.

Vous avez peut-être des objections à ce raisonnement (quid du capital immatériel ? quid de la concurrence internationale ?…). La force du livre est qu’il expose lui-même de nombreuses objections à la thèse défendue, et qu’elles sont systématiquement traitées au regard des données et recherches les plus récentes. Quoi que vous pensiez de la thèse exposée ici, il semble difficile de la contredire sans avoir, au préalable, passé en revue tous ces arguments.

Le marché et le laisser-faire

La question de la concurrence correspond à un clivage, en économie, qui n’a pas vraiment son équivalent en politique. L’opposition entre interventionnisme et laisser-faire est assez structurante dans l’opinion publique. Mais l’interventionnisme est généralement associé à une hostilité au marché, tandis que le laisser-faire est assimilé à une vision pro-marché. L’opposition, en économie, entre ce qu’on a appelé l’école de Harvard et l’école de Chicago remet en cause les termes de ce clivage. Pour les tenants de la première (autour de la personnalité d’Edward Mason), le marché et la concurrence sont une bonne chose car ils protègent les consommateurs des abus des cartels. Mais ils n’ont rien de naturel, et les juges doivent veiller en permanence à ce que les différents secteurs d’activité conservent des structures suffisamment concurrentielles pour éviter les comportement parasitaires. Il faut donc des lois contraignantes, une intervention publique forte, pour garantir la survie du marché.

A l’opposé, l’école de Chicago (dont George Stigler est sans doute le représentant le plus illustre), de tradition beaucoup moins interventionniste, s’accommode plus aisément de la disparition de la concurrence au profit de grands groupes privés, à qui elle trouve de bonnes raisons d’exister (efficacité, économies d’échelle…), et dont elle pense que la simple peur d’une concurrence potentielle suffira à les dissuader d’abuser de leur position dominante.

[Etat + marché] d’un côté, contre [Laisser-faire + monopoles] de l’autre.

A ce titre, en s’inscrivant explicitement dans la tradition d’Harvard, Thomas Philippon fait le choix d’une certaine forme de radicalité. Car sa critique de la propension des grandes entreprises à corrompre l’Etat à leur profit et au détriment du jeu de la concurrence est au fond assez proche de celle faite du Néolibéralisme par James Galbraith. Je ne pense pas que ces deux-là en soient à organiser des lunch-seminars ensemble, mais si deux économistes aux pédigrées à priori si différents convergent sur ces sujets, c’est qu’ils ont peut-être, chacun avec son style, mis le doigt sur quelque chose.

« Order without design: How markets shape cities » par Alain Bertaud

Fichier:Pudong Shanghai November 2017 HDR panorama.jpg — Wikipédia

Si l’économie urbaine vous intéresse, ou d’ailleurs plus généralement l’urbanisme, Order without design d’Alain Bertaud vaut le détour. Si votre vision de l’urbanisme est que les urbanistes devraient s’opposer aux forces du marché afin de concevoir des villes plus humaines, plus inclusives et plus durables, ce livre est celui auquel il faut confronter vos idées. Car celles de Bertaud sont à l’opposé des vôtres. Bertaud est un urbaniste octogénaire qui, fait rare, considère que ses confrères gagneraient à apprendre l’économie urbaine. On fustige souvent, pas toujours sans raisons, l’impérialisme économique, qui consiste à ce que les économistes prétendent expliquer la sociologie aux sociologues, l’histoire aux historiens, la psychologie aux psychologues et, plus récemment, l’épidémiologie aux épidémiologistes. Pour une fois, un non-économiste réclame plus d’attention aux thèses des économistes.

Débarrassons-nous rapidement d’un gros bémol : sur certains sujets présentés comme consensuels parmi les économistes, Bertaud va trop loin. En particulier, sur le rôle des grandes villes comme moteur de la croissance, et sur les freins à la croissance de ces villes comme obstacle à la croissance, il existe suffisamment de désaccords académiques pour être plus prudent que ne l’est Bertaud (cf en particulier les travaux d’Andrés Rodríguez-Pose). Mais ces excès, qui auraient pu me faire fermer le livre dès les premières pages, n’enlèvent rien au caractère très stimulant de la thèse.

Economie urbaine et urbanisme

Cette thèse, la voici : les modèles développés par les théoriciens de l’économie urbaine permettent de faire des prévisions sur la forme prise par une ville en fonction de la taille de sa population, de son revenu moyen, des coûts de transports internes à la ville, et de la valeur des terres agricoles qui la jouxtent. Pour Bertaud, le bon urbaniste est celui qui anticipe et accompagne les évolutions liées à ces variables, le mauvais est celui qui prétend imposer à la ville une forme contradictoire avec ces évolutions.

Ainsi, si une ville connait 10 années de croissance économique soutenue, ses habitants voudront probablement utiliser leur revenu supplémentaire pour accroître la taille de leur logement, ce qui les poussera à l’extérieur de la ville, entraînant de l’étalement urbain. Ce changement de forme urbaine implique la fourniture de biens publics : routes, réseaux de transport, canalisations, parcs, places publiques, etc.

Cette vision essentiellement technique de l’urbanisme peut paraitre manquer singulièrement d’inspiration. Tout l’intérêt du livre est de confronter cette vision à minima de l’urbanisme avec les conséquences parfois fâcheuses des visions plus inspirées. A ce titre, l’homme d’action qu’a été Bertaud pendant sa carrière (il a contribué à l’urbanisation de plusieurs villes dans le monde, sous l’égide de la Banque Mondiale) regorge d’études de cas assez convaincantes et éclairantes.

Il est, par exemple, extrêmement sévère avec l’urbanisme de Le Corbusier et ses imitateurs, qui prétend imposer une vision scientifique de la ville au service du bien-être : les immeubles d’habitation doivent avoir une certaine exposition au soleil, ce qui implique une certaine distance entre eux, utilisée pour des espaces verts garants de la sérénité des habitants, et être débarrassés des activités professionnelles, confinées dans des quartiers séparés afin de diminuer l’agitation lorsque les gens se reposent. Le résultat est l’abominable plan voisin qui prétendait faire du centre de Paris une citée dortoir dans le style de la citée des 4000.

1, Le Corbusier's Plan Voisin for Paris. Le Corbusier, from ...

Outre sa laideur, l’uniformité de l’urbanisme à prétention scientifique n’est qu’un gage trompeur d’égalité. Le principe fondamental de l’économie urbaine est que les habitants d’une ville sont à priori attirés par le centre. Si l’on conçoit la ville comme un gigantesque marché du travail, les postions centrales donnent accès à un nombre d’emplois plus grand que les positions périphériques, si l’on s’en tient aux emplois accessibles en un temps raisonnable (moins d’une heure). Cela est vrai même lorsque la ville est polycentrique comme Los Angeles par exemples, car vivre au barycentre de plusieurs centres d’emplois ouvre davantage de possibilités que de vivre à proximité immédiate d’un centre lorsqu’il en existe plusieurs. Cet attrait pour le centre élève le prix de la terre, ce qui a plusieurs conséquences :

  • Les habitants du centre ont des logements plus chers, et donc plus petits qu’en périphérie
  • Les promoteurs sont incités à substituer du capital à la terre, ce qui implique des constructions plus hautes
  • En conséquence la densité de population est plus élevée au centre
  • Les ménages qui préfèrent vivre en périphérie compensent leur moindre accès au marché du travail par un logement plus spacieux et un loyer plus faible

Imposer des logements uniformes dans toute la ville se traduit par des logements trop grands et avec trop d’espaces verts au centre, et trop petits et avec trop peu d’espaces verts en périphérie. Si ces logements sont alloués par le marché, les logements au centre seront trop chers : il faudrait autoriser à construire sur les espaces verts et à découper les appartements en appartements plus petits pour réduire le coût du logement. S’ils sont alloués par un planificateur central à prix administré uniforme, l’égalité n’est qu’apparente, car les logements les plus centraux auront une valeur intrinsèque plus grande, et seront donc l’objet de passe-droits et de sous-locations clandestines, permettant à plus de monde de vivre au centre.

Le modèle du Village Urbain, consistant à faire de la ville une juxtaposition de villages auto-contenus, à l’image de 5 villes nouvelles construites dans la périphérie de Séoul, correspond à un urbanisme moins uniforme et moins mécanique que l’urbanisme corbuséen. Mais là encore, ses objectifs (un urbanisme à faible mobilité et à taille humaine) se heurtent à la motivation des ménages : ceux-ci viennent chercher dans la grande ville un grand marché du travail. Il n’y a donc aucune raison de penser qu’ils vont travailler et vivre dans le même quartier. Et de fait, les habitants de ces villes nouvelles autour de Séoul font, contrairement au projet des urbanistes, des déplacements pendulaires longs. Ce qui n’est pas très grave certes, seulement les équipements publics sont calibrés pour des déplacements courts au lieu de faciliter ces migrations pendulaires.

Bertaud est également très critique envers le plan de développement de Hanoï, qui prévoit de geler une grande bande de terre agricole autour de la ville, afin d’offrir aux habitants de la ville une ceinture verte aux fins écologiques. Si la population de la ville venait à augmenter dans les années à venir, hypothèse parfaitement raisonnable, les conséquences de cette ceinture verte seraient les suivantes : les ménages qui s’y seraient installés en l’absence de règlementation auront le choix entre : s’installer au centre, contribuant à augmenter les prix et la densité de population ; s’installer dans les villages situés au-delà de la ceinture verte, et subir un éloignement préjudiciable de la zone d’emplois ; s’installer malgré tout dans la zone interdite en sous-louant un logement non-officiel à des agriculteurs, subissant ainsi le manque d’équipements publics et de routes.

Est-ce à dire que toute initiative, toute vision, est à proscrire ? Bertaud met en lumière des exemples de ce qu’il considère comme du bon urbanisme, à l’image du quartier d’affaire de Pudong à Shangai. Pudong n’a pas été designé par les pouvoirs publics, mais le quartier n’aurait pas vu le jour sans les initiatives de ces pouvoirs publics. Ce quartier d’affaire est situé à quelques centaines de mètres du centre traditionnel de Shangai. Pourtant, au début des années 1990, il ne s’agissait que d’une zone assez désertique. La raison était qu’aucune route ne menait directement du centre à Pudong : il fallait prendre un bateau traversant le Huangpu pour y accéder. « Rapprocher » Pudong du centre de Shangai au moyen de quelques ponts permettait alors au quartier d’exprimer tout son potentiel. Les pouvoirs publics ne se sont pas contentés de faire des ponts, ils ont structuré l’espace, construit des équipements publics. C’est le marché qui a, dans la foulée, réalisé ces gratte-ciel qui hébergent aujourd’hui une activité économique massive, et qui dessinent un horizon bien plus esthétique que les créations corbuséennes, sans, paradoxalement, avoir été conçu par qui que ce soit (c’est une photo de Pudong qui illustre ce billet).

L’accessibilité

Le chapitre que Bertaud consacre à l’accessibilité est celui qui me faisait le plus peur. Il m’a agréablement surpris. Il me faisait peur car je craignais que les réflexes libertariens de l’auteur ne le fassent tomber dans des discours de comptoir (« supprimez les réglementations excessives, vous permettrez à chacun de se loger »). Bien qu’on soit parfois sur le fil du rasoir, l’homme d’expérience prend le pas, dans ce chapitre, sur l’idéologue et c’est fort heureux. Car s’il y existe des grands principes, ceux-ci sont insuffisants pour donner une marche à suivre générale pour régler les problèmes d’accessibilité des logements. Il convient toujours de commencer par une évaluation précise :

  • du pourcentage d’habitants d’une ville ayant des problèmes d’accès à un logement décent.
  • de l’importance des différentes causes des problèmes de logement (pauvreté, prix des logements, accès au crédit, enclavement des quartiers populaires, logements informels, contraintes sur l’offre…)
  • du coût que représenteraient les différentes solutions au problème et des modalités de financement.

Partant de là, il n’y a pas de solution miracle, mais des approches plus sensées que d’autres. Bertaud préfère en général subventionner la demande que l’offre. Distribuer des coupons logement aux personnes à bas revenu améliore leur capacité à se loger, tout en leur permettant de faire leur propre choix dans le compromis entre taille du logement et proximité du centre. A contrario, subventionner des programmes de logements à bas prix peut conduire à proposer à des ménages en difficulté des logements relativement spacieux mais situés si loin des zones d’emploi qu’ils en perdent une partie de leur attrait.

Mais subventionner la demande n’est pas la bonne approche si le problème à régler est massif et urgent (la réaction de l’offre à la demande peut être trop longue en matière de logement) ou si d’importantes contraintes pèsent sur l’offre, rendant la subvention essentiellement inflationniste.

Voici deux exemples de politiques d’accessibilité : un mauvais et un bon, les deux illustrant l’importance du contexte en plus des principes économiques basiques.

Commençons par le mauvais, celui de l’État de Gauteng en Afrique-du-Sud, qui contient les villes de Pretoria et de Johannesburg. A la sortie de l’apartheid, il était urgent d’intégrer à ces villes les populations noires jusqu’ici discriminées. L’approche générale retenue par les autorités locales était pleine de bon sens : subventionner l’offre de logements. L’urgence de la situation était telle qu’il eut été illusoire d’espérer qu’une politique de soutien à la demande soit suffisante pour que des logements en nombre suffisant soient mis en chantier. Mais alors, quel est le problème ? Le programme consistait à financer des projets de création de logements respectant un cahier des charges dont les points essentiels étaient : i- un prix accessible, ii- une surface minimale de 40m2 sur un terrain d’au moins 250m2.

Lorsque je vous dirai ce qui cloche dans ce programme, ça vous semblera évident. Mais le voyez-vous spontanément ? Faites une pause dans la lecture de cet article et réfléchissez-y avant de lire la réponse.

Le problème de ce programme est qu’il retient comme critère unique, pour qu’un logement soit jugé décent, l’espace qu’il occupe au sol. Ici au moins 250 m2, ce qui est beaucoup, même si la surface habitable n’est que de 40m2. Alors que la valeur d’un logement dépend du compromis qu’il offre entre la centralité et l’espace qu’il procure à ses habitants. Pour que ces logements permettent une intégration réussie des personnes aidées, il aurait fallu que le cahier des charges intègre cet objectif de centralité, quitte à ce que ce soit au détriment de la surface. Sur 250m2 de foncier, on peut facilement faire un immeuble de 4 étages comprenant 8 logements de 40m2, mais cette option n’aurait pas respecté le cahier des charges. Le résultat est que les porteurs de projets n’ont pu réaliser d’opérations rentables qu’en achetant des terres à bas prix. Et où trouve-t-on des terres à bas prix ? Loin du centre, donc loin des emplois et du dynamisme économique. La carte suivante, extraite du livre, présente des densités de population contradictoires avec les modèles standard en économie urbaine.

Il y a certes de la densité au centre de Johannesburg, mais dès qu’on s’en éloigne à peine, on trouve des quartiers à faible densité, généralement des maisons occupées par des afrikaners, puis, loin du centre (regardez l’échelle) on retrouve une certaine densité : celle de ces projets pourtant bien intentionnés. Gardez à l’esprit que les habitants de ces quartiers sont pauvres : ils n’ont pas de voiture, et les transports en commun sont insuffisants pour permettre une vraie mobilité. Le choix insupportable laissé à ces populations est de vivre en ville dans de mauvaises conditions (sans aides, parfois dans des logements informels) ou dans de petites maisons coupées du monde. C’est diabolique.

Notez bien qu’il ne s’agit pas là de contester le bien-fondé de l’intervention publique, ni même celui d’une subvention à l’offre de logement, seule à même de garantir la création rapide de logements dans le contexte post-apartheid. C’est l’oubli d’une variable essentielle en économie urbaine, la centralité, qui recrée ce qu’on cherchait à faire disparaitre : des ghettos.

Passons maintenant au bon exemple de politique d’accessibilité aux yeux de Bertaud : le cas des kampungs Indonésiens. Les kampungs sont des villages traditionnels, avec des lois et coutumes locales. L’urbanisation de l’Indonésie a conduit de très nombreux travailleurs pauvres à s’installer dans les kampungs les plus proches des grandes villes, les transformant ipso facto en taudis. Non pas parce que ces installations ont été informelles : elles se sont faites, au contraire, avec la participation active des autorités traditionnelles des kampungs, qui ont créé de petits lots sur la base des propriétés existantes, ainsi que des chemins publics. Mais avec des densités dépassant parfois les 500 habitants par hectare, les conditions sanitaires se détérioraient rapidement. Cette histoire, très banale en soi, devient particulière car, contrairement à une pratique courante, les autorités indonésiennes n’ont pas réglé le problème à coups de bulldozers et de relogement des populations dans des bars de béton corbuséennes. Au contraire, depuis le Kampung Improvement Program de 1969, elles s’emploient à améliorer les conditions sanitaires de ces quartiers, en les raccordant aux réseaux d’eau potable et d’eaux usagées, en organisant la collecte des ordures, en entretenant les voies publiques, et en créant des routes qui mènent à la grande ville. Bref, en fournissant ce que des urbanistes doivent se borner à fournir dans la vision de Bertaud : des routes et des équipements publics.

Selon lui, cette coopération entre les autorités du pays et les autorités locales traditionnelles a permis d’améliorer considérablement la qualité de vie des habitants, et a fait des kampungs une solution acceptable et accessible pour loger des travailleurs pauvres. Je ne connaissais pas les kampungs avant de lire le livre, et je n’ai donc pas le recul nécessaire pour évaluer la pertinence de ce jugement, mais je note en tout cas l’intérêt de cette opposition entre, d’un côté, la destruction-interdiction des taudis, et de l’autre, les politiques de viabilisation des taudis pour les changer en quartiers normaux. L’interdiction de ce qui nous déplait a parfois, en matière d’urbanisme, des conséquences pires que le mal qu’elle prétend combattre.

Entre le faible et le fort

Clairement, la question du partage des tâches entre le marché et la loi est au cœur d’Order Without Design. Or on n’attend pas simplement de la loi qu’elle procure de l’efficacité ou de l’esthétique, mais également qu’elle protège le faible du fort. Pour qu’il n’y ait pas d’ambiguïté, je le dis clairement : c’est ce qu’elle fait, heureusement, dans de nombreux domaines. La loi protège, en effet, les travailleurs des abus des employeurs, les consommateurs des abus des producteurs, etc. Elle protège également les locataires contre les abus des propriétaires, mais l’urbanisme est un domaine dans lequel souvent, intentionnellement ou non, la loi protège les forts contre les faibles. Geler la constructibilité d’un centre ancien peut se justifier par la volonté de préserver une esthétique patrimoniale, mais il ne fait guère de doute que la conséquence d’un tel gel est l’accroissement de la valeur des biens appartenant aux gens qui sont déjà propriétaires, au détriment de l’accessibilité au logement pour les plus modestes. Interdire la location de logements trop petits ou insuffisamment équipés ne permet généralement pas d’aider les plus mal lotis, mais permet en revanche de les exclure de quartiers centraux où le prix du foncier est élevé, pour la plus grande satisfaction des riverains et au bénéfice de la gentrification.

Il y a chez Bertaud une tension entre le libertarien aux réflexes intellectuels prévisibles et le pragmatisme de l’homme de terrain. On peut légitimement être sceptique vis-à-vis du Bertaud libertarien. Mais si les responsables des politiques urbaines acceptaient d’écouter le Bertaud pragmatique, ils en tireraient peut-être la dose indispensable de modestie dans ces situations particulières où la loi opprime et où la liberté libère.

« Capital et Idéologie » de Thomas Piketty

J’ai fait partager à ceux qui me suivent sur Twitter des commentaires au fil de ma lecture du dernier opus de Thomas Piketty : « Capital et Idéologie ». Le résultat est un fil assez copieux et pas forcément très digeste, qui suit de près le plan du livre. Or, s’il est un livre qui mérite une chronique non linéaire, c’est bien celui-ci. Pour ceux qui ont lu ce fil, vous devriez trouver dans le présent billet des choses assez différentes et assez complémentaires.

Je commencerai cette chronique par un résumé de l’argument de Piketty. Comme il y a beaucoup d’idées dans ce livre, il ne serait pas très opportun de les discuter une par une. Je me concentrerai donc, après ce résumé, sur ce qui constitue à mon sens le cœur du livre, à savoir l’émergence d’un double clivage politique autour de la question de la « propriété » et de celle de la « frontière ». Je conclurai sur quelques considérations sur la supposée inversion de la logique marxiste à l’œuvre dans le livre.

1200 pages en quelques lignes.

Comme je l’ai indiqué à plusieurs reprises sur mon fil Twitter, l’efficacité est loin d’être la qualité première du livre de Piketty. La substance de son propos n’aurait probablement pas beaucoup souffert d’une division par deux du nombre de pages. Des quatre parties du livre, les trois premières constituent un ensemble historique assez cohérent, tandis que la quatrième aurait pu constituer un livre séparé traitant de problématiques politiques actuelles.

Vous pouvez prendre les trois première parties comme une histoire économique globale, centrée sur la question des inégalités. Dans ce cas, vous utiliserez chaque chapitre comme un résumé de ce que disent les historiens sur certains sujets, tels que l’esclavage transatlantique, les empires coloniaux, la mondialisation du 19ème siècle etc. Mais l’auteur préfèrera sans doute que vous y voyez un schéma général de l’évolution de nos sociétés, marqué par une succession de phases. Il s’en défend avec beaucoup de maladresse, en soulignant dès que l’occasion se présente la multiplicité des trajectoires historiques possibles et des points de bifurcation entre ces trajectoires. Mais il ne s’agit que de précautions visant à lui éviter des procès en téléologie ou en hégélianisme. Car il y a bien, dans ce livre, une dynamique générale qui est la suivante :

Au départ sont les sociétés ternaires, avec une classe laborieuse, une classe militaire et une classe spirituelle. La première nourrit les deux autres, qui sont les bénéficiaires de ce régime inégalitaire, tout en ayant entre elles des rapports de contre-pouvoir qui évitent les excès. Mais l’Europe remplace, de façon plus ou moins graduelle selon les pays, cette société en trois classe par une société « propriétariste ». L’inégalité liée à la naissance est remplacée par une égalité formelle vis-à-vis du droit, et en particulier vis-à-vis de la protection contre l’expropriation. Mais la propriété, sensée être le vecteur de l’épanouissement individuel, finit par justifier des inégalités de revenu et de patrimoine qui culminent entre la fin du 19ème siècle et la première guerre mondiale. Non contente d’inventer le propriétarisme, l’Europe, militairement puissante en raison de ses incessantes divisions, conquiert le monde, et y impose sa loi, en pratiquant l’esclavage, la colonisation et en imposant à l’Asie un commerce inéquitable. Le propriétarisme crée donc des inégalités internes, mais également des inégalités internationales.

Le chaos du vingtième siècle, avec ses deux guerres mondiales et sa grande dépression, change la donne. Il y a deux réactions différentes : le communisme et la social-démocratie, définie comme un (ré)encastrement social des marché. La première a échoué, la seconde a réussi… jusqu’à un certain point. De l’après-guerre aux années 80, la croissance est forte et les inégalités diminuent prodigieusement dans les pays qui ont fait le choix de conserver une forme de propriété et d’économie de marché, mais avec une fiscalité fortement progressive (notamment aux USA) et une augmentation des dépenses publiques liées à la santé, à l’éducation et la lutte contre la pauvreté.

La chute du communisme entraîne la social-démocratie avec elle. A partir des années 80, s’enclenche un mouvement de mondialisation qui fait penser à celui du 19ème siècle. On diminue la progressivité de l’impôt (pas la fiscalité dans son ensemble), qui permet à de gros patrimoines de se reconstituer. On organise la libre circulation des capitaux, sans prendre soin de passer des accords internationaux pour échanger des informations et harmoniser la fiscalité sur le patrimoine et les hauts revenus.

La dernière partie du livre se consacre aux conséquences politiques de cette évolution, et formule des propositions pour modifier le cours de l’histoire. Les conséquences politiques se résument de la manière suivante : les clivages politiques, qui étaient jusqu’à présent largement fondés sur les différences de revenu ou de richesse (les pauvres votaient à gauche, les riches à droite), ont été parasités par la question de la « frontière » des communautés nationales. D’un côté, règne une forme de fatalisme sur les possibilités de redistribuer les revenus entre classes, d’un autre, les brassages de populations liés à l’ère postcoloniale ont remplacé un sentiment d’appartenance à une classe par un sentiment d’appartenance à un groupe ethnique ou religieux (qu’il soit majoritaire ou minoritaire).

Le pari de Piketty est que les clivages fondés sur la frontière sont éphémères et artificiels. Ses propositions pour en sortir relèvent de la fiscalité et de la coopération internationale. Sur le volet fiscal, il s’agit de retrouver une très forte progressivité dans les impôts sur les revenus, les patrimoines et les successions. Ces mesures fiscales permettraient, pour prendre la mesure la plus spectaculaire, de financer un don à chaque jeune de 25 ans d’une somme de 120’000€, qui pourrait l’aider à acquérir un logement, lancer une affaire, etc. Sur le volet de la coopération internationale, Piketty promeut le fédéralisme plus ou moins généralisé, et en particulier au niveau européen. L’idée étant que si les impôts sur les plus fortunés étaient décidés dans un cadre multinational, on éviterait le dumping fiscal et la défiance entre pays. Les classes populaires pourraient enfin bénéficier de la mondialisation, sans souffrir de ses aspects les plus négatifs.

De la « propriété » et la « frontière »

Dans ce double clivage politique, autour de la propriété et de la frontière, Piketty est très convaincant sur la propriété, mais beaucoup trop incantatoire sur la frontière. Les fractures liées à la frontière sont multiformes. Frontières internes aux communautés nationales (majorité ou natifs vs minorités ethniques ou religieuses), frontières entre pays Européens, séparatisme, etc. Clairement, ce qu’aimerait Piketty, c’est voir toutes ces frontières s’estomper. Ses réflexions sur la propriété le conduisent à préconiser une forte taxation de facteurs mobiles : gros patrimoines et travailleurs fortement qualifiés. S’ils sont mobiles, autant organiser leur taxation sur une base internationale, afin d’éviter une compétition fiscale entre États, qui ne peut que nuire à l’objectif redistributif. Il existe une autre possibilité : réduire leur mobilité. Entre ces deux options, la première consiste en un affaiblissement des frontières entre nations, la seconde en un renforcement de ces frontières. Piketty se présente comme un « égalitariste-internationaliste », et préfère donc la première option. C’est parfaitement louable, mais on ne saurait créer ou faire disparaître des nations sans un large consensus populaire. S’il parle abondamment du sujet de la frontière, c’est pour déplorer le poids qu’il a pris dans le débat public, sans réellement chercher à expliquer le phénomène, autrement que par les brassages de population dans le monde post-colonial et par le vide laissé par l’abandon de la question de la redistribution. Le problème de cette vision est qu’elle n’est pas un simple exercice de philosophie politique, mais une tentative de mettre en lumière des trajectoires possibles étant donné l’état de l’opinion et des alliances qui pourraient se constituer en son sein. Or les catégories mises en avant par Piketty sont trop sommaires pour rendre compte convenablement de ce sujet.

En se focalisant sur le cas Français, il oppose, parmi les segments de l’opinion qui se déclarent sensibles aux inégalités, les « sociaux-nativistes », autrement dit l’extrême droite, aux « egalitaristes-internationalistes », représentés par la tendance Mélenchon-Hamon. Il montre le bien-fondé de sa distinction par le fait que 91% des électeurs RN considèrent qu’il y a « trop d’immigrés », contre « seulement » un tiers pour les électeurs Mélenchon-Hamon. Outre qu’un tiers, ça fait beaucoup, Piketty réduit ici la question multiforme de la frontière à une de ses composantes, celle de la frontière interne à la communauté nationale, qui n’est pas la plus pertinente dans le contexte. Un électeur de Mélenchon peut à la fois être sensible au racisme qui touche les minorités et souhaiter amender les traités internationaux afin  de limiter le commerce international et les mouvements de capitaux. Ces mêmes personnes seront probablement réticentes à l’idée de mettre en place une fiscalité commune avec l’Allemagne et l’Espagne. Pas forcément en raison d’un nationalisme exacerbé, mais au moins par crainte que des différences culturelles ne se traduisent par des mesures trop inégalitaires. Ce n’est pas toujours en vertu d’un principe général qu’on rejette l’internationalisme.

Un citoyen convaincu que ses idées ont plus de chances d’être majoritaires dans un cadre national qu’à une échelle plurinationale a de bonnes raisons de se faire l’avocat du cadre national, sans qu’il s’agisse nécessairement de nativisme de sa part. A contrario, lorsqu’on observe, après plusieurs décennies de globalisation, que la question de la frontière devient un sujet de crispation politique, il faut être un adepte de la méthode Coué pour imaginer qu’on va faire reculer l’importance qu’une grande part de l’opinion lui accorde en prônant un affaiblissement supplémentaire des frontières. 

Il y a chez Branko Milanovic et Dani Rodrik des idées qui viennent relativiser l’enthousiasme de Piketty. Chez Milanovic, la célèbre courbe de l’éléphant montre que les gagnants de la croissance mondiale de ces 30 dernières années sont une partie des pauvres des pays pauvres et les riches des pays riches, tandis que les perdants sont les classes moyennes des pays riches. Or, si l’on se place d’un point de vue global, les classes moyennes des pays riches devraient être considérées comme des classes riches. Pourtant, il n’a traversé l’esprit de personne de dire aux gilets jaunes qu’à l’échelle du monde, ils étaient riches. C’est parce que les questions distributives sont encore largement ressenties à l’échelle nationale. 

Quant à Rodrik, il se montre, dans son livre « Straight talk on trade », sceptique sur les tentations de remplacer les Etats par de grandes structures fédérales supra-nationales. Sans avoir une approche essentialiste des différences de cultures, il observe que même de petites différences de cultures peuvent conduire à une structuration différente des vies politiques de differents pays. Certains sujets, comme l’inflation, les finances publiques ou la sécurité, peuvent avoir plus d’importance dans certains pays que dans d’autres pour définir les clivages politiques. En retour, si les clivages politiques se structurent autour de sujets différents, les opinions individuelles tendent à être influencées par ces clivages. Pour Rodrik, la mondialisation économique n’a pas débouché sur une convergence des opinions publiques. Si bien qu’une décision imposée, par exemple, par un référendum franco-allemand, mais très majoritaire en Allemagne et minoritaire en France, aurait du mal à être acceptée en France. Et Rodrik voit dans ce fait un avantage : le maintien d’une grande diversité des institutions nationales, précieuse à ses yeux.

Marx à l’envers… ou à l’endroit

On a beaucoup parlé, au sujet de ‘Capital et Idéologie’ de d’une forme de Marxisme inversé, qu’il revendique d’ailleurs lui-même assez directement. Pour rappel, Marx considère que l’idéologie n’est qu’un sous-produit de la vie économique, et des rapports de domination qui la constituent. Piketty, au contraire, prétend, tout au long du livre, montrer à quel point les variations idéologiques ont des effets puissants sur le cours de l’histoire. Cette assertion est assez agaçante, car elle n’est que très rarement étayée. D’une part, la description des débats idéologiques ne tient qu’une place marginale dans la partie historique du livre, noyée sous des descriptions de tel dispositif fiscal ou de telle évolution démographique. D’autre part, il n’existe pas de manière très probante de déterminer qui, de l’idéologie ou du rapport de domination, influence l’autre, à quelques rares exceptions près (comme par exemple l’impact dévastateur des thérapies de choc en Russie). Néanmoins, cette faiblesse n’est pas très grave. Il faut comprendre que Piketty est dans un combat politique. Les idées qu’il défend (fiscalité hyper progressive et cogestion pour les plus importantes) ne sont pas très populaires dans l’opinion. Le simple fait que personne de gagne d’élections ces temps-ci en défendant de telles idées aurait de quoi décourager leurs partisans. Il ne faut pas s’étonner du fait qu’il mette en avant la dimension idéologique de ce qu’il considère comme un blocage. Ce que Piketty nous dit, au fond, c’est que ses idées sont assez banales à l’échelle historique, mais qu’elles nous semblent déraisonnables parce que nous n’avons toujours pas enterré nos réflexes reagano-laffero-thatchero-friedmaniens. 

Mais paradoxalement, en considérant la question de la frontière comme une question non-fondamentale, qui s’effacera d’elle-même lorsqu’on reproposera aux classes populaires de vrais programmes politiques permettant d’améliorer leur condition économique, il remet Marx à l’endroit. La superstructure (dont fait partie la question de la frontière) sera balayée par l’infrastructure (le retour de la lutte des classes via la question fiscale). Il n’est pas certain que cette remise à l’endroit soit très pertinente pour prédire les évolutions politiques à venir.

La dette publique rend-elle fou ?

La dette publique française équivaut actuellement à une année de son PIB. S’agit-il d’un fardeau pour les générations futures ? Faut-il, avec Thomas Porcher, considérer qu’il n’y a pas de problème puisque nous transmettrons également à nos descendants un formidable patrimoine public ?

Voici quelques éléments pour comprendre un peu mieux ces enjeux. Attention, si vous pensez trouver ici un argumentaire tout prêt pour défendre vos a priori, vous serez déçus.

Une dette qui ne se rembourse jamais.

Il s’agit là d’une caractéristique étonnante de la dette publique : il n’existe aucune date à partir de laquelle la dette publique est censée être intégralement remboursée, et en fait elle ne le sera jamais. La différence entre un individu et un État, c’est qu’un individu va mourir à un horizon prévisible. On souhaite généralement qu’il ait remboursé ses dettes avant sa mort (bien que les créanciers puissent se payer sur le patrimoine laissé aux héritiers). Lorsqu’une banque accorde un crédit immobilier sur 20 ans à un individu, celui-ci sait qu’en 20 ans, il devra payer les intérêts et rembourser le capital prêté. Un État, lui, à défaut d’être immortel, n’a généralement pas d’horizon prévisible de disparition. Il peut donc continuer à rembourser les dettes passées en contractant des dettes nouvelles. Le coût pour les finances publiques de l’endettement se limite donc aux intérêts à payer sur la dette. Or, contrairement à la dette, les intérêts de la dette, eux, décroissent. Avec la crise, les taux d’intérêt ont globalement baissé, et ils ont même baissé davantage pour les États réputés solvables que pour le reste des emprunteurs. Voici une rétrospective prolongée par une prévision sur la charge de la dette de 2010 à 2021 (travail joint entre l’insee et la banque de France, trouvé grâce à Pierre Aldama)

https://i2.wp.com/www.optimum-blog.net/public/charge.jpg

Le pourcentage représenté sur l’axe de droite correspond à un pourcentage de la dette. Mais comme celle-ci est pratiquement égale au PIB annuel de la France, on peut dire que l’on paye un peu moins de 2% de PIB de charge de la dette.

Une dette qui se rembourse toujours (pour l’instant)

La dette ne se rembourse jamais, mais elle prend la forme de titres de créances, appelés obligations, ayant des échéances prédéterminées. Ces obligations sont, elles, sont toujours remboursées aux créanciers en temps voulu. C’est le paradoxe, et c’est ce qui fait le caractère potentiellement explosif des dettes publiques. Très régulièrement, l’Agence France Trésor (AFT), qui gère la dette de l’Etat, se trouve en position de devoir rembourser des obligations arrivées à échéance. Ces obligations sont détenues par des intermédiaires financiers (banques, assurances…) qui se voient donc remboursés le jour de l’échéance. A la seconde où ils sont remboursés, la dette publique diminue d’autant. Mais, en règle générale, ces intermédiaires financiers souhaitent conserver de la dette publique dans leur bilan. Donc, ils se portent candidats pour acheter de nouvelles obligations. Une autre façon de le dire est que, par exemple, des assurances ayant prêté de l’argent à l’État Français il y a 10 ans pour 10 ans souhaitent prolonger leur prêt de 10 ans supplémentaires, afin de continuer à percevoir des intérêts pendant 10 ans. C’est pour cette raison que la dette publique française est à la fois jamais remboursée et toujours remboursée : jamais car les emprunts sont renouvelés lorsqu’ils arrivent à l’échéance, toujours car un créancier donné peut parfaitement vouloir, ponctuellement, ne pas racheter d’obligation, et dans ce cas il sera remboursé sans difficulté.

Une boule de neige potentielle

Pourquoi parler alors, comme je l’ai fait plus haut, du caractère potentiellement explosif de la dette ? Parce que le renouvellement permanent de cette dette se fait en fonction des taux d’intérêt consentis par les créanciers. Ces taux d’intérêt dépendent de plusieurs choses, mais deux prédominent : les anticipations sur l’évolution des taux d’intérêt à court terme, et les anticipations sur le risque de défaut. Dans un pays dont la dette équivaut à un an de PIB, une augmentation d’un point de taux d’intérêt pendant une période donnée augmente la charge de la dette d’un point de pib multiplié par la part de la dette qui doit être renouvelée sur la période. A titre d’exemple, la France va renouveler quelques 280 mds€ d’obligations (y compris 20mds d’obligations indexées sur l’inflation en 2020) entre 2019 et 2020. Ça représente environ 12% du PIB de la France.Si, sur cette période, l’Etat français devait payer un point de taux d’intérêt en plus, ça alourdirait les dépenses publiques de… 0,12% de PIB environ (en fait un peu moins s’il y a de la croissance). Bon, pas la fin du monde. Personne ne peut imaginer que l’Etat Français ne respectera pas ses engagements pour une fraction de point de PIB.

Mais on peut imaginer un scenario un peu plus dur qui ferait basculer rapidement les choses. Imaginons que les principaux partenaires commerciaux du pays traversent une récession, qui les conduise à diminuer leurs importations. Cette situation aurait des répercussions sur l’économie domestique. Forte augmentation du chômage et donc des allocations chômage, diminution du PIB et de l’inflation, baisse des recettes fiscales… Entre la baisse du PIB et de l’inflation d’une part, et la hausse du déficit d’autre part, le ratio dette publique / PIB (nominal) semble devoir s’accroitre d’une dizaine de points à un horizon assez rapproché si rien n’est fait. Si le pays n’a pas de politique monétaire propre, il y a peu de chances qu’une politique monétaire expansionniste vienne le sortir de ce mauvais pas. Il faudrait donc une grande relance budgétaire, mais alors l’accroissement du taux d’endettement doit être revu à la hausse. Sur le marché secondaire (c’est à dire ce marché sur lequel s’échangent les titres de dette publique après leur émission), la valeur des obligation chute, ce qui correspond à une hausse du taux d’intérêt. Cela fait craindre qu’au moment du renouvellement de la dette sur le marché primaire, les prêteurs ne réclament eux aussi des taux d’intérêt en forte hausse. Cette hausse du taux d’intérêt va s’ajouter à la hausse mécanique du déficit budgétaire, si bien que le ratio d’endettement risque d’augmenter encore plus vite que prévu, laissant imaginer que le renouvellement perpétuel, qui est la règle habituellement, ne devienne plus soutenable. Que fait l’État s’il ne peut plus contracter de dette nouvelle pour rembourser les anciennes ? Soit un défaut, soit un recours à une aide extérieure (type FMI) qui va lui imposer un plan de rigueur extrêmement douloureux en contrepartie de son aide.

Vous l’avez compris, cette particularité des dette publiques qui est de ne jamais être remboursées, peut disparaître en cas de crise, et provoquer un grand mouvement de panique le jour du remboursement d’une tranche de dette. Si le scenario vous semble peu réaliste, sachez que c’est en tout point ce qui est arrivé à la Grèce dans la foulée de la crise de 2008.

Dette publique, patrimoine public.

Les interventions fréquentes de Thomas Porcher dans les médias sont l’occasion pour lui de rappeler que l’on ne peut évaluer un patrimoine en se basant sur l’endettement uniquement, sans tenir compte de l’actif. Or la France aurait un patrimoine public de grande valeur, qui, en quelques sortes, garantirait notre dette publique. Que penser de l’argument ?

Si l’on prend la dette dans sa globalité, il n’est guère convainquant, car ce n’est pas tant le patrimoine public qui garantit la dette, que la capacité de l’Etat à lever des impôts dans le futur, et à allouer à la charge de la dette la part de ces impôts qui lui revient. Au fond, d’un strict point de vue financier, on pourrait bien utiliser l’argent public en pures dépenses stériles (je ne dis pas que c’est le cas, hein…), dès lors que la charge de la dette reste constante en rapport au PIB et à un niveau soutenable, la dette publique est elle-même soutenable. A contrario, si la charge de la dette devenait insoutenable, il ne serait pas imaginable de vendre toutes les routes, les hôpitaux, les écoles, etc, pour la rembourser de manière anticipée. Certes, tous les États ont quelques bijoux de famille à privatiser pour se désendetter, mais rien qui ne permette d’éviter un défaut.

En revanche, si l’on pense non pas à la totalité de la dette, mais à l’opportunité de l’accroitre de façon marginale à court terme, la question de l’actif se pose. En effet, les taux d’intérêt actuels sont si bas, qu’on serait tenté d’encourager l’Etat à s’endetter massivement pour investir dans des projets spécifiques et solvables. Imaginons, par exemple, que l’Etat souhaite se porter acquéreur de tous les logements insalubres situés dans les agglomérations dans lesquelles l’immobilier est en tension. Le but serait de les acheter à bas prix, de les rénover, et de les revendre, selon votre sensibilité, soit au prix du marché (que les opérations contribueront quand même à détendre), soit à un prix « social », compris entre le coût global de l’opération (prix d’achat + coût de la rénovation + intérêts) et le prix du marché. Hormis d’éventuelles objections juridiques (telle que la non conformité de l’endettement au traité de l’UE), que pourrait-on reprocher à un tel montage ? On pourrait objecter que si ce type d’opérations est rentable, alors le marché devrait déjà s’en charger. Ce n’est pas faux en soi, et des entrepreneurs privés font déjà des choses de ce genre. Mais ça prend du temps, et il serait très idéologique d’imaginer que les initiatives privées font disparaître instantanément ce genre d’opportunités dès qu’elles se présentent, empêchant ainsi l’Etat d’en profiter. Il y aurait des objections plus valables sur les risques de copinage, de corruption, etc. Certes. Mais d’un point de vue financier, la présence d’un actif assez facilement solvable permettrait de minimiser très fortement les risques de défaut.

Ainsi, si l’Etat profitait d’une période de taux exceptionnellement bas (pour lui) pour conduire des projets rentables pendant 5 ans, cela pourrait paradoxalement accroitre la dette tout en faisant rentrer de l’argent dans ses caisses. L’Etat emprunte aujourd’hui à des taux (légèrement) négatifs pour 2 ans. Supposons que le taux soit en fait de 0. S’il peut acheter – rénover – revendre des logements en 2 ans, le taux de rendement de l’opération pour les contribuables serait simplement égal au taux de rendement de l’activité. A la différence de la dette « habituelle », cette dette aurait vocation à être remboursée dans un délai court. Et tout cela est, en fait, très orthodoxe d’un point de vue financier. Car finalement, le ratio dette/pib souvent mobilisé pour évaluer la soutenabilité de la dette publique n’a guère d’équivalent pour les autres agents économiques. Les prêts immobiliers accordés aux ménages sont très souvent de montants 5 ou 10 fois supérieurs à leurs revenus annuels. Les banques elles-mêmes ont un ratio fonds-propres sur actif de 7%, ce qui veut dire qu’elles ont des dettes représentant 93% de leur actif, et infiniment plus que leurs chiffres d’affaire annuels. Bien entendu, à des agents économiques différents, il n’est pas scandaleux d’appliquer des modèles de soutenabilité différents. Mais il ne faut pas perdre de vue que, fondamentalement, ce qui rend une dette soutenable, c’est essentiellement la capacité de l’emprunteur à respecter le calendrier des paiements. Et il n’est pas tellement difficile de trouver des activités ayant des taux de rendement supérieurs à 0%.

Mais vous êtes fou ?

Si tout ce qui précède vous donne une impression un peu schizophrénique, vous avez raison. Avoir un stock de dette élevé peut faire dégénérer la situation rapidement en cas de crise, et pourtant, les taux actuellement concédés sur la dette française encourageraient plutôt à accroitre ce niveau d’endettement. Avoir une dette faible est une excellente arme anti-crise, car l’État peut très facilement s’endetter pour faire face à une mauvaise conjoncture s’il part d’un bas niveau de dette. En même temps, c’est une faute de gestion impardonnable de renoncer à des financements à taux nuls lorsque des projets potentiellement rentables existent, et que des millions de chômeurs ne demandent qu’à y être associés. Alors, « que faire ? » comme dirait Lénine… Une piste pourrait consister à faire la différence entre ce qui relève de l’activité ordinaire d’administration de l’Etat, et ce qui relève d’investissements facilement et opportunément liquidables sur un marché. Il ne serait pas illogique d’admettre que les dépenses ordinaires devraient être financées intégralement par des recettes ordinaires. De la dette nouvelle pourrait, en revanche, être contractée pour des projets ponctuels, rentables et facilement liquidables. Un tel partage des tâches laisse des questions en suspens. Pas de déficit sur les opérations ordinaires : faut-il raisonner en moyenne, afin d’autoriser des déficits en périodes de récession ? Si c’est le cas, que faire en période de longue récession ? Comment faut-il ventiler la charge de la dette ? Qu’inclure dans les projets liquidables ? L’immobilier ? Toutes les participations dans des entreprises, y compris celles que l’Etat ne cèderait jamais pour des raisons politiques ?

Quoi qu’il en soit, nous devrions oublier l’idée que l’endettement est synonyme de mauvaise gestion. Il n’est pas incohérent de chercher à rationaliser la dépense publique et de vouloir profiter de taux bas pour financer des projets rentables.

Et si la charge de la dette vous angoisse, préparez une petite fête pour le 25 octobre de cette année, jour où arrivera à échéance une OAT émise en 1989, payant un taux d’intérêt de 8,5%, pour un encours de 8 milliards d’euro. Elle sera remplacée, certainement, mais il faudrait un sacré retournement de conjoncture pour que le remplacement soit à un taux aussi élevé.

Qu’est-ce qu’une politique de l’offre ?

C’est une vieille tarte à la crème que d’opposer les politiques économiques ‘de la demande’ aux politiques ‘de l’offre’. Le but de ce billet n’est pas d’être exhaustif sur le sujet, mais de montrer de quelle manière les modèles macroéconomiques intègrent le côté offre de l’économie. Il peut être considéré comme la suite d’un billet écrit il y a plus d’un an, dans lequel je présentais le modèle de Carlin & Soskice, qui structure leur excellent manuel, et qui ne s’éloigne guère de ce que sont les modèles de prévision appelés DSGE. DSGE qui demeurent, malgré des critiques justifiées, le socle de la macroéconomie contemporaine. Dans cet ancien billet, je m’étais davantage consacré au côté demande qu’au côté offre. J’essaie donc de rétablir l’équilibre.

Autorisez-moi une grosse précaution avant d’entrer dans le vif du sujet : je ne prétends pas que le modèle que je vais présenter est le seul possible, ni même qu’il est le plus pertinent, ni encore que j’en suis un défenseur. Simplement, il s’agit de comprendre ce que les macroéconomistes ont, généralement, en tête lorsqu’ils parlent de politiques de l’offre.

L’état de l’économie peut être représenté par deux variables macroéconomiques : le PIB et l’inflation. Le partage des tâches entre offre et demande s’effectue de la façon suivante : la banque centrale, éventuellement aidée par la politique budgétaire lors de crises graves, utilise son taux d’intérêt pour choisir le PIB qui lui convient. C’est le côté demande de l’économie. C’est évidemment caricatural, mais c’est un modèle. En baissant son taux d’intérêt, la banque centrale stimule le PIB, elle le déprime en augmentant son taux. Notez bien qu’on parle ici de PIB réel et non pas nominal. Autrement dit, il s’agit d’un PIB à prix constants.

L’inflation, pour sa part, est déduite d’une comparaison entre le PIB ‘choisi’ par la banque centrale, et un PIB théorique, appelé « PIB d’équilibre », qui est le PIB qui garantit une stabilité de l’inflation. C’est la détermination de ce PIB d’équilibre qui constitue le côté offre de l’économie. Voyons comment ça fonctionne…

Tout d’abord, définissons le salaire ‘réel’. Dans la rigueur des principes, le salaire réel est le ratio entre un salaire nominal et un indice des prix. Mais pour y voir encore plus clair, on va définir le salaire réel de façon plus simple : c’est le ratio entre la valeur de ce qu’un travailleur peut se payer avec son salaire horaire et la valeur de ce qu’il produit en travaillant une heure. Un boulanger produit 30 baguettes à 1 euro la baguette en une heure de travail. Son salaire horaire est de 20 euros. son salaire réel est donc de 2/3.

Quelles forces entrent en jeu pour déterminer ce salaire réel ? Le modèle WS-PS (pour Wage Setting – Price Setting), qui est le modèle privilégié pour analyser les politiques de l’offre, est basé sur le fait que ce salaire réel est déterminé par deux ensembles d’institutions à priori non-coordonnées : celles qui régissent le marché du travail, et celles qui régissent le marché des biens.

Les institutions du marché du travail semblent être les plus pertinentes pour déterminer le salaire réel, mais nous verrons qu’il n’en est rien. Quelles sont ces institutions ? Le poids des syndicats, le caractère plus ou moins centralisé de la négociation salariale, l’importance et la durée des indemnités versées aux chômeurs, etc. Toutes ces choses influencent à priori la capacité des travailleurs à négocier leur salaire réel. S’y ajoute une autre variable, non pas institutionnelle mais macroéconomique : le taux de chômage. Lorsque celui-ci est élevé, les travailleurs ne sont pas en position de force pour obtenir des augmentations de salaire, car les employeurs peuvent facilement faire jouer la concurrence des chômeurs. Inversement, avec un chômage faible, les travailleurs sont difficilement remplaçables dans leur emploi, et ils peuvent donc négocier des salaires en hausse. Comme nous le verrons plus bas, ce taux de chômage, que la banque centrale peut influencer via son taux d’intérêt, est la variable d’ajustement qui va rendre le salaire réel tel que négocié sur le marché du travail compatible avec ce qui se passe sur le marché des biens.

Car si les institutions du marché du travail sont importantes, celles du marché des biens sont déterminantes. Ce marché est complètement caractérisé par un taux de marge des entreprises. Si l’on admet, pour simplifier, que le salaire est le seul élément entrant dans le coût de production d’une entreprise, le taux de marge est ce qui fait passer d’un coût de production à un prix de vente. Reprenons mon histoire de boulanger. Nous avons dit qu’en produisant 30€ de marchandises en une heure de travail, il percevait un salaire de 20€, soit un salaire réel de 2/3. On pourrait penser que ce sont les institutions du marché du travail qui lui permettent de négocier un salaire équivalent à 2/3 de sa production. Mais prenons les choses à l’envers. Sur le marché des baguettes de pain, l’employeur de ce boulanger dispose d’un certain pouvoir de marché. Il a des concurrents, certes, mais ceux-ci sont éloignés géographiquement de lui, et donc une partie de la clientèle préfère se rendre chez lui dès lors que la différence de prix n’est pas excessive. Il a peut-être, également, des spécialités qui lui permettent de se différencier de ses concurrents. Cette structure de marché correspond à ce qu’on appelle la concurrence monopolistique : chaque vendeur a des concurrents, mais qui produisent des biens légèrement différents. Le résultat est qu’il existe bien une pression concurrentielle, mais elle est suffisamment relâchée pour permettre au vendeur de se ménager une marge, qui constituera son revenu. Supposons que l’intensité de la concurrence soit telle qu’elle autorise notre vendeur de pain à appliquer une marge de 50%. Cela signifie qu’en plus des 20€ de salaires que lui coûte la production de ses 30 baguettes, il pourra ajouter 10€ pour se rémunérer, soit 30€ les 30 baguettes.

Question : à quoi notre salarié doit-il son salaire réel de 2/3 ? Au fait qu’il ait pu négocier un salaire égal au 2/3 de la valeur de sa production ? Ou au fait que son employeur peut vendre sa production avec une marge de 50% ?

Et surtout : par quel miracle sa capacité à négocier un salaire de 2/3 est-elle compatible avec la capacité de son employeur à appliquer une marge de 50% ?

La réponse à ces deux questions tient à ceci : la banque centrale utilise son taux d’intérêt pour conduire le taux de chômage à niveau tel que le salaire négocié soit égal à 1/(1+taux de marge). C’est ce taux de chômage qui correspond au PIB d’équilibre évoqué plus haut. C’est donc bien le taux de marge sur le marché des biens qui est déterminant, et le chômage qui est la variable d’ajustement utilisée par la banque centrale pour rendre la négociation salariale compatible avec ce taux de marge.

Que se passe-t-il si elle ne le fait pas ? Supposons que les institutions du marché du travail couplées à un chômage faible permettent aux travailleurs de négocier un salaire réel de 80%, alors même que la marge des employeur est de 50%. Notre boulanger salarié va entamer des négociations salariales lui permettant d’obtenir 80% de la valeur des baguettes qu’il fabrique. Le coût de fabrication de ces 30 baguettes passe donc de 20 à 24. Mais si le boulanger peut continuer à appliquer une marge de 50%, alors les baguettes se vendront finalement 24*1,5=36€, soit 20% de plus que précédemment. Si la boulangerie est isolée, le salarié n’est guère impacté par cette hausse du prix des baguettes, qui ne constituent qu’une part infime de son budget. Le problème, vous l’avez compris, est que la même histoire va se dérouler dans toutes les entreprises du pays, pas uniquement dans cette boulangerie. La satisfaction de notre boulanger d’avoir vu sa rémunération augmenter de 20% n’est que de courte durée : l’inflation annule tout son gain.

Remarque : si, avant la négociation, le boulanger et son employeur avaient tous deux anticipé une certaine inflation, ces 20% d’inflation se seraient ajoutés à l’inflation déjà anticipée. Dans ces conditions, si l’inflation anticipée dépend de l’inflation observée, rester sur cette différence salaire réel > 1/(1+taux de marge) risque de faire exploser l’inflation au bout de quelques périodes.

C’est pour cette raison que la banque centrale va « piloter » l’économie pour accroitre le chômage, et faire ainsi baisser le pouvoir de négociation des salariés, jusqu’à ce le salaire réel retombe à 2/3.

Inversement, si le salaire réel négociable est de 60%, alors la banque centrale va faire diminuer le chômage pour que ce salaire réel négocié remonte à 2/3

Si vous avez compris cela, vous êtes mûrs pour comprendre ce qu’on appelle une politique de l’offre.

Commençons par les politiques de l’offre les moins sympathiques, pour les salariés en tout cas. Ce sont celles qui font baisser le salaire réel négocié, à taux de chômage donné. Partant d’une situation d’équilibre (donc, pour notre boulanger, un salaire réel de 2/3, soit 20€, et un taux de marge de 50% pour son patron, portant le prix de vente à 30€ les 30 baguettes), le gouvernement met en place une réforme de la négociation salariale, la faisant passer au niveau des établissements et non des branches par exemple. Ou encore, il diminue les allocations chômage et leur durée. Ces réformes font baisser le salaire à 15€. Si la banque centrale ne réagit pas, le prix des 30 baguettes va tomber à 15*1,5=22,5€. C’est donc la déflation qui va s’imposer, contraire à l’objectif de la banque centrale de stabilité des prix. Comment la banque centrale peut-elle éviter la déflation ? Souvenez-vous : sa variable d’ajustement est le chômage. Elle va donc devoir baisser son taux d’intérêt pour stimuler le PIB, faire baisser le chômage, afin de rendre à notre salarié une capacité de négocier son salaire à 2/3 de la valeur produite. In fine, le salaire réel n’a pas diminué (à long terme en tout cas), et le chômage a baissé

Autre forme de politique de l’offre, un peu plus sympathique, faire baisser les marges des entreprises. Casser les monopoles, condamner les ententes illégales, alléger les procédures administratives pour entrer sur un marché, alléger les droits de douane pour mettre les entreprises en concurrence avec des entreprises étrangères, etc. Toutes ces réformes font que le taux de marge des entreprises baisse à 25%. Appliquée à un coût de 20€, cette nouvelle marge risque de faire tomber le prix de vente à 25€, créant, là encore, une situation de déflation. Pour éviter ça, la banque centrale fait baisser le chômage, de manière à ce que les salariés puissent revoir à la hausse leur prétention salariale. Lorsque le salaire réel atteint 80% (=1/1,25), soit 24€, le nouveau taux de marge de 25% pousse le prix de vente à 30€ (24*1,25), évitant la chute des prix. Comme précédemment, le chômage a baissé, mais cette fois-ci, le salaire réel a augmenté. Si vous êtes salarié, vous devriez préférer ce genre de politique de l’offre à celui du paragraphe précédent.

Résumons tout cela : les politiques de l’offre ne créent pas directement de la croissance ou de l’emploi. Ce qu’elles créent directement, c’est un risque de déflation. Le but est donc d’acculer la banque centrale à mettre en œuvre une politique de demande, afin d’éviter cette déflation. Entre les deux catégories de politiques de l’offre, l’une est neutre sur le salaire réel (celle qui concerne le marché du travail), l’autre se traduit par un accroissement de la part du travail dans la valeur aoutée (celle qui concerne le marché des biens). Dans l’absolu, on est donc tenté de considérer les secondes comme plus justes, bien qu’il y ait une question de marges de manœuvre : un pays ayant un marché des biens déjà très libéralisé ne pourra peut-être pas aller plus loin dans ce domaine.

commentaires :

Tout d’abord, j’ai volontairement raisonné en termes de pourcentage de la valeur créée, pour éviter de parler de l’impact des gains de productivité. Ceux-ci ont un effet ambigu car ils tendent à faire baisser les prix, à salaires donnés, mais, en même temps, ils accroissent le pouvoir de négociation des salariés. Donc, on peut considérer, en première approximation, qu’ils n’ont pas les effets déflationnistes censés faire réagir la banque centrale. Néanmoins, si leur effet sur le salaire est moins rapide que leur effet sur les prix, alors ils devraient être considérés comme une politique de l’offre de même nature que les deux autres.

A long terme, ces gains de productivité sont pourtant les seuls qui comptent vraiment. Une politique de l’offre qui ferait passer le taux d’emploi de 75% à 80% créerait 6,6% de croissance, en supposant que les salariés aient tous la même productivité (ce qui est peu vraisemblable). Un gain de productivité de 0.5% par an pendant 12 ans aurait le même impact sur le niveau de vie, et pourrait apporter davantage au-delà, alors que les politique de l’offre sont de « one-shot » (on ne peut étendre à l’infini le taux d’emploi)

Vous l’avez compris, les politiques de l’offre ne créent de l’emploi que parce qu’elles suscitent des politiques de demande de la banque centrale. On peut donc s’interroger sur l’impact des politiques de l’offre dans un pays n’ayant pas de banque centrale propre, tel que la France. Une politique de l’offre, c’est un automobiliste qui jure qu’il va se garer dans 2 semaines sur cette dalle en béton instable, en espérant que cela forcera le maçon à la consolider d’ici là. Si le maçon est sur un autre chantier à ce moment là, mieux vaut réfléchir à deux fois avant de mettre la menace à exécution. En fait, au sein d’une zone monétaire, les politiques de l’offre peuvent réagir à un mécanisme un peu différent. Il s’agit toujours de créer de la déflation, mais pas pour susciter une réaction de la banque centrale, mais bien pour stimuler les exportations du pays. Mais si cet impact sur les exportations était insuffisant, alors mettre en place des politiques de l’offre dans un contexte d’austérité pourrait bien s’avérer contreproductif.

Enfin, la principale critique actuellement formulée contre cette façon de modéliser l’offre, c’est qu’elle fait l’impasse sur l’hystérèse, dont nous avons déjà parlé ici. Lorsque nous avons dit qu’avec davantage de chômeurs, les salariés étaient en position de faiblesse pour négocier les salaires, cela suppose que les chômeurs soient effectivement des concurrents sérieux pour remplacer les insiders. Que se passe-t-il si, après un long moment passé au chômage, les chômeurs se découragent et finissent par perdre leurs aptitudes professionnelles ? Après une longue crise, la banque centrale sera tentée d’interpréter la situation en expliquant que le PIB d’équilibre a baissé par rapport à la situation pré-crise, comme si l’économie avait été frappée par un choc d’offre négatif. Alors que ce choc n’est que la conséquence de la crise. Si c’est vrai, alors le modèle présenté ici est trop conservateur. Un modèle plus correct incitera à faire baisser le chômage fortement, sans se soucier d’une éventuelle valeur d’équilibre, en pariant sur un retour dans le jeu des chômeurs découragés, qui éviteront les dérives inflationnistes.

Je conclus en répétant ce que j’ai dit en introduction : mon seul objectif était pédagogique. J’espère, sans équations ni graphiques illisibles, vous avoir fait comprendre un peu mieux ce que les macroéconomistes appellent les politiques de l’offre, et les limites de cette notion.

La faille… science-fiction monétaire

Monsieur le président,

Comment calmer la rue ? Comment trouver de l’argent pour satisfaire ces malheureux, sans accroître les impôts qui les saignent ? Vous avez exclu l’ISF, c’est noté. C’est vous le président après tout ! La dette ? Elle est déjà élevée, et vous n’avez pas d’arme monétaire pour vous aider à l’alléger un peu. Il est loin le temps on l’on pouvait sortir d’une crise par le haut, avec un peu d’inflation. La BCE a d’autres soucis que vos gilets jaunes, monsieur le Président… Et pourtant, ça ne nous ferait pas de mal ! Regardez : avant la crise, notre PIB nominal augmentait régulièrement à des rythmes de 4 ou 5% annuels ! De nos jours, on dépasse péniblement les 2%, c’est un peu mou !

https://i0.wp.com/www.optimum-blog.net/public/faille1.png

Monsieur le président, vous êtes né sous une bonne étoile, car en cette période qui semble sans issue, une faille spatio-temporelle pourrait vous apporter le salut, et, à défaut de prospérité, un peu de bonne humeur à votre peuple. Cette faille porte un nom : PERF. Non, pas pour « perfusion », comme vous y allez… mais pour « Portefeuille Électronique de la République Française ». Suivez-moi, je vais vous expliquer…

Il a quelques quatre siècles, en Hollande, de riches commerçants confiaient leur or à des banquiers, afin qu’il soit en sécurité dans de grands coffres. Ces banquiers ont eu une idée géniale : échanger cet or qu’ils conservaient contre des certificats de dépôt anonymes, et donc échangeables. Ainsi, lorsqu’un de ces commerçants devait effectuer un paiement en or, il pouvait le faire en donnant un certificat de dépôt plutôt que de l’or. C’était si pratique, que finalement les certificats sont devenus eux-mêmes un moyen de paiement : un fournisseur recevant un paiement sous cette forme n’allait plus systématiquement chercher l’or correspondant, puisqu’il pouvait utiliser le même certificat pour payer ses propres fournisseurs. Du coup, les banquiers ont pu émettre plus de certificats que ce qu’ils n’avaient d’or dans leurs coffres. Ils ont créé de la monnaie, comme vous aimeriez pouvoir le faire aujourd’hui.

Et bien monsieur le président, vous avez, si vous la saisissez, une occasion en or de faire exactement la même chose !

Avez-vous remarqué que lorsque vous ‘likez’ un statut twitter, votre ‘like’ est immédiatement comptabilisé ? En revanche, lorsque vous payez par carte une boîte de capsules de café, il faut deux ou trois jours pour que la somme passe de votre compte à celui de George Clooney. Ne préfèreriez-vous pas que la somme soit transmise immédiatement plutôt que de vivre en permanence dans l’angoisse de savoir si le solde qui apparait sur votre smartphone inclut bien votre dernier paiement en date ? Et imaginez l’angoisse des commerçants, qui se demandent s’ils vont dépasser leur découvert autorisé, selon le temps mis par un virement en attente !

Techniquement, il est possible de faire des systèmes de paiement qui vont plus vite. Paylpal fait ça. Les Crous qui gèrent les restaurants universitaires de nos beaux campus ont créé une superbe appli ‘izly’ qui fait la même chose. Mais ces systèmes de paiement ne sont pas suffisamment universels pour changer la vie de gens. Et les banques elles-mêmes ne le font pas, car elles sont interconnectées, et il faudrait donc qu’elles adoptent de façon synchronisée un nouveau système informatique.

Mais oh… on est la start-up nation ou pas ? Alors vous allez être un game-changer, Monsieur le président.

Voilà comment ça va se passer. Vous allez débaucher 20 chercheurs du CNRS, dont au moins 3 ou 4 spécialistes en cryptographie, pour développer votre appli. PERF. Le principe est le suivant : chaque utilisateur a un compte, avec mot de passe et identifiant. Ce compte est associé à un ou plusieurs comptes en banque, pour effectuer des virements dans les deux sens. Sur l’appli smart-phone, un code-barre permet de réaliser des paiements directement. Si la somme est trop élevée (>50€), l’utilisateur doit utiliser son mot de passe.

Jusque-là, vous ne faites que réinventer ce qui existe déjà.

Mais comme vous êtes la startup nation, vous allez ajouter quelque chose : vous allez annoncer que, dès janvier 2020, les fonctionnaires acceptant d’être payés sous la forme de virement sur leur compte PERF pendant au moins deux ans bénéficieront d’une prime de 1000€ versée en 5 mensualités. En même temps, vous annoncez que tous les contribuables acceptant de s’acquitter de leurs impôts en utilisant exclusivement leur compte PERF pendant deux ans bénéficieront d’une baisse d’impôt de 1% pendant cette période. Évidemment, entre temps, vous aurez équipé le trésor public et toutes les caisses percevant les cotisations sociales d’un compte PERF.

Comme ça va plaire à tous les commerçants, qui se trouvent être également des contribuables, vous allez, pendant quelques mois, leur fournir l’assistance qu’ils ne manqueront pas de vous demander pour s’équiper également.

Janvier 2020, tout l’argent qui, normalement, devrait être utilisé pour payer les fonctionnaires volontaires, sera versé à PERF, en échange de l’équivalent en euros-PERF, plus 200€ par volontaire (c’est la première mensualité de la prime). Alors évidemment, si la totalité des fonctionnaires souhaitent transférer la totalité de leurs euros vers leur compte en banque habituel, c’est l’échec. Mais oh, on n’est pas la startup nation sans prendre un peu de risque ! Cela dit, les commerçants ayant installé leurs propres comptes pour bénéficier de la baisse d’impôts, ils devraient accepter sans problème des paiements via PERF. Il suffit que les fonctionnaires conservent sur leur compte PERF plus de 200€ en moyenne pour l’opération ait réussi.

Ainsi, si tous les utilisateurs se mettent à utiliser leur compte comme moyen de paiement habituel, PERF sera devenu, comme les banquiers du 17ème siècle, un créateur de monnaie. Tout en étant un établissement public, bien entendu !

Évidemment, PERF ne devra pas faire n’importe quoi. La start-up sera devenue une sorte de banque centrale bis. Il ne s’agit pas de lui faire créer des dizaines de milliards de liquidité par mois. Il lui faudra un statut, une indépendance, des objectifs. En guise d’objectif, je propose par exemple de s’assurer une croissance du PIB nominal de la France de 4% par an.

Ne vous y trompez-pas, Monsieur le Président. Un jour ou l’autre, quelqu’un va réussir à imposer le modèle du paiement en ligne comme un nouveau standard monétaire. Celui-là aura alors un pouvoir de création monétaire. La fenêtre de tir ne restera pas ouverte pendant 10 ans ! A vous de voir si vous voulez entrer dans l’histoire comme le président qui aura rendu à l’État un petit peu de sa souveraineté monétaire tout en restant dans l’Euro, ou comme celui qui a organisé des techno-parades à l’Élysée.

Voyez grand, Monsieur le président, pensez ‘Startup Nation’.

Le Brexit coûte-t-il 350M£ par semaine ?

Comme vous le savez, les britanniques ont décidé, par référendum, de quitter l’Union Européenne voilà plus de 2 ans. Ce scrutin a été emblématique de la mode des fake news et de leur dénonciation, en raison notamment d’un chiffrage à 350M£ par semaine des contributions nettes du Royaume Uni, chiffre largement surestimé.

Deux ans après le vote, peut-on tirer des conclusions sur son impact économique ? En théorie, il faudrait distinguer un effet conjoncturel d’un effet structurel. L’effet structurel concerne le long terme, et la place du RU dans l’économie européenne. Version pessimiste : privé de marchés européens et de son rôle de grand financier du continent, le pays s’installe dans une morosité économique durable, au profit de Paris ou Francfort. Version optimiste : ne pas appartenir à l’Union n’empêche pas de commercer avec elle, et le RU s’étant spécialisé dans la finance sans avoir jamais adopté l’Euro ne devrait pas voir son hégémonie en la matière contestée.

Difficile de départager ces deux visions sans savoir quel accord sera négocié avec l’Union. Même si l’on connaissait l’issue des négociations, encore faudrait-il disposer d’estimations convaincantes de l’ampleur des gains que tire le RU de son commerce avec l’UE et de sa spécialisation dans la finance. Donc… gros point d’interrogation.

L’effet conjoncturel concerne le court terme : comment les agents économiques vont-ils réagir à cette incertitude ? L’incertitude devrait rendre les consommateurs plus enclins à épargner, les entreprises moins enclines à investir, les gestionnaires de fonds plus enclins à offrir des livres sterling qu’à en demander, ce qui devrait stimuler les exportations… sauf si les partenaires commerciaux sont eux-même rendus frileux par l’incertitude sur les accords commerciaux. L’un dans l’autre, l’effet à court terme devrait être récessif.

So what? Contrairement à ce que j’aurais très volontiers parié il y a deux ans, il n’y a pas eu de récession. Le chômage a continué de diminuer, le PIB réel de monter. Je n’étais pas le seul, il y a deux ans, à penser que le Brexit faisait supporter un risque à l’économie britannique. A part Dani Rodrik qui exprimait un point de vue assez modéré, la plupart des économistes pronostiquaient un coût élevé. Je me souviens de m’être trouvé, à cette époque, dans une conférence d’économie internationale qui se tenait en Espagne. 100% des économistes présents avec qui j’ai pu échanger sur le sujet considéraient que le Brexit serait catastrophique. Je ne peux exclure qu’ils aient raison à long terme, mais pour le moment, la catastrophe n’a pas lieu.

J’aimerais tant que l’économie soit une science suffisamment mure pour que fleurissent des articles prenant acte du fait que l’immense choc politique qu’a constitué le Brexit ne s’est pas traduit par une récession. Au lieu de ça, le pourtant très sérieux CEPR publie la deuxième version d’un working paper (résumé sur Vox) qui chiffre la perte de PIB à, tenez-vous bien… 350M£ par semaine. Autrement dit, l’économie que les britanniques étaient censés réaliser grâce au Brexit selon ses partisans se trouve, aujourd’hui, correspondre à ce qu’il leur coûte selon ses détracteurs.

Simon Wren-Lewis, qui en est, explique que l’investissement et les exportations n’ont pas été stimulés, ce qui prouve que les agents économiques anticipent correctement un futur sombre, mais que la consommation n’avait pas chuté, ce qui doit venir du fait que les ménages n’anticipent pas très bien le futur sombre qui les attend.

Ce working paper, hélas, est assez peu convaincant. Le principe du calcul est le suivant : il s’agit de comparer l’évolution du PIB britannique à un contrefactuel. Pour construire le contrefactuel, les auteurs construisent une moyenne des évolutions des PIB en volume des autres pays de l’ocde de 1995 à début 2016. La moyenne n’accorde pas le même poids à chaque pays, mais se base sur un système de pondérations choisies de manière à ce qu’elle se rapproche autant que possible du PIB britannique sur cette période pré-brexit. Étant donnée l’évolution économique sur la période (crise de 2008 + reprise pour tout le monde), il n’est pas très surprenant qu’on puisse trouver un jeu de pondérations qui permette de reconstituer le PIB britannique presqu’exactement.

Les pondérations sont données dans cette table :

En gros, le contrefactuel est une moyenne des PIB du Japon, de la Hongrie, des USA, du Canada, et de quelques autres. Le coût estimé du brexit correspond donc à l’écart entre la courbe du PIB britannique et celle du contrefactuel.

Cet écart de plus d’un point de PIB est-il significatif ? Les lecteurs ayant l’habitude de l’inférence statistique seront tentés de répondre par l’affirmative en constant que la courbe bleue sort de la zone grise autour de la courbe rouge, qui matérialise un intervalle de confiance. Or cette zone grise a été construite de la pire manière qui soit : en ajoutant et en retranchant 1 (oui, bien 1) écart-type de l’écart entre le PIB britannique et son contrefactuel. En admettant que cet écart suive une loi normal sous l’hypothèse d’une absence de décrochage, il s’agit alors d’un intervalle de croissance à 68%, ce qui est loin des 95% constituant la norme pour valider un résultat statistique.

Voici à quoi ressemble une loi normale avec + ou – 1 écart-type autour de la moyenne :

J’ai tenté de répliquer le calcul des auteurs, en me basant également sur les PIB des pays de l’OCDE. A la différence d’eux, je ne calcule pas une moyenne, mais je fais de façon plus classique une régression expliquant le PIB britannique par le PIB des autres pays de l’OCDE. Comme eux, et sans surprise, je trouve une très bonne superposition des courbes jusqu’au brexit, et pas après, puisque la régression n’intègre les données que jusqu’au brexit. Comme eux, je trouve un PIB réel qui s’écarte du contrefactuel.

Pour être franc, l’écart semble même plus important que celui trouvé par les auteurs (environ 3 points de PIB). Zoomons

Cela s’explique par le fait que les USA, qui ont connu une croissance élevé ces derniers trimestres, compte davantage dans ma simulation que dans la leur.

Mais la vraie différence tient au fait que j’indique, pour ma part, un intervalle de confiance à 95% et non à 68%. Et l’on constate que le PIB observé flirte avec la frontière inférieure de l’intervalle. Cela signifie que toute interprétation de l’écart entre les deux courbes doit être extrêmement prudente. Méfions-nous de l’impression visuelle trompeuse. En effet, il saute aux yeux que les deux courbes sont presque confondues avant le brexit, et qu’elles se détachent visiblement après. Mais n’oubliez pas que, par construction, la partie post-brexit n’est pas prise en compte dans le choix des paramètres. Si l’on avait pris en compte la totalité de la période, jusqu’à 2018, on aurait obtenu le graphique suivant :

sans aucun effet détectable du brexit.

Croyez-moi, j’aurais préféré, pour le lustre de ma discipline et pour flatter mes propres a priori, que le Brexit soit un fiasco, que le Japon s’enlise dans un populisme macroéconomique inflationniste et que les USA entrent en récession à cause des politique de Trump. Pour l’heure ces choses n’ont pas l’air de se produire. Ironie de l’histoire, c’est même parce que l’Abenomics et le Trumpisme s’accompagnent, pour le moment, d’une assez bonne croissance que, par comparaison, le Brexit semble être couteux.

La prévision n’est décidément pas le fort des économistes.

(PS: je fournis les fichiers et codes R des calculs présentés dans ce billet sur demande)

La théorie du ruissellement existe-t-elle ?

« Si l’on commence à jeter des cailloux sur les premiers de cordée c’est toute la cordée qui dégringole », déclarait le président Macron en octobre dernier. Cette phrase est une illustration assez parfaite de ce qu’on appelle la « théorie du ruissellement » (Trickle down theory en anglais). Cette théorie veut que l’enrichissement des plus riches finisse par bénéficier à terme aux masses. Ne vous précipitez toutefois pas sur google pour savoir qui est l’inventeur de cette théorie. A l’instar du néolibéralisme ou de la théorie du genre, il s’agit d’une étiquette dont personne ou presque ne se réclame (Noah Smith est une exception pour le néolibéralisme). Le terme est essentiellement utilisé pour caricaturer l’argument de ceux qui se font les avocats de mesures favorables aux riches, lorsqu’ils promettent qu’elles seront bénéfiques pour tous.

Les baisses d’impôts aux USA sous Reagan se sont accompagnées d’un accroissement assez régulier de la part des 1% des plus riches dans le revenu national, sans que ça n’ait bénéficié aux américains les plus modestes. Difficile de voir dans cette expérience autre chose qu’un démenti cinglant à la théorie du ruissellement. 

Comme Najat Vallaud-Belkacem l’avait fait pour la théorie du genre, les économistes peuvent être tentés de se protéger en déclarant que « la théorie du ruissellement n’existe pas », renvoyant implicitement ceux qui la dénoncent à leur inculture. Un certain Heinz Arndt (j’ignore son prénom cf commentaires) s’était déjà laissé aller à un tel argumentaire en… 1983. Dans un article intitulé « The « Trickle-Down » Myth« , il explique que les économistes du développement de son époque s’acharnent à dénoncer les échecs de la théorie du développement par le ruissellement, présentée comme dominante après la guerre. Problème : il ne trouve aucune trace de cette théorie dans la discipline après la guerre !

Mais reproduire cet exercice aujourd’hui serait trop facile. Il est incontestable que des arguments de type ruissellement sont régulièrement mis en avant par les décideurs politiques lorsqu’ils justifient des mesures susceptibles d’aider les mieux lotis. Et, bien qu’on puisse suspecter de leur part un comportement de classe, il n’est pas douteux qu’ils mettent parfois en avant des arguments produits par des économistes pour se donner une crédibilité.

Que disent les économistes sur ce sujet ? Quel type de politiques pro-riches préconisent-ils exactement ? Leurs travaux peuvent-ils justifier des politiques fiscales favorables aux riches actuellement dans les pays développés ?

La figure académique la plus emblématique de la théorie du ruissellement est certainement Arthur Laffer.

Laffer est l’homme du slogan « trop d’impôt tue l’impôt ». Sa thèse est assez simple à exposer. Si l’État pratique un taux d’imposition de 0%, les recettes fiscales sont nulles. Si le taux est de 100%, il ne reste plus rien pour payer les gens qui travaillent, et donc personne n’accepte de travailler. Les recettes fiscales sont donc nulles également. Entre 0% et 100%, les recettes fiscales doivent donc augmenter dans un premier temps, avant de redescendre. Par conséquent, si les taux d’imposition sont très élevés, il est possible que les faire baisser conduise à augmenter les recettes fiscales. Si ces recettes fiscales sont redistribuées aux pauvres, on peut voir là une forme particulière de théorie du ruissellement.

Les républicains des années Reagan aux USA se sont abrités derrière cette thèse pour justifier des baisses d’impôt. Mais, très rapidement, les tests empiriques ont révélé qu’il fallait des taux marginaux extrêmement élevés pour créer un effet Laffer, et que les baisses d’impôt de Reagan n’ont fait que… baisser les recettes fiscales. (lire Beatrice Cherrier pour plus d’infos sur l’histoire de la courbe de Laffer).

Plus proche de nous, le français Philippe Aghion défend des thèses en opposition à celles de Thomas Piketty, qui peuvent s’apparenter à une forme de ruissellement. Mais pour éviter la caricature, encore faut-il préciser ce qu’il dit exactement. Selon Aghion, les inégalités au sommet de l’échelle des salaires peuvent s’expliquer en partie par des comportements de prédation qu’il faut combattre. Mais, pour lui, une partie de ces inégalités provient également de l’innovation. Les innovateurs à succès gagnent beaucoup d’argent, mais en contrepartie ils créent de la croissance par le progrès technique. Plus précisément, Aghion défend l’idée que l’innovation crée 1- de l’inégalité « par le haut », mais 2- pas d’inégalité globale (au sens de Gini) 3- de la croissance et enfin 4- de la mobilité sociale. Les politiques qu’il préconise ne sont donc pas directement des politiques visant à favoriser les riches, mais des politiques pro-innovation, dont il faut accepter qu’elles aient l’effet indirect d’enrichir une petite minorité, en raison de ses effets bénéfiques pour tous par ailleurs.

Il s’agit donc d’une forme de théorie du ruissellement beaucoup plus indirecte que celle de Laffer, mais on peut admettre de la qualifier ainsi. On peut également dire que les idées d’Aghion, bien que discutables, sont éminemment plus étayées que celle de Laffer, dont on sait qu’elle ne fonctionne pas pour les niveaux d’imposition de nos pays.

Dans un registre beaucoup plus confidentiel, on peut citer certaines thèses fiscales de James Buchanan. Prix Nobel d’économie, Buchanan incarnait une tendance de l’économie extrêmement réservée sur l’intervention publique, bien plus que la moyenne de la profession. Vous pourrez trouver dans le volume 4 de ses œuvres complètes certaines considérations sur la progressivité de l’impôt. En particulier, si certains équipements publics sont utilisés prioritairement par des pauvres, plus pauvres que l’électeur médian, alors il est préférable, pour eux, que la fiscalité ne soit pas progressive, car dans ce cas, les riches voteront pour la suppression de ces équipements publics. L’argument ruisselant ici est donc : baissez les impôts des riches, augmentez celui des pauvres, ainsi les riches seront moins hostiles à la dépense publique et les pauvres pourront donc bénéficier de plus d’équipements publics. On notera que cet argument n’est pas ‘macro’. Il ne s’agit pas ici d’affirmer que baisser les impôts des riches créera des emplois ou de la croissance, mais simplement que cela modifiera le processus électoral à l’origine de l’affectation des ressources publiques.

Concernant le ruissellement entre individus (‘aidez les riches pour aider les pauvres’), je ne vois pas grand chose d’autre de probant. On peut toutefois ajouter à la liste une forme particulière de ruissellement, le ruissellement entre territoires. Vaillamment combattue en France par Oliver Bouba-Olga et ses co-auteurs, une certaine vision du développement territorial postule que c’est en renforçant les agglomérations déjà grandes que les politiques publiques peuvent stimuler la croissance de leur territoire. Les recettes fiscales générées par cette croissance permettront ensuite d’en diffuser les bénéfices en direction des zones périphériques. De plus, les riches urbains iront dépenser leur argent en périphérie pendant leurs vacances. Bref, la croissance des métropoles profitera bientôt à tous. Au niveau national, on trouve ce genre d’idées défendues par Laurent Davezies ou, de façon beaucoup plus assumée, par Philippe Martin et Philippe Askenazy. Richard Baldwin défend, dans ‘the Great Convergence’, des idées assez proches. Que penser de cette forme de théorie du ruissellement ? Pour ma part je suis assez mitigé. D’un côté, ces thèses font souvent dire à la Nouvelle Économie Géographique des choses qu’elle ne dit pas, et des auteurs comme Andrès Rodriguez-Posé montrent qu’il est très difficile de trouver un lien positif entre taille des agglomérations et croissance au niveau des pays. De l’autre, la question de la prime salariale urbaine ne permet pas d’exclure que les agglomérations aient des effets positifs sur la productivité des travailleurs (bien que la causalité ne soit pas aisée à déterminer).

Pour ce que j’en connais, l’économie n’a pas produit grand chose d’autre qui puisse raisonnablement être taxé de théorie du ruissellement. Néanmoins, la notion de théorie du ruissellement étant généralement définie de façon assez floue, on peut toujours en faire une lecture très extensive, et décréter qu’on est en présence de théorie du ruissellement dès qu’on est en présence d’une thèse semblant justifier, d’une manière ou d’une autre, des écarts de revenu. 

Par exemple, le philosophe John Rawls a développé un ‘principe de différence’, qui indique que les inégalités entre individus ne sont justifiables que si elles sont favorables aux plus pauvres. L’idée sous-jacente est qu’une égalité parfaite ne permettrait pas de voir apparaître des médecins, des ingénieurs, et que de telles professions permettent d’améliorer le sort des plus démunis. Mais, dès lors qu’un certain niveau d’inégalité existe, permettant de récompenser ces médecins et ingénieurs, accroître encore ces inégalités finirait par être défavorable aux plus pauvres. C’est pour cette raison que Rawls indiquait très explicitement sa préférence pour les systèmes sociaux européens par rapport au système américain : plus redistributeurs, tout en laissant de la place pour rémunérer correctement des professions à la fois très difficiles et très utiles. Parler, à ce sujet, de théorie du ruissellement serait absurde.

La théorie économique est, en fait, pleine de choses que l’on peut interpréter, avec un peu de mauvaise foi, comme des justifications de la théorie du ruissellement. Joseph Stiglitz, qui pourtant la connait bien, va jusqu’à rendre la théorie économique dominante responsable des inégalités de revenus actuelles. Cette théorie dominante, nous dit-il, suppose que le salaire reflète la productivité marginale d’un individu. Et donc, si quelqu’un perçoit un salaire élevé, c’est qu’il est très productif. On peut transformer cette idée en théorie du ruissellement si l’on ajoute que les gens très productifs, en tant que groupe, ont une productivité marginale décroissante, et donc s’ils sont payés à leur productivité marginale, ils rapportent, en moyenne, davantage à la société qu’ils ne lui coûtent. Stiglitz est un immense économiste, mais il fait là preuve de paresse intellectuelle. Sa référence à la théorie de la productivité marginale comme déterminant du salaire donne une vision largement biaisée de ce que dit la théorie standard sur le sujet.

En premier lieu, cette théorie s’appuie sur l’hypothèse de marchés concurrentiels. Or, les défenseurs de cette théorie ne prétendent pas que les marchés le soient réellement. Dans la tradition de Léon Walras, la référence à un marché concurrentiel est une sorte de benchmark à comparer avec la réalité. Rappelons, par exemple, que Walras était favorable à ce que les chemins de fer soient gérés par l’État, car il lui semblait improbable qu’un marché concurrentiel puisse émerger dans ce secteur d’activité. Or, pour Walras, un monopole privé est bien plus préjudiciable qu’un monopole public. Si certains dirigeants de grandes sociétés gagnent beaucoup d’argent grâce à l’endogamie des conseils d’administration, ou grâce aux faveurs qu’ils obtiennent de leurs amis dans le monde politique, c’est au nom de la théorie dominante qu’un économiste pourra dénoncer leurs revenus comme injustifiables car supérieurs (nettement !) à leur productivité marginale. Pour ce qui concerne les authentiques innovateurs, dont on peut penser que leur rémunération élevée est justifiée, il y a bien longtemps que les économistes ne considèrent pas leurs revenus élevés comme la manifestation de leur productivité marginale, mais comme une rente Schumpeterienne, avec ses bons côtés (incitatifs) et ses mauvais côtés (les inventions brevetés sont vendues trop chères).

En second lieu, même en admettant que des salaires élevés puissent traduire une productivité marginale élevée, cela ne signifie nullement qu’il convient de ne pas les taxer. L’économie la plus standard est utilitariste, et à ce titre, favorable à la redistribution des richesses, dans la mesure où enlever 100 euros à un riche pour les donner à un pauvre accroît davantage le bien-être du pauvre que ne détériore celui du riche. Il faut donc regarder la théorie dominante avec bien peu d’impartialité pour en déduire qu’elle contient une théorie des salaires favorable aux inégalités, et encore plus au ruissellement.

On peut multiplier les exemples à volonté. En parlant de la courbe de Kuznets, qui prétend que le développement économique crée des inégalités avant de les réduire. En parlant de Dollar & Kraay qui montrent que le niveau de vie des 20% les plus pauvres d’un pays est très corrélé avec le niveau de vie moyen.

Pour résumer, un dirigeant politique qui voudrait s’abriter derrière l’économie pour justifier des politiques pro-riches pourrait trouver quelques références, mais certainement pas pour n’importe quelle politique pro-riche, et certainement pas en s’abritant derrière un « toutes les études montrent que (…) ».

De façon parfaitement symétrique, quelqu’un voulant critiquer l’économie dominante en dénonçant la théorie du ruissellement dont elle serait la justification produirait, ce faisant, une critique parfaitement inadéquate. 

Ces précisions étant faites, je vais maintenant expliciter ce qui est présent en filigrane depuis le début de ce billet : la référence à la théorie du ruissellement m’irrite. Non pas parce qu’elle est une expression dont personne ne se revendique, mais parce qu’elle est tout simplement beaucoup trop imprécise. Pour vous en convaincre, je vais vous donner quelques énoncés différents de cette théorie, qui pourraient faire l’objet de tests empiriques différents :

« La distribution relative des revenus tend à être constante, donc si les riches s’accaparent une part disproportionnée des fruits de la croissance pendant un temps, le retour à la normal finira par bénéficier aux pauvres »

« Certaines politiques sont bénéfiques à la croissance et profitent aux riches, si bien qu’accompagnées d’une politique fiscale adéquate, elles peuvent également bénéficier aux pauvres »

« Les pays dans lesquels les x% les plus riches sont les plus riches sont également ceux où les y% les plus pauvres sont les plus riches »

« Les pays dans lesquels les x% les plus riches voient leur revenu augmenter le plus rapidement sont ceux dans lesquels les y% les plus pauvres voient leur revenu augmenter le plus rapidement »

« Le revenu des plus pauvres suit une courbe en cloche par rapport au niveau d’inégalités »

« Des taxes trop importantes sur le patrimoine ou les hauts revenus découragent l’investissement et sont, in fine, néfastes pour les plus pauvres »

« Des taxes trop importantes sur le patrimoine ou les hauts revenus génèrent de l’évasion fiscale et produisent, in fine, une baisse des recettes fiscales, au détriment des plus pauvres »

(…)

Idéalement, il faudrait trouver un sobriquet pour chacune de ces variantes possibles de la théorie du ruissellement afin de clarifier le débat. Mais ce serait probablement surestimer la bonne foi de ceux pour qui les sciences humaines ne sont qu’un prétexte à une politique de classe, et la vaillance des militants qui préfèrent n’affronter que des hommes de paille.

Les tondeurs de pelouse sont-ils des improductifs ?

« Cartographe encarté’, un abonné de Twitter, pose une question beaucoup plus intéressante qu’il n’y parait, si l’on se donne la peine de faire abstraction de son petit sous-entendu idéologique :

Je tonds la pelouse devant chez moi, je ne travaille pas. Un employé de la mairie tond la pelouse, il dépense de l’argent public. Un employé de Veolia tond la pelouse, il produit de la valeur et de la richesse.

Comment une même activité pourrait-elle être considérée différemment en fonction du contexte institutionnel de son exécution ? Voilà une belle occasion de digresser un peu.

Commençons par comparer la deuxième option à la troisième : une même activité correspond-elle à la même création de richesse selon qu’elle est exercée par le secteur public ou privé ? Un premier élément de réponse est de dire que la valeur ainsi produite est tout simplement identique. Dans l’exemple de la pelouse tondue par un fonctionnaire municipal ou par un employé de Veolia, c’est particulièrement flagrant, car dans les deux cas ce sont les contribuables qui paient. On a parfois tendance à faire une confusion entre le libéralisme économique, qui est une doctrine réclamant une faible intervention de l’État, et la défense du secteur privé. C’est négliger le fait qu’un État très interventionniste, soucieux de fournir de nombreux services publics, payés par l’impôt, à ses administrés, peut parfaitement faire appel à des sous-traitant privés. A la limite, on pourrait imaginer un État dont les dépenses représenteraient 75% du PIB d’un pays, et n’ayant absolument aucun fonctionnaire. Ou plutôt un seul fonctionnaire, qui organiserait toutes les adjudications. La police, l’enseignement, la fourniture d’eau, etc, seraient confiés à des sociétés privés ayant remporté des appels d’offre. Au fond, dans les deux cas, les contribuables payent des impôts, et se retrouvent avec des policiers dans les rues et des instituteurs dans les écoles. Le statut privé ou public de ces gens n’est qu’une affaire de paperasse.

C’est d’ailleurs pour cela que le calcul du PIB intègre le salaire des fonctionnaires. Mais est-on sûr que la valeur produite est bien identique dans les deux cas de figure ? Cette question est au cœur du travail de l’économiste Ronald Coase. Pour lui, lorsque le responsable d’une organisation (ici l’Etat) hésite entre faire exécuter une tâche par ses salariés (ici les fonctionnaires) ou par des sous-traitants, il doit comparer deux choses : les coûts de transaction, qui correspondent à l’élaboration et la mise en œuvre des contrats avec les sous-traitants, et les coûts d’organisation qui correspondent à la gestion d’une grande structure. Si les coûts de transaction sont les plus importants, mieux vaut faire le travail en interne, pour s’éviter de passer son temps à se coordonner avec les sous-traitants. La relation hiérarchique est plus simple : si une pelouse doit être tondue dans un jardin public, un chef de service envoie un de ses gars faire le travail. Mais cette réactivité a un prix : devoir gérer une grosse organisation. Si les coûts d’organisation sont prohibitifs, mieux vaut accepter de devoir renégocier de temps en temps les termes d’un contrat avec un sous-traitant, qui se débrouillera avec ses propres coûts d’organisation.

Dans le cas des services publics, la sous-traitance comporte un autre attrait : elle permet de réconcilier action publique, pour laquelle l’Etat dispose d’un monopole, et concurrence, via des appels d’offre, qui permettent de choisir les candidats ayant les coûts les plus faibles. Si les contrats sont rédigés intelligemment, ils permettent également d’inciter le sous-traitant à optimiser son rapport qualité/coût. Jean Tirole a abondamment travaillé sur ces sujets (cf par exemple ce manuel coécrit avec JJ Laffont).

Mais attention, tout n’est pas rose dans la sous-traitance ! Oliver Hart, récent prix Nobel d’économie, avait vivement critiqué la privatisation des prisons américaines, dans un article coécrit avec Andrei Shleifer et Robert Vishny en 1997. Pour ces auteurs, le problème de la privatisation des prisons est le suivant : la qualité du service rendu par le prestataire n’est que partiellement observable. Le cahier des charges du sous-traitant comportera toujours une liste d’attendus (nombre de détenus par gardien, taille minimale des cellules, douches, etc). Mais une grande partie de ce qu’on attend d’une prison ne se mesure pas facilement, notamment en matière de traitement humain des détenus et de perspectives de réinsertion. Il est alors dans l’intérêt du sous-traitant, s’il souhaite conserver son marché, de réduire ses coûts au détriment de tout ce qui n’est pas observable. Non qu’il manque intrinsèquement d’humanité, mais la concurrence le pousse à agir ainsi ou à sortir du marché. Mieux vaut, dans ces cas-là, confier la tâche à des fonctionnaires ayant un emploi à vie, qui n’auront rien à perdre à laisser parler cette humanité.

Une autre critique de la sous-traitance des activités publiques nous est donnée par un économiste nettement plus radical : James Galbraith. Partageant avec son père une grande méfiance pour les grandes entreprises, Galbraith les accuse d’avoir formé une coalition avec l’Etat. Ainsi, le néolibéralisme ne serait pas une idéologie du marché, visant à la disparition de l’Etat, mais bien une idéologie de l’Etat mis au service des intérêts des grandes multinationales. A l’en croire, le choix des administrations de sous-traiter une partie de leurs services auprès du privé n’aurait que peu à voir avec la recherche d’un meilleur rapport qualité-prix, ou avec un arbitrage entre coûts de transaction et coûts d’organisation. La motivation réelle serait, dans une logique de copinage, de faire profiter les grandes entreprises de contrats juteux, et peu risqués car financés par l’impôt (je mets mon petit billet sur le fait que le twittos « cartographe encarté » se reconnaitrait dans cette analyse)

Jusqu’ici, nous avons sous-entendu que ce cher tondeur de pelouse créait de la richesse s’il tondait pour Veolia, et nous nous sommes convaincus qu’il en créait aussi s’il tondait pour la mairie de sa ville. Et si c’était l’inverse ? Et si cette activité était tout simplement stérile, au plan économique, qu’elle soit exercée par Véolia ou par la mairie ? Après tout, de l’herbe coupée, ça ne se mange pas (enfin ça ne doit pas être très bon), ça ne se thésaurise pas ! Le salaire de ce brave travailleur n’est-il pas simplement un transfert de revenu de la part de secteurs productifs, tel que le secteur automobile ou l’agriculture ?

Si cette question vous fait lever les yeux au ciel, c’est que vous êtes de bons économistes. Il est évident que dès lors que quelqu’un est prêt à payer un travailleur pour que sa pelouse soit tondue, c’est que cette tonte a, à ses yeux, une valeur au moins aussi élevée que le salaire du tondeur. De la même manière, si le tondeur accepte de tondre, c’est que ce salaire a plus de valeur à ses yeux que toute activité de loisir à laquelle il a renoncé pour tondre. Les deux co-contractants sont gagnants à l’échange, il y a donc bien création de valeur. Peu d’économistes contemporains en disconviendraient. Pourtant, ce qui nous apparait aujourd’hui comme une évidence ne l’a pas toujours été.

Ainsi, pour le physiocrate François Quesnay, seuls les travaux agricoles avaient de la valeur. La raison à cela ? Plantez un grain de blé, vous en récolterez plusieurs. Vous pourrez donc manger et replanter un autre grain de blé. Le charpentier qui fabrique votre toit est fort sympathique, et vous lui payez quelque chose en échange du service rendu, mais pour les physiocrates, il ne s’agit là que de redistribution de la vraie valeur, celle créée par l’agriculture. Alors, me direz-vous, les physiocrates ne sont pas vraiment des économistes, leurs errements on sans doute été corrigés par les pères fondateurs de la discipline !

Eh bien pas tant que ça. Adam Smith, le premier économiste classique, pour ne pas dire le premier économiste tout court, disait ceci au sujet des physiocrates dans la Richesse des Nations (l’extrait est tiré de cet excellent manuel d’histoire de la pensée) :

« Bien qu’en représentant le travail qui est employé à la terre comme le seul travail productif, les notions que [le système physiocratique] inculque soient peut-être trop étroites et limitées, il n’en reste pas moins qu’en représentant la richesse des nations comme consistant, non dans les richesses inconsommables de la monnaie, mais dans les biens consommables annuellement reproduits par le travail de la société, et en représentant la liberté parfaite comme le seul moyen efficace pour rendre cette reproduction annuelle aussi grande que possible, sa doctrine semble être à tout point de vue aussi juste qu’elle est généreuse et libérale« .

Si vous suivez bien le raisonnement, Smith donne tort, bien sûr, à Quesnay, de considérer que seul le travail agricole produit de la valeur. Mais la généralisation qu’il appelle de ses vœux n’est pas si générale car elle se limite aux biens consommables, c’est-à-dire aux biens matériels. L’artisanat, l’industrie, s’ajoutent donc à l’agriculture dans la catégorie des activités productives. Mais les services, toujours pas.

Il faudra attendre Jean-Baptiste Say, un des meilleurs disciples de Smith, pour pousser la généralisation. Un physiocrate, Dupont de Nemours, scandalisé que Smith puisse avoir eu l’outrecuidance de considérer que le travail d’un potier puisse créer des richesses, écrit une lettre à Say lui demandant si, tant qu’à faire, il ne faudrait pas voir de la création de valeur dans le travail des prostituées. Il ne s’attendait sûrement pas à cette réponse (ibidem) :

« Selon notre respectable Quesnay, et ses respectables disciples, la matière seule est une marchandise quand elle est vendable. Suivant Smith et son école, le travail est une marchandise aussi quand il est vendable ; et suivant l’humble élève qui vous écrit, le travail du barbier est une marchandise vendable également, quoiqu’il m’ait ôté ma barbe et ne m’ait laissé aucune matière à la place. Il m’a donné ses services, et moi je les ai consommés ; mais, quoique détruits, ils ont produit, puisqu’ils ont satisfait à l’un de mes besoins, de même que la pomme que vous avez mangée à votre dessert, qui est détruite aussi, mais qui était une richesse, puisqu’elle pouvait vous faire quelque bien.

Ah ! que vous devriez convenir avec moi que nos biens sont tout ce qui satisfait à quelqu’un de nos besoins ; et que les services qu’on nous rend sont une marchandise que nous consommons, pour notre bien,… et quelquefois pour notre mal. Mais ce n’est pas la faute du service ; de même que l’indigestion que nous donne un fruit, n’est pas la faute du fruit.

Quand ces biens nous sont donnés par la nature, comme la santé, l’attachement de nos femmes, ce sont des richesses gratuites, les plus précieuses de toutes, comme la lumière du soleil ; mais quand nous les demandons à des étrangers, à des gens qui ne nous doivent ni leur temps, ni leurs peines, il faut bien leur donner quelque chose en échange. C’est le cas des services rendus par nos domestiques.

Appliquez tout ce verbiage à ces demoiselles, et vous aurez l’explication d’une conséquence incontestable de la doctrine de Smith, quoique lui-même ne l’ait pas aperçue ; mais vous repousserez la conséquence, comme vous avez repoussé la doctrine de Smith, et moi je n’en serai pas moins le constant admirateur de vos talens et de vos vertus. »

Ce n’est donc pas la matérialité des fruits de notre travail qui détermine sa valeur, mais bien le fait que des gens soient prêts à payer pour qu’on les lui fournisse. C’est une évidence aujourd’hui, mais ça ne l’a pas toujours été. Et d’ailleurs, est-ce vraiment une évidence ? Le fétichisme industriel et les cris d’orfraie poussés par ceux qui s’indigne de ce que l’insee inclue le trafic de drogue dans le PIB pourraient en faire douter.

Nous n’avons parlé, jusqu’ici, que de deux tondeurs employés, l’un par la mairie, l’autre par véolia. Quid de ce dilettante qui tond son propre jardin ? S’il faisait ce travail pour autrui, il aurait un salaire, et cette activité serait comptabilisée dans le PIB. Pourquoi l’insee ne mesure-t-il pas un salaire fictif qu’il se paye à lui-même pour valoriser cette production domestique ?

Le grand Samuelson lui-même expliquait à ses étudiants qu’un homme qui se marie à sa femme de ménage faisait baisser le PIB. Il en va de même, parité oblige, d’une femme épousant son jardiner. Doit-on en conclure que, au prétexte que l’insee ne la mesure pas, la valeur du travail domestique est nulle ? Il ne faut pas faire dire au PIB plus que ce qu’il ne dit. Le PIB n’est pas une mesure du bonheur, et des tas de choses en sont exclues. Tout professeur de comptabilité nationale qui se respecte le dit généralement à ses étudiants dès les premières heures de cours. Il est des choses si impalpables que le comptable national se doit de renoncer à les évaluer. Le travail domestique n’est pas taxé, il n’est pas l’objet d’un transfert monétaire. Par conséquent, oublier de le compter n’a pas beaucoup d’importance pour les décisions politiques qui se basent sur l’évolution du PIB (fiscalité, politique monétaire…).

Mais il est important, néanmoins, de savoir qu’il existe. En 2004, l’économiste américain Edward Prescott expliquait par cette production souterraine la différence de temps de travail entre européens et américains. Le caractère non-taxable de la tonte de son propre jardin est centrale dans son analyse. Car admettons que, d’une manière ou d’une autre, je souhaite que mon jardin soit tondu. Comment décider si je vais le faire moi-même (temps de travail 1 heure, temps de travail mesuré 0, contribution au PIB 0) ou si je vais embaucher un pro pour le faire (temps de travail 1 heure, temps de travail mesuré 1 heure, contribution au PIB 30 euros) ?

La réponse donnée par la microéconomie à cette question s’appuie sur la notion de coût d’opportunité. Tondre moi-même ma pelouse ne me coûte rien… en apparence ! Mais quitte à perdre une heure, n’aurais-je pas pu consacrer cette heure à exercer mon travail pour percevoir un complément de revenu ? Si je suis prêt à travailler une heure pour que mon jardin soit tondu, j’ai deux possibilités. Soit je le tonds moi-même, ça ne me coûte ni ne me rapporte rien ; soit je consacre une heure de plus à exercer mon métier, et je consacre l’argent ainsi gagné à embaucher un tondeur de gazon professionnel. Si le professionnel me coûte 30€, je dois comparer cette somme avec ce que me rapporte une heure de mon travail. Si elle me rapporte 40€, j’ai intérêt à travailler et à en utiliser 30 pour payer un pro. Ma pelouse sera aussi bien tondue, mais j’aurai gagné 10€. Si mon heure de travail ne me rapporte que 25€, j’ai intérêt à renoncer à ces 25€ afin de tondre moi même cette satanée pelouse.

Mais alors, pourquoi les américains travaillent-ils plus que nous ? « Les taxes » répond Prescott. Supposons, en reprenant l’exemple précédent, que, dans les deux pays, le salaire toutes charges comprises soit de 50€ de l’heure. Si le système fiscal américain ponctionne 20% de cette somme, alors le salaire net tombe à 40€, et reste donc supérieur au prix de la tonte par le pro. Si le système fiscal français en ponctionne 50%, le net tombe à 25€, et j’ai intérêt à tondre ma pelouse moi-même. On ne viendra pas me réclamer des taxes. Dans un cas comme dans l’autre, j’aurai bien travaillé une heure de plus pour couper de l’herbe. Mais les statistiques officielles ne le verront que dans un des deux cas.

Après cette petite escapade dans le monde tordu du raisonnement économique, on peut donc reformuler le problème de départ comme suit :

Je tonds la pelouse devant chez moi, je suis un évadé fiscal. Un employé de la mairie tond la pelouse, il vit au crochet du contribuable. Un employé de Veolia tond la pelouse, il est un complice du pillage de l’Etat par les multinationales.

Bref, les gens qui tondent leur pelouse sont des salauds. Surtout le dimanche à l’heure de la sieste.

Des chiffres et des lettres : qu’y a-t-il de mal avec les modèles macroéconomiques ?

Voilà un billet que je voulais écrire il y a bien longtemps. Lawrence Christiano et ses co-auteurs me font sauter le pas. Dans un document récent, ils prennent la défense du travail des macroéconomistes contemporains, et de leur principal outil de travail qui s’appelle les modèles DSGE. Étant donné que ces modèles constituent en quelque sorte l’orthodoxie macroéconomique, et qu’ils n’ont pas très bien fonctionné pendant la crise, il est de bon ton soit de leur rentrer dans le lard, comme le font beaucoup, soit de la jouer discrète quand on en est un partisan. Christiano et al, pour leur part, en prennent la défense, de façon assez agressive. Les gens qui critiquent ces modèles sont tout simplement des feignasses (« People who don’t like dynamic stochastic general equilibrium (DSGE) models are dilettantes »). Pour Noah Smith, cette agressivité ne risque pas de convaincre grand monde. Il caricature le propos comme suit : « Vous n’êtes pas qualifiés pour juger notre travail, fermez-la et continuez à nous envoyer des chèques ».

Il a un peu raison, la condescendance n’encourage pas l’interlocuteur à l’ouverture d’esprit. Mais soyons ouverts quand même.

Leur article comprend des arguments intéressants, mais également un argument qui, paradoxalement, met en lumière ce qui cloche avec l’approche utilisée par ces modèles.

Commençons par expliquer brièvement ce que sont les modèles DSGE (pour Dynamic Stochastic General Equilibrium). En macroéconomie, on doit tenir compte des interactions entre les différents secteurs de l’économie (marché du travail, marché financier, marché des biens et services…). C’est pourquoi, en règle générale, on travaille sur des modèles d’équilibre général, qui tiennent compte de toutes ces interactions. Il y a bien longtemps que les économistes ont compris l’importance des anticipations sur les comportements économiques. Les modèles DSGE sont donc dynamiques, en ce sens qu’ils ne se focalisent pas sur une année isolée, mais ils représentent le fonctionnement de l’économie sur plusieurs années. Plus précisément, ces modèles comportent une hypothèse d’anticipations rationnelles de la part des agents économiques. Cela signifie 1- que les décisions prises aujourd’hui sont impactées par ce qu’on attend du futur, 2- en moyenne, les agents économiques ne font pas d’anticipations systématiquement biaisées du futur. Ces deux points permettent de définir un état stationnaire, dans lequel l’inflation est constante, de même que le PIB (en fait, il peut suivre un trend pour tenir compte de la croissance à long terme) et le taux d’intérêt de la banque centrale (pour prendre les variables les plus fondamentales). Dans cet état stationnaire, par définition, rien ne bouge, et tout le monde anticipe correctement le futur.

Mais soudain, un choc inattendu vient perturber cet équilibre. Par exemple, les banques gèlent les crédits qu’elles octroient à leurs clients. Boom, le PIB baisse, ainsi que l’inflation, on quitte l’équilibre ! C’est la dimension Stochastique du modèle. Que se passe-t-il alors ? Personne n’avait anticipé le choc, mais une fois qu’il s’est produit, chacun sait précisément ce qui va s’ensuivre. La banque centrale va baisser son taux d’intérêt pour stimuler à nouveau l’activité. L’inflation va repartir à la hausse, les taux d’intérêt, après la baisse initiale vont progressivement remonter, etc. On va, au bout de quelques temps, retrouver l’équilibre. Cela pourrait même se faire instantanément, s’il n’y avait des rigidités nominales (des prix qui ne peuvent pas s’ajuster tout de suite) freinant le retour à la normale.

Les modèles, partant de là, peuvent supporter des tas de variantes : rigidités des salaires, modélisation du secteur financier, modélisation de l’endettement, etc. Dans tous les cas, ces modèles sont calibrés, selon l’expression consacrée, pour reproduire les données d’un pays donné. Autrement dit, les paramètres du modèle sont choisis de manière à s’approcher au plus près des variations observées sur une période donnée (20 ans, 30 ans…) du PIB, de l’inflation, du taux d’intérêt (…) Ceci étant fait, on considère le modèle comme une maquette du vrai monde, et on peut simuler des chocs. Par exemple, tel pays envisage un programme d’austérité fiscale. Quelle contraction de l’activité peut-on en attendre, et combien faudra-t-il d’années pour un retour à la normale si la politique est mise en œuvre ?

Pourquoi ces modèles sont-ils critiqués ? Parce que leurs prévisions ont en général été trop optimistes sur la capacité de résilience des économies confrontées à la crise de 2008. A les en croire, la crise aurait dû être courte et d’intensité assez modeste. En science humaine (l’économie en est une) lorsque l’histoire donne tort à une théorie, ses partisans peuvent être tentés de se retrancher dans leur mauvaise foi, ses détracteurs de toujours jubilent et entament la curée. Ces deux attitudes sont également contreproductives.

L’article de Christiano donne un certain nombre d’arguments pour défendre les DSGE. Parmi eux, on mentionnera par exemple le fait que, dès avant la crise, certains modèles avaient déjà commencé à évoluer pour tenir compte des dysfonctionnements financiers, et que cette tendance s’est évidemment poursuivie avec la crise. S’ils ne l’avaient pas fait avant, c’est que personne ne prévoyait une crise d’une telle ampleur, et que les modèles fonctionnaient bien dans des contextes plus calmes.

Mais l’argument le plus intéressant est le suivant : certaines options politiques comportent des effets attendus positifs et d’autres négatifs. Seuls des modèles calibrés sur données réelles permettent d’évaluer lesquels l’emportent. Un pays envisage de dévaluer sa monnaie ? Il va stimuler ses exportations, mais augmenter le poids de la dette de ses ménages, si elle est libellée en monnaie étrangère. Quel effet prendra le dessus ? Un pays envisage d’accroître sa règlementation bancaire ? Il va accroître la  stabilité financière, mais aussi freiner certains investissements. Quel effet prendra le dessus ? Pour Christiano, on a beau jeu de baratiner sur les avantages et les inconvénients d’une réforme. Ce qui compte, c’est de savoir quelle sera l’ampleur de ses effets, et à quel niveau la mettre en œuvre. Les dilettantes, pour reprendre son expression, se contenteront de dire ‘ah, ça c’est une bonne idée, mais attention, il y a un risque’. Les économistes qui maitrisent l’art des DSGE feront des prévisions chiffrées pour évaluer l’ampleur de ces risques.

« Prévisions chiffrées », le mot est lâché.

L’argument est suffisamment intéressant pour être pris au sérieux. Mais pour ma part, j’ai le sentiment que, paradoxalement, en mettant l’accent sur la capacité de ces modèles à produire des chiffres, Christiano met le doigt sur ce qui, justement, pose problème avec l’approche DSGE. La macroéconomie est une des rares spécialités, en économie, où l’on s’attend à ce qu’une théorie soit immédiatement présentée sous forme d’un modèle calibré, et donc chiffré. Ça n’a pas toujours été le cas, et les autres spécialités en économie fonctionnent aujourd’hui encore de manière assez différente. 

Dans les autres spécialités, une intuition se formule de façon théorique, dans un modèle où les variables et les paramètres sont représentés par des lettres. (Soit Y le revenu d’un consommateur, X son nombre d’années d’études, beta son aversion au risque, etc). Ces modèles sont, la plupart du temps, résolus, dans le sens où l’on est capable d’exprimer la valeur de chaque variable en fonction des paramètres du modèle. Cette démarche permet d’identifier, théoriquement, l’impact d’une variation des paramètres sur les variables qui nous intéressent. Par exemple, l’impact d’un contrôle de la démographie sur le niveau de développement d’un pays, l’impact d’une diminution des barrières douanières sur le commerce entre pays, l’impact d’une taxe carbone sur les émissions de CO2, l’impact d’une subvention à l’éducation sur le salaire, etc.

C’est uniquement lorsqu’on passe à la phase d’évaluation empirique qu’on tente de chiffrer ces effets, en confrontant le modèle aux données disponibles. Bien sûr, s’il s’agit d’en faire des recommandations politiques, on sera tenté de s’appuyer sur ces résultats chiffrés pour donner du corps à la recommandation. Mais au fond, si les tests empiriques vont dans le sens de la théorie, ce sont les lettres de la théorie qui restent, plus que les chiffres des tests.

En macroéconomie, si je souhaite attirer l’attention sur un effet particulier, par exemple l’impact des banques en ligne sur l’efficacité de la politique monétaire, je devrai dériver ce que changent ces banques en ligne sur les principales équations du modèle, prises isolément, mais pour convaincre la communauté que cet effet est intéressant, il faudra que j’arrive à simuler des données existantes avec mon modèle. Je ne pourrai pas me contenter de résultats théoriques (caveat : j’ai probablement une connaissance partielle de ce qui se publie en macroéconomie, ce que je décris là est la manière, peut-être biaisée dont je vois les choses ; je peux me tromper).

Pourquoi cette spécificité ? Je vois deux raisons possibles.

La première raison est une raison de fond. La macroéconomie est une discipline particulièrement ardue, avec toutes ces interactions, et cette contrainte qu’on s’est fixée de raisonner en dynamique. Dès lors, il est difficile de dériver des résultats théoriques de manière purement analytique. Autant dire que cette raison ne me semble pas très bonne. Dans une défense un peu tiède des modèles DSGE, Olivier Blanchard reconnait que, bien souvent, les intuitions derrière les modèles proposés par les chercheurs peuvent être mises en lumière dans des versions amendées de modèles plus simples, tels qu’ISLM. L’avantage de passer d’un modèle intuitif clair, qu’on peut présenter sous forme de graphique, à une version obscure et insoluble analytiquement ne me saute pas aux yeux (Blanchard est plus tolérant sur ce point).

La deuxième raison est que de riches institutions sont demandeuses de prévisions chiffrées. Le FMI, la BCE, l’OCDE, les grands États… tout le monde veut son équipe d’économistes pour faire des prévisions, et on est prêt à payer cher pour qu’ils développent leurs propres modèles de prévision. Christiano explique que lorsque les économistes du FMI font à Mme Lagarde des prévisions basées sur les résultats des DSGE, ils transforment ça en langage intuitif et donnent les ordres de grandeur fournis par leurs simulations. Ce qu’il décrit ressemble passablement à un problème d’asymétrie informationnelle. Quelques puissants veulent leurs modèles macroéconomiques dont ils ne sont pas capables de comprendre le fonctionnement, mais les développeurs leurs disent : « En gros, ce que dit le modèle c’est blablabla, et d’après nos simulations qu’on ne peut pas vous expliquer, les ordres de grandeurs sont entre tant et tant ».

S’il y a une demande, après tout, ne faut-il pas la satisfaire ? Eh bien en l’espèce, je pense que non. La raison est la suivante : quel que soit le modèle utilisé, si on veut faire de la prévision chiffrée en macroéconomie, on ne peut avoir de bons résultats que lorsqu’il n’y a pas de gros choc, c’est à dire quand la prévision ne sert pas à grand chose. Lorsque les chocs sont importants, les modèles chiffrés sont condamnés à échouer. Et à la rigueur, même dans ces situations, une bonne analyse qualitative est probablement plus utile qu’une prévision chiffrée forcément fragile.

Imaginez-vous dans la peau des trois derniers responsables de la fed : Alan Greenspan, Ben Bernanke et Janet Yellen, et demandez vous de quel type d’éclairages vous avez besoin pour mener votre politique monétaire. Greenspan n’a pas traversé de situations aussi difficiles que ses deux successeurs. La crise des dot-coms est peut-être ce qu’il a eu de plus difficile à gérer. Concrètement, comment se passe la gestion de la politique monétaire pendant la grande modération ? On jette un œil à des indicateurs conjoncturels. Indice de la production, évolution du chômage, des salaires, des prix. Petit coup d’œil sur la bourse et sur les prix de l’immobilier. Sur les différents spreads de taux d’intérêt également. Puis on guette. L’inflation s’accélère ? On augmente le taux d’intérêt. Selon le principe de Taylor, on l’augmente plus que ce qu’a augmenté l’inflation, pour que le taux réel augmente. En général, ça calme le jeu. Attention, coup d’œil au chômage, il ne faudrait pas que la hausse des taux soit trop brutale… on les re-diminue progressivement lorsque la menace inflationniste est passée. Bim ! Une petite crise boursière ! Aller, on rassure les marchés, on fournit des liquidités, on baisse les taux. Tout ça, c’est du pilotage. Il y a des questions techniques, là dessous. Mais elles portent plus sur des choses très empiriques telles que les délais avant que les variations de taux portent leurs fruits, que sur les fondements microéconomiques des modèles ! Soudain, vous êtes Ben Bernanke, et paf, vous vous prenez la crise des subprimes en pleine poire. Du jamais vu depuis 1929. Vite, les modèles, que disent-ils ? Ils se plantent ! Ils n’ont rien vu venir et ils surestiment la reprise qui n’arrive pas, bien au contraire. On fait quoi les gars ? Bah… on reprend la bonne vieille macro en lettres des années 70, et on y voit : que les dépenses publiques sont utiles dans ce contexte, que la baisse des taux à court-terme va vite buter sur un plancher et qu’il faut commencer à cibler les taux à long terme avec des politiques non conventionnelles, qu’il faut éviter aux banques une crise de liquidité qui risque de déraper en problèmes de solvabilité. « Oui mais combien ? » réponse : « on met le paquet ! ». « Oui mais jusqu’à quand ? » réponse : « jusqu’à ce que ça redémarre ».

Derrière la remise en cause aujourd’hui très visible des modèles DSGE, il n’y a pas toujours un bon diagnostic. Il y a souvent l’espoir qu’un changement de paradigme va redistribuer les positions au sein de ce vaste terrain de jeu qu’est le monde académique. Ce fut le cas dans les années 70. Pourquoi pas aujourd’hui ? Tous ceux qui se sont fait un petit nom dans une spécialité un peu marginale espèrent que le jour de gloire est arrivé. Maintenant que les grandes institutions ont compris que les modèles DSGE n’étaient pas à la hauteur, il faut les convaincre que la clé d’un bon modèle de prévision est : la modélisation multi-agent, la prise en compte des biais cognitifs, les esprits animaux, le machine-learning, etc.

Il y a peut-être de bonnes choses dans tous ces nouveaux courants, mais ils ne répondent aucunement au vrai problème de la prévision chiffrée en macro : la macroéconomie est tout simplement trop complexe pour être l’objet de prévisions chiffrées fiables lorsque les chocs sont importants. Ça ne veut pas dire que la recherche en macroéconomie n’est pas utile. Elle doit fournir des règles de bonnes conduite en période normale, et des principes d’intervention efficaces en périodes de crises. Bien entendu, les périodes de crises comportent de l’incertitude. Une dévaluation peut stimuler les exportations mais asphyxier les débiteurs. Alors que faire ? N’en déplaise à Christiano, utiliser des modèles qui ne marchent pas n’est pas forcément une meilleure réponse que le doigt mouillé, si le doigt mouillé est connecté à un cerveau qui comprend quelques mécanismes économiques fondamentaux. Au fond, il n’est pas très difficile de savoir de combien va augmenter le poids de la dette extérieure si l’on dévalue de 10%, ni d’estimer de combien vont augmenter les exportations nettes. Et si on se trompe ? On avisera, on renégociera, on fera défaut… pas très pro ? Vous pensez que la Troïka et ses modèles DSGE ont fait mieux avec la Grèce ?

Le vrai changement salutaire pour la macroéconomie consiste peut-être à abandonner cette prétention à vouloir prédire l’avenir, à se re-concentrer sur l’étude qualitative des mécanismes à l’œuvre, et à coupler cette étude de tests empiriques, comme le font les autres spécialités en économie. Les travaux empiriques existent, bien sûr, et ils sont peut-être ce qui se fait de mieux dans la macroéconomie contemporaine. Mais ils sont passablement déconnectés de ce qu’est devenu la macroéconomie théorique.

Un tel objectif n’est peut-être pas très ambitieux, mais parmi les objectifs atteignables, il n’y a probablement pas mieux.