Révolution fiscale

Les offensives médiatiques sur de grandes questions économiques émanent rarement de chercheurs qualifiés, connaissant à fond le sujet dont ils parlent. L’opus de Landais (d’écopublix), Piketty et Saez, « Pour une révolution fiscale, Un impôt sur le revenu pour le XXIème siècle » fait office d’exception. Ne boudons pas notre plaisir.

En moins de 150 pages, les trois économistes, spécialistes de fiscalité et de distribution des revenus, réussissent à nous passionner pour un sujet aussi à priori rébarbatif que les impôts en France. Pour résumer ce que m’inspire leur travail, je dirai :

1- Ce livre est remarquable au plan didactique.

2- Le projet de réforme des auteurs est particulièrement stimulant.

3- Il existe malgré tout des raisons d’être réservé sur ce projet…

4- …mais au fond peu importe : ce livre est un outil indispensable à toute personne voulant réfléchir sur la fiscalité française.

Allons-y.

1- Ce livre est remarquable au plan didactique.

Si vous pensez que les dépenses publiques sont financées essentiellement par l’impôt sur le revenu, qu’au-delà de 70’000 euros de revenus annuels, on paye 40% d’impôts sur le revenu, que la CSG est une petite taxe insignifiante, que les pauvres ne paient pas d’impôts, ou que l’industrie française appartient aux fonds de pension californiens, alors la lecture de ce livre vous est très vivement conseillée. 

Résumons. D’abord les ordres de grandeurs. La France a un revenu national de 33’300€ par an et par adulte, soit 2800€ par mois. Kezaco ? Le revenu national, c’est le Produit Intérieur Brut, moins les amortissements (plus les transferts nets de revenus de l’étranger, mais c’est négligeable), c’est à dire moins la dépréciation de l’appareil productif. Une fois repeintes les façades détériorées, rafistolées les routes endommagées et remplacés les ordinateurs défectueux, il reste au français moyen 2800€ par mois pour consommer ou épargner. Enfin, il lui resterait cette somme si nous vivions dans un monde dépourvu de services publics. Si c’était le cas, nous devrions utiliser une partie de cet argent pour payer des écoles privées à nos enfants, des salaires aux chirurgiens qui nous opèrent, et des milices de quartier pour faire régner l’ordre public. Comme l’éducation, la santé et la police sont financées en grande partie par l’impôt, tout se passe comme si nous consacrions environ 700€ (un quart), sur ces 2800 de revenu national, à ces services publics fournis par l’État, et accessibles plus ou moins gratuitement aux usagers. Sur les 2100€ restant, l’État (au sens très général de : « les administrations publiques ») en prend encore 600, mais pour les redistribuer sous formes de pensions de retraite ou d’allocations chômage aux ménages. Par conséquent, le revenu disponible des ménages est bien de 2100€ par adulte, mais les prélèvements obligatoires s’élèvent à 1300€ soit 49% du revenu national (car on a fait des arrondis). 

Ces 2800€ proviennent à 75% de revenus du travail ou de revenus mixtes (comme le revenu de l’artisan qui rémunère tant son travail que son investissement dans son atelier), à 16% de revenus financiers et à 9% de revenus immobiliers.

Comment sont prélevés les 49% de prélèvements obligatoires ?

Charges sociales : 23%

TVA (et autres impôts indirects) :13%

Impôts sur le capital (Impôt sur les sociétés, ISF, taxe foncière, droit de successions) : 4%

CSG (Contribution Sociale Généralisée) : 6%

Voilà, on a donc 23+13+4+6=46%… mince, il manque quelque chose… ah oui !

Impôt sur le revenu des personnes physiques (IRPP) : 3%, le compte y est !

On notera opportunément l’importance des cotisations sociales et de la TVA, l’importance relative, également, de la CSG, et le caractère très marginal de l’IRPP, que l’on a peut-être tendance, symboliquement, à assimiler aux impôts.

Au-delà les ordres de grandeur, les auteurs s’intéressent à la distribution dans la population de ce fardeau fiscal (rappelons que Thomas Piketty est l’auteur de l’économie des inégalités). C’est sur ce point qu’ils présentent des résultats quelque peu iconoclastes. Qui a en tête les taux marginaux d’imposition de l’IRPP ne peut que penser que les plus riches s’acquittent d’un volume d’impôts plus important, en pourcentage, que les pauvres. C’est ce qu’on appelle la progressivité de l’impôt. Les auteurs montrent que cette progressivité ne s’applique que pour les classes populaires (les 50% les plus pauvres) et dans une moindre mesure pour les classes moyennes (les 40% situés au dessus des 50% les plus pauvres, et en dessous des 10% les plus riches). En revanche, dès lors qu’on entre chez les classes aisées (les 10% les plus riches), le taux moyen d’imposition tend à décroître continument à mesure que le revenu s’accroît.

Comment est-ce possible ? D’abord, les impôts progressifs, comme l’IRPP, l’ISF ou les droits de successions, ne représentent qu’une faible part des impôts totaux. Ensuite, les autres impôts, qui ne pas progressifs, n’ont pas tous comme assiette l’ensemble des revenus. Ainsi, les cotisations sociales sont prélevées sur les salaires. Si la part des salaires dans les revenus totaux des individus diminue lorsque les revenus augmentent (ce qui est le cas pour les hauts revenus), alors le rapport entre les cotisations sociales et le revenu total doit également diminuer lorsque le revenu augmente. Le graphique suivant, issu du livre et du site compagnon, décompose cette non-progressivité par type de prélèvement :

Les riches ont une part plus faible que les pauvres de revenus du travail, par conséquent, la part des prélèvements sur le travail est plus faible (effet régressif). La part de leur revenu qu’ils consomment est plus faible, ils payent donc une part plus faible de TVA (effet régressif). La part de revenu du capital dans leurs revenus totaux est plus élevée, ils payent donc plus d’impôt sur le capital (effet progressif). Au total, comme le taux des cotisations sociales est très élevé, l’effet régressif l’emporte sur l’effet progressif.

Si le seul intérêt de ce livre était de faire connaître au grand public ces ordres de grandeur, il constituerait déjà une grande contribution au débat public sur les impôts. Mais il y a plus dans ce livre. 

2- Le projet de réforme des auteurs est particulièrement stimulant.

Le projet central de « Pour une révolution fiscale » est de proposer une… révolution fiscale. Bon. Pas de quoi s’affoler. Il ne s’agit pas de pendre le dernier banquier avec les tripes du dernier patron. Plus simplement de rétablir une certaine progressivité dans les taux d’imposition totaux, ainsi qu’une certaine lisibilité dans la fiscalité sur le revenu. Les principes sont les suivants :

* Supprimer l’IRPP et la CSG, pour les remplacer par un impôt unique sur les revenus.

* Prélever cet impôt à la source.

* Supprimer toutes les niches.

* Exprimer le taux d’imposition en taux global, en abandonnant le système des tranches et des taux marginaux associés.

* Individualiser l’impôt, autrement dit, considérer chaque adulte comme un foyer fiscal indépendant, quel que soit son statut matrimonial, quitte à compenser autrement la charge liée à la garde des enfants.

* Calculer le barème de sorte que cet impôt rapporte autant (donc ni plus, ni moins, d’où le côté faiblement révolutionnaire de la proposition) que les deux impôts actuels.

* Et bien sûr : faire que ce barème augmente avec le revenu, afin de rétablir de la progressivité.

Quelques remarques sur ce projet :

Notons, pour commencer, le bien fondé de la fusion proposée de la CSG et de l’IRPP, ne fut-ce que parce qu’elle implique la disparition d’un impôt. Sur 100 français, je doute qu’un nombre important sachent ce qu’ils paient en CSG, ou que cet impôt rapporte deux fois plus à l’État que l’IRPP. Accroître la lisibilité du système fiscal fait partie des objectifs des auteurs, et cette proposition va clairement dans ce sens. Étant donné que les assiettes de ces deux impôts sont assez proches (la CSG a en fait une assiette un peu plus large), on ne comprend d’ailleurs pas bien qu’ils n’aient pas déjà été fusionnés.

Autre point qui suscite, en toute subjectivité, mon approbation la plus totale : l’individualisation de l’impôt. En raison de la progressivité de l’IRPP, les couples ayant des revenus inégaux paient moins d’impôts du simple fait qu’ils sont mariés (ou pacsés). Que l’État souhaite utiliser la fiscalité pour orienter les comportements économiques des citoyens passe, mais qu’ils subventionne des choix de vie intime me semble aller un peu au-delà de ce que je considère comme ses prérogatives légitimes. Car, ne nous y trompons pas, baisser les impôts pour les couples mariés à revenus inégaux revient à les accroître pour les célibataires, ou les couples ayant des revenus égaux. Les auteurs mentionnent un autre effet pervers du système : une femme travaillant provisoirement à mi-temps (pour élever ses enfants par exemple), et donc gagnant moins que son époux, a un taux marginal d’imposition plus élevé que si elle était célibataire. Ce système revient donc à pénaliser fiscalement la reprise d’un emploi à plein temps pour les femmes dans cette situation (ou les hommes bien sûr).

Que penser de la suppression des taux marginaux par tranche, au profit de taux globaux directement applicables ? Il est évident qu’elle rendrait, elle aussi, plus lisible le système fiscal. Ce qu’il faut préciser, et qui n’est expliqué qu’en trois lignes dans le livre (les trois dernières de la page 86), c’est qu’entre les seuils qu’ils proposent, la progression du taux d’imposition est linéaire. Bien des contribuables ne comprennent pas, dans le système actuel, que lorsqu’ils changent de tranche, le nouveau taux marginal ne s’applique qu’à la partie de leur revenu qui dépasse le seuil de la tranche. Le taux marginal d’imposition (c’est à dire le taux qui s’applique sur un euro de revenu supplémentaire) est constant au sein d’une tranche, puis change brutalement lorsque le revenu change de tranche. Ici, rien de tel : le taux marginal augmente progressivement. Par exemple, le taux proposé est de 10% pour un revenu mensuel de 2200€, et de 13% pour 5000€. Quel est le taux d’imposition total et marginal d’un individu gagnant 2500€ ? Réponse : soit R le revenu (compris entre ces deux bornes), le taux d’impôt est de 10%+(13%-10%)*(R-2200€)/(5000€-2200€). Donc, pour R=2500, l’impôt est de 10%+(13%-10%)*(2500€-2200€)/(5000€-2200€)=10,32%.

Pour le taux marginal, ça se complique un peu (alors que, pour le coup, c’est plus simple dans le système actuel). L’impôt payé est de R*(0.1+(0.13-0.1)*(R-2200€)/(5000€-2200€)), et donc l’impôt marginal est obtenu en dérivant cette expression par rapport à R, ce qui donne : (0.1+(0.13-0.1)*(R-2200€)/(5000€-2200€))+(0.13-0.1)*R/(5000€-2200€), soit pour R=2500€, un taux marginal de 12,68%. On voit là poindre une petite critique, bien que la section critique soit la suivante : ce qu’on gagne en lisibilité pour les taux globaux est nettement perdu pour ce qui concerne les taux marginaux. Or, ce sont bien les taux marginaux qui ont une influence sur les choix économiques, notamment sur l’offre de travail. Ce problème pourrait être réglé par la présentation d’une courbe des taux marginaux, permettant à chacun de se situer. Mais un autre problème vient du fait que les taux marginaux ne soient jamais constants : le taux d’imposition marginal ne s’applique que sur une augmentation… marginale du revenu.

Cela dit, dans la mesure où il est difficile de proposer un barème qui soit lisible à la fois pour les taux globaux et pour les taux marginaux, il faut bien choisir. Les taux marginaux sont les plus pertinents pour les choix économiques, les taux globaux sont plus pertinents pour réfléchir sur la contribution aux biens publics des différentes classes de revenus. Le choix des auteurs peut donc se justifier.

Un petit mot sur le prélèvement à la source : il ne s’agit pas là d’une mesure indispensable. La réforme proposée pourrait parfaitement être adoptée sans prélèvement à la source. Disons que ce type de prélèvement tend à rendre l’impôt plus indolore, donc pourquoi pas. Par contre, Il est nettement plus aisé d’effectuer un prélèvement à la source en présence d’un taux d’imposition constant (donc le même pour tout le monde), qu’avec un taux variable, qui obligerait l’entreprise à être en contact permanent avec l’administration fiscale. L’un dans l’autre, à titre personnel, j’incline quand même à être favorable au prélèvement à la source, car j’aime à penser que l’argent que me verse mon employeur en fin de mois est vraiment à moi.

Parlons enfin de ce qui semble être l’élément principal de la proposition aux yeux de Landais, Piketty et Saez : la progressivité. Selon leurs calculs, leur proposition rétablirait une progressivité de l’impôt, en faisant croître le taux d’imposition des contribuables les plus riches à 50%, contre 35% à 45% environ pour les 1% les plus riches. Cette progressivité, au demeurant, est assez limitée, car, en raison du poids important des cotisations sociales, toutes les catégories auront un taux d’imposition supérieur à 40% (ce qui est déjà le cas actuellement, en tout cas pour les adultes travaillant à au moins 80% du temps plein, qui est la population de référence étudiée). Le coup de génie des auteurs est que, selon eux, cette progressivité retrouvée fait que la réforme permet de diminuer la charge fiscale de 97% des contribuables. Il faudrait atteindre environ 7000€ mensuels de revenus bruts pour commencer à payer plus d’impôts dans le cadre de leur réforme. Les contribuables gagnant moins seraient tous au moins légèrement gagnants.

Au final, voici donc une réforme qui, si elle était adoptée, nous ferait bénéficier d’un système fiscal plus lisible, neutre au plan des recettes, qui ferait payer moins d’impôt à la quasi totalité de la population, au seul détriment des 3% les plus riches, qui ne seraient que ramenés à des taux d’imposition très légèrement supérieurs à ceux dont s’acquitte déjà le reste de la population. Le rêve.

Ceci dit…

3- Il existe malgré tout des raisons d’être réservé sur ce projet…

Citons-en trois.

La première réserve, peut être pas la plus significative, concerne le caractère soit naïf, soit très optimiste, de la proposition de supprimer toutes les niches fiscales. Notons qu’il ne s’agit pas là d’une critique interne de la proposition, mais d’une critique externe. Les auteurs proposent que dans les trois années suivant la mise en place de la réforme, aucune niche ne soit maintenue, et que soient éventuellement rétablies au terme de ce délai celles dont les promoteurs auront montré l’utilité sociale. Et dans ce cas, chaque réintroduction de niche devra entraîner un accroissement des taux de base, ce qui, selon eux, devrait limiter la faisabilité politique de ces réintroductions. Personnellement, bien que totalement non politologue, je ne crois absolument pas en ce scenario. Je doute qu’il y ait beaucoup d’hommes politiques qui ne souscrivent pas à l’idée que l’infinité de niches qui minent la fiscalité sur le revenu en France devraient disparaître. Si personne ne les fait disparaitre, c’est parce que la majorité de contribuables qui y gagneraient n’y gagneraient pas suffisamment pour défendre leur suppression, tandis que les minorités qui en bénéficient ont tellement à perdre qu’elle représentent une force importante de mobilisation politique. Pour ne citer que cet exemple, j’imagine très mal les journalistes accepter sans mot dire une suppression de leurs avantages fiscaux, et j’imagine tout aussi mal un élu accepter de se mettre à dos la corporation des journalistes.

Malheureusement, cette difficulté ne se pose pas uniquement pour les niches à proprement parler. La simple individualisation de l’impôt risque de susciter des protestations dans toutes les familles où seul un membre du couple perçoit un revenu. Dans ces cas, la hausse d’impôt pour le ménage concerné sera tellement substantielle qu’elle risque de ne pas passer comme une lettre à la poste.

La deuxième réserve concerne l’incidence fiscale, c’est à dire les effets négatifs des hausses d’impôts sur le comportement des catégories concernées. La question posée ici est celle d’un possible effet Laffer : l’accroissement du taux d’imposition n’est-il pas susceptible de réduire fortement l’assiette ? Landais, Piketty et Saez abordent, évidemment, cette question, sorte de tarte à la crème pour les économistes de la fiscalité. Les réponses qu’ils apportent sont intéressantes, mais un peu courtes à mon goût (elles vont de la page 98 à 100 du livre). ils nous invitent opportunément à distinguer plusieurs problèmes.

Le premier concerne l’effet des variations d’impôt sur l’offre de travail des actifs. Autrement dit, des actifs plus taxés ne risquent-ils pas de travailler moins ? Ce premier problème n’en est vraisemblablement pas un. D’une part, les économistes du travail savent qu’une hausse des impôts a des effets contradictoires sur l’offre de travail : un effet substitution – le travail rapporte moins, donc on peut à moindre coût substituer du loisir au travail, et un effet revenu – comme on est moins riche, on est incité à travailler davantage pour conserver son niveau de vie. D’autre part, comme la réforme est neutre sur les recettes fiscales, il y a des bénéficiaires à côté des perdants, et on peut penser que l’effet éventuellement négatif sur l’offre de travail des perdants sera compensée par l’effet positif sur l’offre de travail des gagnants.

Deuxième problème, celui des migrations de travailleurs et de capitaux, motivés par une fiscalité plus avantageuse à l’étranger. Sur cette question, les auteurs sont un peu rapides. Ils indiquent à raison que leur réforme ne concerne pas la fiscalité des entreprises, mais des personnes physiques et que donc les choix en matière d’investissements ne seront pas affectés. Concernant, en revanche, les migrations des personnes, les auteurs évacuent un peu rapidement la question, en mentionnant les exemples Danois et Espagnol, dont les réformes fiscales destinées à attirer les travailleurs immigrés auraient eu un succès net chez les footballeurs, mais plus difficile à estimer pour les autres travailleurs qualifiés. Le seul lien donné par les auteurs est celui d’un working paper montrant précisément l’importance des effets migratoires pour les footballeurs. J’avoue que je serai plus convaincu par un travail montrant qu’il n’y a pas d’effet significatif, plutôt qu’un travail montrant qu’il y en a bien un pour les footballers, suivi de l’assertion que cet effet sera vraisemblablement plus faible pour les autres métiers. Rappelons que les augmentations d’impôts prévues par la proposition concernent les personnes gagnant plus de 7000€ bruts par mois, c’est à dire des gens qui gagneront suffisamment pour se payer, en cas d’émigration, des allers-retours fréquents vers le cher pays de leur enfance. Ajoutons que l’on trouve en général dans ces niveaux de revenus des gens bien formés, souvent à l’aise dans le maniement des langues étrangères, ce qui peut faciliter leur expatriation. Gardons à l’esprit que l’accroissement des impôts préconisé pour le haut de la distribution des revenus est très substantiel. A ce titre, d’ailleurs, il pourrait servir d’expérience naturelle permettant de tirer des conclusions scientifiques sur la réaction des travailleurs les plus qualifiés face à une modification de la fiscalité. En attendant, je ne suis pas sûr de voir ce qui permet d’affirmer que l’impact serait négligeable.

Je ne suis pas en train de dire que je sais qu’un tel accroissement de la fiscalité des hauts revenus génèrerait le grand exode fiscal. Je dis juste que je n’en sais rien, que la question se pose, et que je ne trouve pas dans le livre d’éléments de réponse convaincants à cette question.

Troisième problème, celui de la défiscalisation frauduleuse au Liechtenstein ou en Suisse. Sur ce point, les auteurs sont encore plus rapides : c’est illégal. Certes, mais ça existe. Périodiquement, les responsables politiques haussent le ton, et expliquent que l’on va mettre un terme à ces pratiques. Avec quel succès ? Avec quel risque de voir réapparaître des paradis fiscaux lorsqu’on aura mis au pas les premiers ? Là encore, les réponses manquent. Et l’expérience grecque semble indiquer que la lutte contre l’évasion fiscale n’est pas un jeu d’enfants.

Venons-en à la troisième réserve, qui concerne un des arguments centraux du livre : le caractère régressif de la fiscalité en France. Cette régressivité est en fait en trompe l’œil, pour une raison que les auteurs expliquent d’ailleurs eux-même (de même qu’ils fournissent le graphique montrant ce caractère en trompe l’œil) : on a déjà dit que les charges sociales étaient pour beaucoup dans la régressivité de la fiscalité française. Or, il convient de distinguer deux types de cotisations sociales : les cotisations qui ouvrent des droits d’une part, celles qui financent des dépenses universelles de l’autre. Les cotisations qui ouvrent des droits sont les cotisations retraite et chômage. Elles représentent 13 vingt-troisièmes (13/23, soit environ 57%) des cotisations totales (cf p.43). Les autres financent la maladie, la famille, la formation, etc. Or seules ces dernières peuvent légitimement être considérées comme des impôts, c’est à dire comme finançant des prestations ouvertes à tous, indépendamment de la contribution de chacun. Les premières, au contraire, sont assimilables à de l’épargne forcée (pour ce qui concerne la retraite) ou à une assurance obligatoire (pour ce qui concerne le chômage). Dans les deux cas, les prestations sont proportionnelles au revenu, et comme les cotisations sont également proportionnelles au revenu, finalement les prestations sont proportionnelles aux cotisations. Obliger les travailleurs à prévoir leur retraite et à s’assurer contre la perte de leur emploi relève du paternalisme. C’est sans doute justifié, mais le fait que ces cotisations ouvrent des droits au cotisant en fait des dépenses d’une nature bien différente de celle des autres prélèvements obligatoires. Les riches épargnent assez spontanément, et certains s’assurent contre des baisses de revenus (par exemple, les propriétaires immobiliers ont des assurances contre les sinistres entrainant une perte de loyer). Si l’État les obligeait, par paternalisme, à épargner et à s’assurer, ça ne changerait pas grand chose à leur comportement, mais ça transformerait une partie de cette épargne et de ces cotisations en prélèvements obligatoires, de façon parfaitement artificielle.

On m’objectera que l’assurance chômage et la retraite ne sont pas des mécanismes purement individuels. Par exemple, la retraite ne tenant pas compte des différences d’espérance de vie à la retraite des différentes catégories de travailleurs, les ouvriers perçoivent moins, en proportion de leurs cotisations totales, que les cadres. Ce qui est injuste, mais on touche là à un problème du système de retraite en soi plutôt qu’à un problème fiscal. Thomas Piketty lui-même, avec Antoine Bozio, préconise l’adoption d’un système individualisé de cotisations retraites, qui permettrait de bonifier les cotisations des ouvriers pour tenir compte des différences d’espérance de vie. Il semble bien plus pertinent, en effet, de s’attaquer directement au fonctionnement du système de retraites, plutôt que de considérer que ces anomalies justifient qu’on considère les cotisations retraites comme des impôts comme les autres.

On peut ajouter à cela qu’en cas de déséquilibre des assurances sociales, la différence est comblée par l’Etat, si bien qu’une partie des impôts autres que les cotisations est en fait utilisée pour garantir les droits obtenus individuellement par les cotisants.

On l’aura compris, mon propos ici est de dire que la bonne mesure de la fiscalité, pour évaluer son caractère progressif, consiste à soustraire aux prélèvements obligatoires totaux la partie des cotisations sociales qui finance les retraites et le chômage. Cette soustraction peut être faite grâce au graphique de la page 120 du livre, auquel je me suis permis d’ajouter un trait rouge :

Au dessus de ce trait rouge se trouvent les cotisations retraite et chômage. En dessous figurent tous les autres prélèvements obligatoires. C’est donc ce trait rouge qui nous donne la mesure de la progressivité de la fiscalité française. Comme on le voit, avec cette mesure, la fiscalité est bien progressive pour les 99 premiers percentiles. Seul le dernier, qui compte les 1% de contribuables les plus riches, connaît une tendance à la regressivité de la fiscalité, tendance beaucoup moins nette que celle mesurée par la totalité des prélèvements, retraites et chômage inclus. Ce que suggère ce graphique, c’est que c’est bien la fiscalité sur le revenu (CSG+IRPP) qui est en cause pour la baisse des taux d’imposition des plus riches. Ceci s’explique par l’exclusion de l’IRPP d’une partie des revenus du patrimoine, liée à des abattements sur certains revenus mobiliers, ou l’exclusion des loyers fictifs que se versent à eux-même les propriétaires de leur logement (loyers fictifs, mais économie bien réelle !). Finalement, l’objectif d’accroître la progressivité du système serait atteint si le dernier percentile voyait son taux d’imposition global s’accroître jusqu’à 40%, au lieu de stagner un peu au-dessus des 30% actuellement. Cela pourrait être atteint, dans le cadre de la réforme proposée par les auteurs, par des taux d’imposition plus faibles que ceux qu’ils défendent, avec des conséquences mineures sur l’impôt des autres catégories. Comment le sais-je ? Simplement parce que j’utilise, sur le site compagnon, le magnifique simulateur de réforme fiscale, qui me permet de tester différents barèmes, avec impact sur les recettes publiques et sur les inégalités. Je vous invite à y simuler vos propres barèmes, mais à prendre avec précaution l’impact de vos barèmes sur les inégalités : celles-ci sont présentées en incluant toutes les cotisations sociales. Si vous admettez, avec moi, l’idée que les charges liées au chômage et aux retraites doivent être soustraites, alors gardez à l’esprit qu’elles représentent plus de la moitié des cotisations, et ne soyez pas intimidés par la sanction du logiciel « Le système que vous proposez est très régressif ».

4- …mais au fond peu importe : ce livre est un outil indispensable à toute personne voulant réfléchir sur la fiscalité française.

On l’aura compris, si le projet de réforme de Landais, Piketty et Saez était soumis en l’état à un référendum, je ne serais pas un défenseur acharné du « oui », à cause essentiellement des taux trop élevés pour le haut de la distribution (auquel je précise que je n’appartiens évidemment pas…). Mais finalement, est-ce bien important ? J’ai abordé la lecture de ce livre avec une connaissance assez rudimentaire du système fiscal français, et avec, en corolaire, assez peu d’idées. J’en sors avec une vision beaucoup plus précise de la réalité fiscale, et avec une obsession pour cette question qui ne me quitte pas depuis une semaine. D’ailleurs, et je vais là me laisser aller à une conjecture, je parierai que l’objectif des auteurs est moins de défendre bec et ongles une réforme en l’état, que de susciter ce genre de réflexions. A l’appui de cette conjecture, la page 95 du livre propose 4 projets alternatifs de réforme. La leur étant (assez habilement au demeurant) présentée comme la proposition centriste, s’y ajoutent une proposition « ultra-égalitaire », une proposition « de gauche » (plus progressive que la leur, ce qui suggère qu’eux sont centristes), une proposition « de droite », un peu moins progressive, et une proposition « ultra libérale » sous la forme d’une flat tax à taux unique de 13%. Ces 5 barèmes rapporteraient les mêmes recettes fiscales qu’actuellement. A l’appui de cette conjecture, également, le chapitre 3 du livre, qui est une collection d’idées concernant tous les points qui ne sont pas directement concernés par la réforme proposée (y compris la question du financement de la santé et de la famille par les cotisations sociales). Au fond, Landais, Piketty et Saez ne pensent certainement pas clore les discussions sur la fiscalité avec ce livre. Ils souhaitent qu’elles s’ouvrent. Et la meilleure façon de les ouvrir est peut-être de montrer à quoi pourrait ressembler un projet concret, avec un chiffrage précis. Le propos du livre n’est pas tant « voilà la réforme du siècle », mais plutôt « ne voyez-vous pas que la fiscalité française est incompréhensible et régressive ? ». Les auteurs anticipent l’objection « mais que voulez-vous y faire ? » par l’illustration qu’on peut, en la matière, faire des propositions à la fois concrètes et ambitieuses. 

Faites-en l’expérience, se confronter à cette proposition en lisant le livre ne peut que susciter la soif de formuler une contre-proposition. Et le simple fait de pousser le lecteur à réfléchir de la sorte à la fiscalité, en lui livrant tous les éléments factuels dont il a besoin pour nourrir sa réflexion, est en soi une prouesse, qui fait que je recommanderai vraisemblablement pendant des années la lecture de ce livre.

La crise en pattes d’eph’

La crise économique est l’occasion pour la profession des macro économistes de faire le point sur l’évolution de leur discipline depuis 30 ans. Pour être précis, il faut dire qu’on s’intéresse ici de façon exclusive à une branche de la macro économie : celle qui étudie les fluctuations de l’activité économique, avec, typiquement, une attention particulière portée sur le chômage et l’inflation.  Narayana Kocherlakota, président de la fed de Minneapolis, a lancé le débat avec un article retraçant l’histoire récente de la discipline, qui peut se résumer par « on n’a pas trop mal bossé, même si on peut encore mieux faire ». Greg Mankiw, qui a contribué activement à cette branche de la recherche, a un avis plus mitigé, dont le shorter serait « on a eu des discussions passionantes au plan intellectuel, mais ça n’a pas servi à grand chose ». Plus radical, James Morley dénonce un échec. Paul Krugman aussi. Sans vouloir trancher, ce billet a pour objectif de montrer qu’une grande partie des débats actuels sur les politiques de sortie de crise auraient eu exactement la même teneur avec l’outillage intellectuel des années 70.

Pour comprendre les débats qui avaient cours en ces temps là, il faut s’appuyer sur un modèle, que l’on retrouve dans les manuels de macro aujourd’hui encore sous l’intitulé « AD-AS » (pour « Aggregate Demand – Aggregate Supply ») ou plus simplement « modèle de la synthèse ». Ce modèle constitue un raisonnement en deux étapes :

1- La première étape consiste à étudier les déterminants de la dépense nominale s’adressant aux entreprises du pays. Cette dépense correspond, par construction, au PIB nominal, c’est à dire au PIB à prix courants. Ce PIB nominal peut augmenter si les entreprises voient leur activité s’accroitre (ce qui est généralement une bonne chose), ou si le prix des produits qu’elle vendent s’accroit (ce qui n’est que de l’inflation). Si l’on appelle Y ce PIB nominal, P l’indice des prix et Q le PIB réel (c’est à dire un indice qui n’augmente que lorsque la production des entreprises augmente, et qui est insensible aux variations de prix), on peut écrire simplement Y=P*Q. Donc la première étape consiste à déterminer Y.

2- La seconde étape est celle qui, Y étant donné, « répartit » cette dépense nominale en un indice des prix et un PIB réel. Si, suite à une politique de relance (étudiée dans l’étape 1), Y augmente, l’étape 2 dira si cette augmentation de Y n’est que de l’inflation, où si elle correspond à un enrichissement réel. Puisqu’une augmentation de Q implique que les entreprises produisent davantage de biens et services, une augmentation de Q sera logiquement associée à une diminution du chômage.

Partant de là, que faut-il pour sortir de la crise ? Il faut qu’une politique donnée, appelons-là « truc », 1- augmente Y, 2- que cette augmentation de Y implique une augmentation de Q :

truc => Y (+) => Q (+)

Ce cadre simple permet de comprendre la position de personnes aussi différentes que Paul Krugman, Scott Sumner, Greg Mankiw et Casey Mulligan sur l’effet de ces deux types de politiques (ces « trucs ») que sont les politiques fiscales et les politiques monétaires.

Commençons par l’étape 1 : la détermination de la dépense nominale.

Celle-ci est constituée des dépenses de consommation (ou d’équipement) des ménages (C), des investissements des entreprises (I), de la dépense publique (G), et des excédents commerciaux (E). Y=C+I+G+E. Comment peut-on augmenter la dépense globale ?

Pour Paul Krugman, le plus keynésien des quatre, en temps ordinaires, la banque centrale pourrait diminuer son taux d’intérêt, afin d’encourager les entreprises à investir (I) (et les ménages à s’équiper (C)). Hélas, cette solution est inefficace dans la période actuelle car le taux d’intérêt de la banque centrale est déjà à 0 (on ne peut descendre en dessous), et si les entreprises n’investissent pas, c’est davantage faute de perspectives que pour des raison de coût du crédit. Cette situation est ce que Keynes appelait une « trappe à liquidité » : si vous donnez un billet de 100 euros à quelqu’un pendant ce type de périodes, il le gardera sous le matelas, sans accroître en rien la dépense nominale. La solution, alors, est de dépenser à la place des gens en augmentant G, la dépense publique. Dépenser est le moyen le plus direct d’augmenter la dépense ! Dans la logique keynesienne, cette dépense constituera un revenu supplémentaire pour des agents économiques, qui augmenteront à leur tour leur propre dépense privée (C). Certes, cette situation créera du déficit, mais puisque pendant une crise, les ménages sont réticents à consommer, l’argent disponible ne manquera pas pour acheter les obligations émises pas l’Etat pour financer ce déficit. Le contribuable devra rembourser, c’est entendu, mais il le fera plus tard, lorsque l’économie aura été consolidée par la relance.

Greg Mankiw est, lui aussi, un keynésien, mais d’un type plus conservateur que Krugman (un keynésien de droite, en somme). Il est également convaincu qu’un coup de pouce budgétaire est nécessaire, mais, rompant avec une vieille vue keynésienne, il préconise une diminution des taxes plutôt qu’une augmentation des dépenses. Cette diminution des taxes a pour objet d’augmenter la consommation (C). En général, les keynésiens préfèrent augmenter les dépenses, car 100% du déficit ainsi créé est dépensé. A contrario, une diminution de taxe peut être partiellement épargnée par ses bénéficiaires. Toutefois, pour Mankiw, la baisse des taxes est une bonne chose à long terme, et, selon lui, la hausse de la dépense publique peut conduire les ménages à consommer moins par peur des futures hausses d’impôt. Ainsi, il soutient que, paradoxalement, la baisse des taxes pourrait être plus efficace que la hausse des dépenses.

(Alberto Alesina, pour sa part, soutient que c’est une baisse des déficits qui pourrait accroitre la dépense globale, car les ménages plus confiants dépenseraient davantage, et les entreprises pourraient utiliser l’épargne des ménages (qui ne serait plus captée par la dette publique).)

Scott Sumner, qui est une sorte d’héritier de Milton Friedman, ne croit pas en la théorie de la trappe à liquidité. Craignant un endettement public excessif, il considère que la banque centrale a encore une marge d’action, même si son taux d’intérêt est déjà à 0. Mais alors que peut-elle faire ? D’abord, s’attaquer à d’autres taux d’intérêt. Après tout, le taux d’intérêt de la banque central n’est qu’un taux d’intérêt parmi d’autres. En général, la banque centrale espère, par ce taux, influencer le taux d’intérêt auquel les banques se prêtent de l’argent entre elles à court terme, et que ce dernier taux influence le taux auquel les ménages et les entreprises peuvent se financer à long terme. Selon Sumner, pour encourager l’investissement des entreprise et l’équipement des ménages, la banque centrale peut tout simplement acheter des obligations à long terme, émises par le secteur privé. Lorsque la banque centrale achète des obligations, elle crée la monnaie nécessaire à cet achat, donc, nul besoin de le financer. Mécaniquement, en achetant des obligations, la banque centrale fait monter leur cours, et donc baisser le taux d’intérêt correspondant. Elle peut également agir sur un autre de ses instruments : l’objectif d’inflation. Si la banque centrale s’engage à ce que, pendant plusieurs années, l’inflation soit de 4% au lieu de 2% (objectif actuel), alors le taux d’intérêt réel, qui est la différence entre le taux nominal et l’inflation, diminue. Cela devrait encourager l’investissement. De façon plus générale, Scott Sumner se rattache à une certaine lecture de la formule des échanges, qui stipule qu’il existe une relation de proportionnalité à peu près stable entre la masse monétaire et la dépense nominale. Donc, en augmentant la masse monétaire, la banque centrale devrait stimuler cette dépense nominale.

Casey Mulligan, enfin, dans la tradition la plus classique, défend l’idée que tout stimulus budgétaire sera compensé par une diminution de la consommation par les ménages, en prévision des hausses futures de la fiscalité. Quant à la politique monétaire, il n’en parle guère, mais on peut penser qu’il la croît très efficace pour stimuler la dépense globale, mais il ne s’y intéresse pas car, d’après sa lecture de la seconde étape, un tel stimulus ne peut être qu’inflationniste.

Venons-en donc à cette seconde étape. Là, les choses sont plus rapides, car on peut regrouper ces différents auteurs en deux camps : le premier regroupe Krugman, Mankiw et Sumner, et pense que dans le court terme, les prix sont rigides, tandis que Mulligan (ainsi que, par exemple, Edward Prescott) raisonne selon l’idée que les prix s’ajustent de manière à ce que, sur tous les marchés (notamment, ceux des biens et services et le marché du travail) l’offre soit égale à la demande. Appelons PR (pour Prix Rigides) le premier groupe, et PF (pour Prix Flexibles) le second.

D’où vient la crise, et comment la résorber ?

Pour les PR, la crise provient d’une diminution de la dépense globale, qui se traduit par une diminution de la production réelle. Selon quel mécanisme ? Le point de départ est évident : si aux entreprises d’un pays s’adresse une demande plus faible, elles produisent moins et donc emploient moins de travailleurs. Mais, selon un mécanisme classique, elles devraient diminuer leur prix de vente afin de pouvoir écouler davantage de marchandises. Le problème est que, ce faisant, elles diminuent leur marge, puisque leur coût de production est constant : en effet, les salaires sont rarement renégociés à la baisse. Les entreprises, dans cette situation, n’ont donc pas intérêt à maintenir constante leur capacité de production : elles licencient et ferment des usines. 

En quoi un stimulus (qu’il passe par une intervention de la banque centrale, une hausse des dépenses publiques ou une baisse des taxes) permet-il de résoudre ce problème ? En apportant une demande supplémentaire aux entreprises, il permet à celles-ci de vendre davantage, d’augmenter leur prix de vente, de reconstituer leur marge (car les salaires n’augmenteront pas aussi vite), et donc d’être à nouveau incitées à augmenter leur cadence de production. Naturellement, cette histoire a une fin : si le stimulus perdure après la reprise, les entreprises se trouveront dans l’incapacité d’augmenter ces cadences, car tous les travailleurs du pays seront déjà au travail, toutes les usines fonctionneront déjà à plein régime. Ainsi, dans cette situation, la seule réponse possible à une demande en hausse est un accroissement des prix : de l’inflation.

En résumé, pour le camps PR, lorsque les facteurs de production sont sous-employés (chômage), l’impact de la dépense nominale est Y(+)=>Q(+), tandis que lorsque les facteurs de production sont déjà tous au travail (plein emploi), la relation est Y(+)=>P(+).

Pour le camps PF, en revanche, cette histoire ne tient pas la route. Elle présuppose que les travailleurs ne se rendent pas compte que, si leur salaire augmente moins vite que l’inflation, alors leur salaire réel diminue. D’après les PF, au contraire, il faut considérer que les agents économiques sont parfaitement au courant de l’existence des phénomènes déflationnistes et inflationnistes. Ainsi, on n’a pas de raison de penser que les salaires puissent ne pas évoluer dans le même sens que les prix. Dans ces conditions, les fluctuations de la dépense nominale n’ont aucun impact sur la production réelle : tout l’impact passe par le niveau général des prix. Mais alors, comment expliquer les fluctuations de l’activité réelle ? Selon cette école, la production réelle (Q) est entièrement déterminée par des facteurs réels : technologie, moyens de production, quantité de travail que les travailleurs souhaitent offrir sur le marché du travail, commerce international, etc. Toute fluctuation de l’activité réelle doit s’expliquer par une évolution dans ces facteurs réels. Ainsi, on expliquera volontiers, chez les PF, la grande dépression par des mesures protectionnistes empêchant l’économie de profiter pleinement des avantages comparatifs. Quant à la crise de 2008, elle s’explique par… la peur d’Obama. En effet, l’annonce par Obama de la création d’une assurance santé vaguement à l’Européenne aurait fait craindre aux travailleurs américains une augmentation des taxes de nature à rogner leur pouvoir d’achat : les nouveaux chômeurs américains ne seraient donc que des gens qui refusent de travailler pour l’État, et qui préfèrent bénéficier des allocations chômage et jouir de leur temps libre. (bon… personne n’a dit que c’était sensé être convainquant…)

Résumons : en nous appuyant sur un modèle qui existait déjà il y a 30 ans dans les manuels de macro économie, nous avons clairement décrit les oppositions qui s’expriment actuellement. La grosse opposition étant entre les PR, qui pensent que la dépense nominale compte, et les PF, qui pensent qu’elle ne compte pas. Pour les étudiants en macro, les premiers pensent que la courbe AS est penchée, les seconds qu’elle est verticale. Au sein des PR se manifeste la seconde opposition, entre les keynésiens qui pensent qu’en période de trappe à liquidité, la politique monétaire ne permet pas de booster la demande (pour les étudiants, courbe LM horizontale) et qu’il faut une relance budgétaire, et les monétaristes qui pensent au contraire que la politique monétaire est utile (courbe LM penchée).

Question : quelle partie des discussions actuelles ai-je oublié, qui n’aurait pu être comprise sans ce bon vieux modèle des seventies ? Les débats sur les difficultés causées à la Grèce et l’Espagne par l’Euro s’y inscrivent totalement : si ces pays avaient une monnaie propre, ils pourraient la dévaluer, ce qui rendrait leur production moins chère à l’exportation, et donc augmenterait E, l’excédant commercial (qui est une des composantes de la dépense nominale, dans la partie 1). La théorie des zones monétaires optimales est totalement une analyse en termes de demande globale – offre globale.

Dans cet article déjà mentionné dans le chapeau du billet, Greg Mankiw oppose la science, intellectuelle, théorique, à l’ingénierie, appliquée, pratique, et utile aux décideurs politiques. Selon lui, la macro économie, depuis 30 ans, a été le cadre de débats théoriques intéressants, mais n’a guère été utile au plan de l’ingénierie. Au terme de ce billet, on en viendrait presque à se demander ce qui a bien pu se dire de si intéressant dans le domaine théorique, qui aurait échappé aux commentateurs de l’an 2010.

Contre l’utilitarisme ? Quel utilitarisme ?

Quand j’utilise une perceuse pour faire un trou, ce qui m’intéresse, c’est le trou. Je me fiche éperdument de la perceuse. Ce n’est pas très sympa, mais peu importe, une perceuse n’est pas un être humain. Certains, particulièrement cyniques, ne cultivent des relations d’amitié ou ne se livrent à des œuvres charitables que pour le bénéfice qu’ils pourraient en tirer. Dans le langage populaire, on qualifie parfois ces margoulins d’utilitaristes. Il s’agit d’une bien triste confusion. L’utilitarisme est un courant de pensée philosophique qui est étranger à ce cynisme. L’amalgame est bien compréhensible, car l’utilité, en règle générale, suggère une réduction de l’objet utile au statut d’instrument au service d’une finalité qui lui est extérieure. Que deux universitaires, invités lundi dernier sur France Culture, puissent vouer leur carrière à la lutte contre l’utilitarisme en faisant eux-même cette confusion, ça relève du hautement consternant. Ces universitaires, Jacques Dewitte et Jean-Louis Laville, sont proches d’un mouvement dont j’ai appris l’existence en écoutant l’émission, le MAUSS : Mouvement Anti Utilitariste dans les Sciences Sociales. Quiconque a vaguement entendu parler de Jeremy bentham, fondateur de la pensée utilitariste, ou de John Stuart Mill,
un de ses principaux représentants, ne peut que s’interroger sur l’intérêt que l’on peut bien trouver à vouloir vouer sa vie à lutter contre leurs idées. Les écoles de pensée ne manquent pas, en philosophie comme en science sociale, et il est bien naturel que des penseurs ne se reconnaissent pas dans toutes. Mais on a du mal à imaginer un mouvement anti-contractualiste, un mouvement anti-positiviste, un mouvement anti-postmoderne, anti-popperien, ou anti-thomiste. On peut, bien entendu, être anti-contractualiste, anti-positiviste, etc. Mais organiser un mouvement, éditer une revue, voués à la lutte contre une école de pensée particulière, est une étrange démarche. Les progrès de la pensée se font par le débat, par la réfutation, la critique. Un penseur comme Amartya Sen, à mon sens, a largement contribué à faire progresser la réflexion sur la justice sociale, précisément en s’opposant à l’utilitarisme. Mais il suffit de lire Sen pour comprendre ce qu’il peut y avoir d’absurde à créer un mouvement anti-utilitariste : il s’oppose à eux en discutant avec eux. Une discussion philosophique contient généralement des concessions, des marques de respect mutuel. Le résultat est que Sen propose un système de pensée qui rompt très clairement avec l’utilitarisme. Mais ce système de pensée est un résultat, non un point de départ. La question de départ est « qu’est ce que la justice ? ». La démarche consiste à se confronter, avec ouverture d’esprit et sens critique, aux réponses existantes, et à tenter de les dépasser.

Dans le cas des deux invités de France Culture, on est loin de cette démarche, pour une raison simple : les 40 minutes d’émission ont révélé qu’ils ignoraient tout de ce qu’est l’utilitarisme. La contradiction leur était apportée par Malik Bozzo-Rey, philosophe utilitariste lui-même, que l’on sentait relativement consterné par les propos des deux autres. Mais, finalement, les deux animateurs de l’émission, Julie Clarini et Brice Couturier, sont peut-être ceux qui ont le mieux souligné le décalage entre ce qu’est l’utilitarisme et ce qui était dénoncé par Dewitte et Laville.

Qu’est-ce que l’utilitarisme ? Il s’agit d’une doctrine selon laquelle les états de la sociétés doivent être évalués en fonction du niveau de bien-être qu’ils procurent à ses membres. L’objectif utilitariste est que le bien-être soit aussi grand que possible. Cependant, rares sont les politiques qui sont favorables à l’ensemble des membres d’une société. Comment, alors, comparer deux options qui sont, pour l’une, favorable à Pierre et Défavorable à Paul, et pour l’autre, favorable à Paul et défavorable à Pierre ? Pour les utilitaristes (pour les premiers d’entre eux en tout cas), il faut faire l’hypothèse que les bien-êtres de Pierre et Paul sont comparables. Ainsi, on peut imaginer une échelle de valeur commune qui permettrait de mesurer ce bien être. Dans ces conditions, le choix utilitariste est simple : si le passage de la première option à la seconde fait perdre « 2 » unités de bien être à Pierre et fait gagner « 5 » unités de bien-être à Paul, alors la seconde option doit être préférée à la première, car elle accroît le bien être global.

Ceci appelle plusieurs commentaires :

En premier lieu, il convient de se méfier d’une réaction initiale consistant à trouver ce point de vue particulièrement naïf. D’un certaine manière, il l’est, mais cela n’enlève pas grand chose à sa porté pratique. Exemple : que pensent les utilitaristes de la question épineuse de la taxation des hauts revenus ? Ils considèreront généralement que ces prélèvements privent d’une partie de leur revenu des personnes qui en ont tellement qu’elles ne retirent pas un grand bien être de ce qu’on leur prend. Si, en revanche, le produit de cette taxation est consacré à la lutte contre la pauvreté, alors elle constitue un accroissement du bien être social, puisque 100 euros donnés à un pauvre créent davantage de bien être que n’en détruit le fait de priver de ces 100 euros une personne très riche.

Deuxièmement, rien dans la définition de l’utilitarisme n’indique que la poursuite par chacun de son propre bien-être débouche nécessairement sur un bien être maximal pour la société. Des problèmes de coordination tels que la tragédie des communs montrent que cela peut tout à fait ne pas être le cas, et il suffit de connaître un tant soit peu l’économie qui s’inspire de l’utilitarisme pour savoir qu’elle attache une grande importance à ces cas où l’intérêt général n’est pas atteint par la poursuite par chacun de son propre intérêt. Nicholas Stern, par exemple, préconise une intervention publique pour diminuer très fortement les émissions de gaz à effet de serre en utilisant un argument rigoureusement utilitariste (et des calculs discutables, mais c’est un autre problème).

Troisièmement, et ça se pressent après ce que l’on vient de dire, c’est une erreur monumentale que d’associer utilitarisme et libéralisme (comme le suggère d’ailleurs Julie Clarini dans l’émission). Certes, les utilitaristes classiques se reconnaissent souvent dans la philosophie libérale. Mais les plus acharnés des libéraux non seulement ne sont pas utilitaristes, mais fondent leur doctrine en réaction frontale à l’utilitarisme. Ainsi, Robert Nozick, chef de file du mouvement libertarien, reproche à l’utilitarisme de se focaliser sur les conséquences des politiques (on parle de conséquentialisme), indépendamment de leur légitimité. Pour lui, un impôt, en tant qu’il est coercitif, s’apparente à du vol, et ne saurait être justifié par des considérations sur l’amélioration du bien être social. Cette confusion entre libéralisme et utilitarisme (illustrée par la phrase de JL Laville : « les utilitariste ou les libéraux, je sais pas comment ‘faut dire finalement ») en dit long sur le sérieux d’un mouvement qui dit se structurer autour de la lutte contre l’utilitarisme.

Quatrièmement, l’utilitarisme est davantage une théorie des finalités que des moyens. Ce point mérite peut être d’être nuancé : comme le disait Malik Bozzo-Rey, il est à la fois descriptif (les individus tendent à maximiser leur bien être) et normatif (il faut que le bien être soit le plus grand possible pour l’ensemble des individus). Mais ce qui est certain, c’est que, si l’on dissocie la fin et les moyens, on ne peut pas caractériser la pensée utilitariste par les moyens. Jean-Louis Laville, pendant l’émission, dénonçait le recours à des leviers financiers pour gérer l’aide à la personne. Passons sur le fait qu’on ne comprend pas trop ce qu’il entend par là (les associations d’aide à la personne sont-elles côtées en bourse ? Vendent-elles des parts de hedge funds aux personnes âgées qu’elles aident ? Sont-elles tributaires des finances publiques ? Mystère…). Selon lui, cette dérive a pour conséquence une grande souffrance des personnes aidées. Autrement dit, la critique porte sur des moyens (en l’occurrence des mystérieux leviers financiers), et s’appuie pour cela sur des conséquences (la souffrance des personnes). Ce faisant, cet anti-utilitariste se montre étonnamment utilitariste ! Il évalue l’efficacité de l’aide à la personne à l’aune de ses conséquences sur le bien être. La même confusion se manifeste quand il affirme, à juste titre, qu' »on ne gère pas une multinationale comme on gère une université ». Là encore, quel rapport avec une critique de l’utilitarisme ?
En réalité, la cible est peut-être la mode du managerialisme, dénoncée dans les stratégies absurdes, et la confusion vient sans doute du fait que cette mode semble obsédée par les incitations des individus. Mais, si la critique du managerialisme est souvent pertinente, dénigrer par principe toute théorie qui s’intéresse aux motivations et aux incitations des agents revient à rejeter des pans entier des sciences sociales, à commencer par le marxisme : la lutte des classes n’oppose-t-elle pas des groupes aux intérêts contradictoires motivés par la poursuite de leur intérêt ? Doit-on pour autant condamner Marx comme un vulgaire utilitariste ? Ce n’est manifestement pas ce que pensent les responsables du MAUSS, qui ont consacré à l’héritage intellectuel marxiste un recueil que je n’ai pas lu, mais dont la description laisse penser qu’ils sont un peu plus nuancés dans leur critique du marxisme que dans celle du l’utilitarisme (le quatrième de couverture reconnaît, doit-on le dire, des traits utilitaristes à Marx).

Cinquièmement, quand les utilitaristes parlent de bien être, ils ne parlent pas d’argent. JL Laville appelle de ses voeux une prise en compte de la « pluralité des motivations humaines ». Jacques Dewitte souligne l’importance de l’école, la culture, le plaisir du savoir pour le savoir. Invité à répondre, l’utilitariste Bozzo-Rey est un peu désemparé, réduit qu’il en est à énoncer que la culture et le savoir contribuent au bien être des hommes, et qu’à ce titre, les utilitaristes ont toutes les raisons de les apprécier. Faut-il dire qu’il est tellement plus facile d’être prolifique en répondant à une question pertinente…

Enfin, dernier point, mais certainement le plus important : l’utilitarisme n’a rien d’évident, a été l’objet de nombreuses critiques, et, pour ma part, je ne suis pas utilitariste, précisément parce que j’ai été convaincu par ces critiques. Ce qui est fascinant, c’est qu’aucune de ces critiques n’a été mentionnée dans cette émission pourtant consacrée à l’antiutilitarisme. J’ai déjà cité Nozick et Sen comme étant deux critiques de l’utilitarisme. J’ai dit que Nozick lui reprochait de ne pas s’intéresser à la légitimité de l’action publique. Sen, pour sa part, qui se revendique du conséquentialisme (donc, à la différence de Nozick), considère que le bien-être n’est pas le critère pertinent. Je m’appuierai sur un des ses arguments. Sen met en avant la résilience dont font preuve les individus, c’est à dire leur capacité d’adaptation à leur sort. Ainsi, une femme à qui on interdit de s’instruire ou de travailler pourra très bien se faire une raison, et mener une vie paisible et heureuse. Ainsi, un homme réduit à l’esclavage pourra, pour éviter la folie, se forcer à accepter son sort en se disant que, finalement, il n’est pas si détestable car au fond, il est logé, nourri et soigné. Pour Sen, se focaliser sur le bien être conduit à ne pas dénoncer l’injustice faite à cette femme et à cet esclave, et le fait qu’ils se soient fait une raison n’y change rien. Le critère pertinent n’est donc pas leur bien-être mais, selon Sen, la capacité effective qu’ils ont de mener leur vie comme ils l’entendent (les fameuses « capabilités » de Sen).

Ce genre de critiques fatales contre l’utilitarisme ne sont jamais évoquées par les invités de France Culture. Pourquoi ? Poser la question, c’est prendre le problème à l’envers. En réalité, la motivation de Laville et Dewitte n’est pas de critiquer l’utilitarisme, mais de venter les vertus de l’action désintéressée, du don, de l’action sociale. En soi, ce sujet est passionnant. Mais s’il l’est, c’est précisément parce qu’il pose la question de la motivation des agents. La motivation d’un trader est généralement de gagner beaucoup d’argent. Mais quid de la motivation d’un bénévole dans une association de lutte contre la faim ? Je vais me laisser aller à une conjecture. La véritable motivation du MAUSS est en fait de faire la promotion d’une sorte d’homme nouveau, un homogratisus, dont les motivations seraient entièrement altruistes, et qui serait la clé de voute d’un monde nouveau, duquel serait bannie toute forme d’égoïsme. Ainsi, le but de ce mouvement ne serait pas tant de faire progresser la connaissance en science sociale que de faire du prosélytisme pour un projet politique dans lequel ses membres fondent tous leurs espoirs. Les deux sont-ils incompatibles ? En l’espèce, il semblerait bien : je n’imagine pas que, lors de conférences au cours desquelles sont vantés les mérites de l’action désintéressée, des économistes, des sociologues, des psychologues, ne posent la question de savoir ce que sont les motivations sous-jacentes. S’agit-il d’empathie ? Je souffre de voir autrui souffrir. S’agit-il de s’acheter une bonne conscience pour des gens qui, dans la vie de tous les jours, font des choses qu’ils réprouvent par devoir professionnel ? S’agit-il de stratégies visant à se construire une bonne image ou un réseau social puissant ? Est-ce simplement sincère ? La réponse varie certainement selon les personnes, mais poser ces questions, c’est déjà douter de la pureté des comportements altruistes. Illustration avec ces propos de JL Laville :

« J’ai un peu regardé ce que disent les économistes sur les associations : selon eux, quand il n’y a pas d’intérêt financier, c’est qu’il y en a un autre, comme faire passer des idées ». Oh… ça c’est méchant ! Le MAUSS ne constitue-t-il pas un parfait contre exemple ? Alors plutôt que de chercher à répondre, mieux vaut dénoncer ce type d’interrogations comme relavant de la vulgarité, et comme le langage populaire fait de l’utilitarisme le comble de la vulgarité, autant les englober sous ce terme générique.

Finissons par ce moment de lucidité de JL Laville vers la fin de l’émission.

« j’avoue mon ignorance : je n’ai pas lu Bentham donc j’emploie le mot utilitarisme dans un sens général… »

On pourra juste regretter qu’il mette sur le compte du « sens général » ce qui n’est qu’une démonstration d’une paresse intellectuelle manifeste.

Retraités américains ruinés par la crise

L’émission envoyé spécial proposait avant-hier un reportage poignant présentant des retraités américains en quête désespérée d’un emploi pour survivre. La raison : les travailleurs américains cotisent pour la retraite en investissant leur épargne en bourse. Or, la crise a fait chuter le cours des actions. Donc certains retraités sont ruinés, condamnés soit à travailler, soit à se contenter d’une pension misérable et de la charité publique pour survivre. 

On peut avoir deux lectures de ce reportage.

La première consiste à le prendre pour ce qu’il est : un témoignage. En effet, des gens faibles (car âgés) souffrent, en conséquence de l’argent qu’ils ont perdu lors de la crise financière. De ce point de vue là, le reportage est assez bon. Il fait entrer le téléspectateur en empathie avec la détresse de ces gens.

La seconde consiste à en tirer des enseignements généraux sur la bourse ou sur le système social américain. A cet égard, le reportage m’a paru critiquable, car il ne fournit pas les clés de lecture nécessaires pour passer de l’étude de quelques cas douloureux à une réflexion plus générale. En l’absence de ces clés, le téléspectateur est tenté de généraliser naïvement, en prenant des cas extrêmes pour le cas général : la bourse est un casino, à la moindre crise, des millions de retraités se retrouvent sans rien pour vivre. Il faut dire que le résumé du reportage (sur le site de l’émission) n’incite pas à prendre du recul :

Les fonds de pensions ont perdu près de 2 000 milliards de dollars aux Etats-Unis et des millions d’américains découvrent avec effroi qu’ils vivront plus vieux que leurs économies. A partir de 65 ans et au-delà, ils sont obligés de retrouver du travail, de repartir à zéro pour assurer leurs vieux jours…

Qui est désigné par le ils de la phrase « A partir de 65 ans et au-delà, ils sont obligés de retrouver du travail (…) » ? Des millions (combien ?) d’américains ? Des millions d’américains de plus de 65 ans ?

Les deux éléments qui manquent à ce reportage sont les suivants : 1) les ordres de grandeur et 2) une comparaison entre ces infortunes particulières et l’évolution du marché dans son ensemble.

Pour le premier point, je n’ai rien entendu dans le reportage qui permette de quantifier le phénomène des retraités ruinés (caveat : j’ai raté les cinq premières minutes…). Le seul élément que j’ai entendu est, après reportage, l’annonce du poids des retraités dans la population américaine, ce qui, convenons-en, n’a guère à voir avec le problème. Ce qu’on aurait eu envie d’entendre, c’est par exemple le pourcentage des retraités américains qui sont passés sous le seuil de pauvreté entre début 2007 et fin 2009. Ou, plus simplement, l’augmentation du nombre de retraités américains postulant pour un emploi sur cette période. 

Quant au second point, son absence fait perdre au journaliste l’occasion d’un bel exercice de pédagogie en matière d’investissement. Le graphique suivant représente l’évolution du S&P500 (un des principaux indices boursiers américains) entre 1990 et aujourd’hui.

On l’observe, entre son point culminant en 2007 et le creux du début 2009, la valeur de l’indice a été divisée par deux. On peut donc bien parler de ruine. (Pour être honnête, un graphique similaire a bien été présenté dans le reportage : il était sur l’écran d’un conseiller financier, avec une échelle trompeuse, laissant penser que l’effondrement était bien plus important. Le problème tient surtout au fait qu’il n’était pas commenté). Mais qui donc est concerné par cette ruine ? En fait, uniquement les investisseurs qui ont placé toute leur épargne en bourse au moment du pic, et qui l’ont retirée au creux de la vague. Certainement pas, par conséquent, des retraités qui auraient investi leur argent dans les actions du S&P500 régulièrement pendant leur vie active. Mais, même en admettant que tous ces retraités aient effectivement tout investi au pic et tout revendu au creux, comment se fait-il qu’ils aient pu perdre, comme c’est le cas de certains des protagonistes du reportage, jusqu’à 80% de leurs économie, quand l’indice n’a perdu que 50% de sa valeur ? C’est, à mon sens, sur cette question que les journalistes auraient dû insister, car c’est une question fondamentale. La réponse est simple : si confier ses économies au marché financier est risqué comme le montre le graphique, les investir en bourse en se croyant plus malin que le marché est nettement plus risqué.

Parler d’efficience des marchés financiers dans la conjoncture actuelle suscite bien des rires moqueurs. Mais rappelons que, dans son sens le plus étroit du terme, l’efficience des marchés financiers ne signifie rien d’autre que : you can’t beat the market. On a beau chercher, on n’a pas encore trouvé de technique d’investissement permettant, de manière durable, de gagner plus que le marché pris dans son ensemble, pour une prise de risque donnée. Pour un investisseur averse au risque (comme le sont vraisemblablement ces retraités qui comptent sur leur épargne pour vivre), le meilleur moyen d’investir en bourse est d’acheter « le marché », c’est à dire, concrètement, un peu de toutes les actions du S&P 500. Une autre façon d’acheter le marché est de confier son épargne à différents fonds (en France des SICAV ou FCP) dont la politique est de suivre l’évolution du marché financier. Concrètement, nombre d’américains cotisent auprès de fonds de pension, dont la politique est justement prudente et diversifiée. Ce document de l’OCDE, écrit en 2009, donc avant la remonté des cours, indique que les fonds de pension ont bel et bien souffert pendant la crise financière. Mais la perte moyenne en 2008 est de 23% pour les pays développés, 26% pour les USA (le record étant atteint par l’Irlande avec une perte de 37,5%, en raison d’une part des fonds investie en actions plus forte que dans les autres pays). Là encore, on est loin de l’image de retraités américains ayant tout perdu ou presque, et, rappelons-le, c’est un bilan tiré avant la remonté des cours.

Pourquoi faut-il diversifier ses investissements ? L’explication est la suivante. le risque associé à une action a deux composantes : une composante systémique et une composante spécifique. La composante systémique provient de l’effet d’entraînement qu’a le marché dans son ensemble sur chacun des titres qui le composent : quand le cac40 s’effondre, toutes les actions du cac40 ont tendance à s’effondrer. La composante spécifique, c’est le risque inhérent aux aléas de la vie d’une entreprise, indépendamment de la conjoncture. Une entreprise innove avec succès : son action va monter. Une autre perd des parts de marchés : son action va baisser. La diversification ne peut rien contre le risque systémique, mais elle peut faire disparaître le risque spécifique.

Supposons que vous deviez investir 100 euros, et qu’il existe une infinité d’actions »quitte ou double » : pour chacune de ses actions, il faut tirer à pile ou face. Pile, c’est la ruine, face, le doublement de la mise. Si vous placez vos 100 euros dans une seule de ces actions, en moyenne vous ne perdez rien, mais vous avez une chance sur deux d’être ruiné. Si vous placez 50 euros dans une action, 50 dans une autre, vous n’avez plus qu’une chance sur quatre d’être ruiné, une sur quatre de doubler votre mise, une sur deux de garder votre mise. Si vous placez 1 euros dans 100 actions différentes, la probabilité de tout perdre n’est plus que de 0.5^100 (« ^ » veut dire « puissance »), soit 0,00000000000000000000000000008%. Si vous poursuivez la diversification, par exemple en investissant 1 cent dans 10000 actions différentes, vos gains vont prendre l’allure d’une courbe en cloche centrée autour de 0.

Au-delà de l’intérêt de la diversification, il existe un autre argument favorable au fait d’investir dans le marché dans son ensemble : ça évite le boursicotage, activité hautement déconseillée. Boursicoter, c’est croire que parce que mon quotidien financier annonce de bonnes nouvelles dans le secteur de la distribution, il faut que je vende tout pour acheter massivement des actions du secteur de la distribution. Cette stratégie est vouée à l’échec car les informations sont intégrées si rapidement aux cours, que le temps que vous réagissiez, ceux-ci ont déjà augmenté, vous empêchant de profiter de la bonne nouvelle. Par contre, ça n’empêchera pas votre intermédiaire de récolter une belle commission dans l’opération, à votre détriment bien sûr.

En plus de la diversification, les spécialistes de la finance donnent un second conseil : si le marché vous semble trop risqué malgré la diversification, n’y investissez qu’une part de votre patrimoine, mettez le reste dans des actifs sans risques comme des obligations d’Etat (non grec…), en choisissant des obligations dont la date de remboursement est aussi proche que possible de la date à laquelle vous comptez utiliser votre argent. Un quadragénaire constituant une épargne pour ses lointains vieux jours n’aura peut-être pas grand chose à craindre à investir l’intégralité de ses économie sur les marchés financiers (voire (Coyote Auto Corrector 2.0) plus, en s’endettant pour obtenir un effet levier). En revanche, approchant de la soixantaine, il commencera à vouloir sécuriser son patrimoine, et transfèrera progressivement ses fonds vers des placements obligataires.

Revenons-en à nos retraités en faillite. A la lumière des principes fondamentaux que nous venons de rappeler et de l’évolution du S&P500, on peut penser que ces déshérités sont des gens qui ont été mal conseillés, et qui paient au prix fort leur manque de diversification. On peut également penser qu’ils sont loin d’être représentatifs de l’ensemble des retraités américains.

Doit-on pour autant en conclure qu’ils sont responsables de leur sort, et qu’ils ne sont donc pas à plaindre ? La question posée est celle du paternalisme. Il existe manifestement un conflit entre la liberté de chacun de faire ses propres choix en matière de prise de risque, et le caractère détestable de la situation de ces retraités ruinés qui, s’ils sont vraisemblablement minoritaires, existent bel et bien. C’est le problème de la consistance temporelle : l’État ne peut, de manière crédible, annoncer qu’il ne viendra pas en aide à un vieillard ruiné par de mauvais placements. La tentation est grande, alors, de prendre des risques en se disant qu’en cas d’échec, on bénéficiera de la solidarité nationale. Car si la diversification réduit, dans l’exemple donné plus haut, la probabilité de la ruine, elle réduit de façon symétrique la probabilité de doubler sa mise initiale.

La solution, alors, est de garantir à chacun une retraite minimale, financée par des prélèvements obligatoires, et de laisser aux épargnants la liberté de gérer le reste de leurs économie comme ils l’entendent (quitte à leur proposer des formations sur les vertus de la diversification). Le problème avec cette solution… c’est qu’elle réinvente l’eau chaude ! Même aux Etats Unis, comme les journalistes ne l’ont pas rappelé dans le reportage, il existe un système public de retraites. Le document de l’OCDE mentionné plus haut indique même qu’il est majoritaire, puisque les retraites privées ne représentent chez l’oncle Sam que 45,1% des retraites totales.

D’ailleurs, les pensions publiques n’étaient pas absentes des témoignages du reportage. Notamment, une de ces victimes de la crise se plaignait de ne plus pouvoir compter que sur sa pension de 1500$ mensuels pour son couple. Ça n’est certes pas énorme, et l’on comprend la détresse de celui qui s’attendait à gagner davantage. Mais n’oublions pas que c’est supérieur au seuil de pauvreté américain, qui est de 1214$ pour un couple. On peut donc raconter son histoire d’une façon différente : sachant que, quoi qu’il arrive, le système public de retraites lui garantirait un revenu supérieur au seuil de pauvreté, cet homme a choisi de prendre des risques en bourse. S’il avait gagné, il aurait eu une retraite en or. Il a perdu, il est déçu, mais il bénéficie tout de même de sa pension.

Dit comme ça, forcément, ça rend le récit moins sensationnel, et peut être moins vendeur pour un journaliste. Mais comme dirait Olivier Bouba-Olga, ce n’est pas de l’optimisme : c’est un recadrage.

Anna Schwartz et la crise

J’aime beaucoup Anna Schwartz, car elle a co-écrit avec Milton Friedman un des quelques livres de macroéconomie qui ont compté au vingtième siècle : A monetary history of the United States. Ce livre est facile à résumer : la monnaie a de l’importance dans les fluctuations de l’activité économique. Et, en particulier, elle en a eu dans la grande dépression. Le début des années 1930 a été marqué par une série de faillites bancaires qui ont conduit a une forte diminution de la masse monétaire (la somme de tous les moyens de paiement : billets + comptes courants). Selon Friedman et Schwartz, cette contraction de la masse monétaire a freiné la dépense des agents économiques, conduisant à la crise. Cette histoire peut sembler quelque peu familière aujourd’hui, mais il faut savoir qu’à l’époque où ce live est sorti, les keynésiens triomphants nourrissaient le plus grand des mépris pour la politique monétaire. Selon eux, la crise avait démontré l’inefficacité des politiques monétaires, car les taux d’intérêt extrêmement faibles alors pratiqués par la federal reserve n’avaient pas évité la déroute. Schwartz et Friedman se sont opposés à cette opinion dominante en montrant que, bien au contraire, la politique monétaire avait été restrictive. D’une part, la faiblesse des taux d’intérêt n’était qu’illusoire, car les taux d’intérêt réels, c’est-à-dire déduction faite du taux d’inflation, étaient élevés, puisque l’inflation a été négative sur la période. D’autre part, le taux d’intérêt n’est pas le seul canal par lequel la masse monétaire influence la dépense globale, d’où l’importance, selon eux, de mettre en lumière la contraction de la masse monétaire.

Les monétaristes, comme on a appelé les partisans de la thèse de Friedman et Schwartz, ont souvent été raillés [1], parfois à juste titre, pour leur obsession pour la masse monétaire. On peut notamment, à l’instar de Paul Krugman, leur reprocher d’en faire l’élément déclencheur de la crise. Mais force est de constater qu’ils ont converti la plupart des macroéconomistes à l’idée que la monnaie avait, au moins, une certaine importance.

Il faut comprendre que les débats, à cette époque, étaient rendus plus vifs par leur charge idéologique. En effet, pour les keynésiens, si la politique monétaire était inefficace, il fallait utiliser des moyens bien plus interventionnistes pour stimuler la dépense globale, passant par la dépense publique. Plus généralement, la crise était pour eux un signe de l’instabilité intrinsèque de l’économie de marché. Pour les monétaristes, au contraire, la crise avait été provoquée par l’incurie de quelques fonctionnaires négligents de la fed, et certainement pas par le fonctionnement de l’économie de marché. 

Aujourd’hui, Milton Friedman n’aura sans doute pas l’occasion de donner son opinion sur la crise actuelle, puisqu’il est mort. En revanche, du haut de ses 92 printemps, Anna Schwartz a donné à Guy Sorman ses impressions. Et, sans surprise, elle accuse à nouveau les autorités monétaires d’avoir provoqué la crise.

L’argument mérite d’être entendu, mais il me surprend un peu, puisqu’il ne me semble guère compatible avec la théorie monétariste. En effet, à la différence de la grande dépression, sa critique ne porte pas tant sur la gestion de la crise que sur la décennie de politiques monétaires qui la précède. Certes, pour la grande dépression, Friedman et Schwartz ont souligné le caractère trop expansif de la politique monétaire dans les années 20, ce qui a conduit a des excès boursiers. Mais le cœur de la critique portait sur la contraction de la masse monétaire pendant la crise.

Aujourd’hui, quelle est la situation ? Le graphique suivant, réalisé à partir des statistiques monétaires de la fed et des données sur le PIB du BEA, représente l’évolution dans le temps depuis janvier 1991 de trois variables : la masse monétaire au sens strict, à savoir M1 (les billets et les comptes courants), la masse monétaire à un sens plus large, M2 (M1+ tout un tas de livrets ou de comptes d’épargne très liquides avec lesquels vous ne risquez pas de payer votre écran plasma, et qui donc ne sont pas vraiment de la monnaie, mais dont vous pouvez transférer les fonds sur votre compte chèque en un simple clic de souris), et le PIB réel des USA. Ces trois variables sont présentées en base 100 pour janvier 1991.

Qu’observe-t-on ?

Tout d’abord, on remarque quelque chose que les professeurs d’économie monétaire soulignent parfois par parenthèse sans trop s’y attarder à leurs étudiants, à savoir que les différents agrégats monétaires n’ont pas la même évolution, et par conséquent, on peut raconter une histoire différente en choisissant un agrégat différent. Par exemple, si je souhaite fournir une analyse monétariste standard de la crise, je peux malhonnêtement choisir de commenter M1, en disant qu’au fond, c’est le seul agrégat authentiquement monétaire. Ce faisant, j’observe que la crise, commençant en 2007, a été précédée de plusieurs mois de stagnation de la masse monétaire, conduisant à une stagnation, puis à une contraction de la dépense globale.

Mais cette analyse serait vraiment malhonnête, car l’analyse de M2 montre que la monnaie, au sens large, a augmenté beaucoup plus rapidement que le PIB lors des dix années précédant la crise. Si les agents économiques avaient été restreints dans leurs dépenses par un manque de moyens de paiement, ils auraient tout simplement reversé une partie de leurs codevi (enfin, de leurs équivalents étatsuniens) sur leur compte courant pour palier à ce manque.

D’ailleurs, Anna Schwartz se garde bien de dire que la masse monétaire n’a pas assez augmenté. Selon elle, elle a trop augmenté, ce qui confirme qu’elle s’intéresse à M2 (ou M3) plus qu’à M1. Quelle est la conséquence d’un accroissement de la masse monétaire plus rapide que la production, selon les monétaristes ? A vitesse de circulation constante, la conséquence est une augmentation de l’inflation. Ce n’est pas ce qui a été observé aux USA depuis 10 ans. Pourtant, la conséquence de cet excès de liquidité a bien été une hausse de prix, mais pas de prix des bien de consommation. Lors de la bulle des dotcoms, ce sont les prix des actions, en particulier du Nasdaq, qui ont crû, lors de la bulle immobilière, ce sont ceux des maisons. Finalement, à ce stade, l’analyse monétariste est valable, à condition de comprendre le P de l’équation MV=PY au sens large, incluant le prix des actifs. L’enchaînement logique serait donc : excès de monnaie pendant 10 ans => bulles => krach => crise.

En revanche, ce qui met en défaut l’analyse monétariste, c’est l’extrémité du graphique, sur laquelle on lit que la masse monétaire a grimpé en flèche depuis août 2008, soit depuis plus de 6 mois.

(base 100 janvier 2005)

Or cette forte croissance des moyens de paiement ne s’accompagne visiblement pas, bien au contraire, d’une hausse de la dépense globale. Rappelons que, selon Friedman et Schwartz, si la masse monétaire ne s’était pas contractée au début des années 30, la crise aurait pris fin plus tôt. On m’objectera que 1-, l’impact de la masse monétaire sur la dépense est décalée (en moyenne de 16 mois d’après A monetary history of the United States), et que 2-, si d’autre facteurs que la monnaie font baisser la dépense globale, et ralentissent la vitesse de circulation, alors la masse monétaire devrait augmenter beaucoup pour maintenir la dépense globale. C’est là que le bât blesse, puisque Anna Schwartz, après avoir passé sa vie à prétendre qu’il n’y avait pas assez de monnaie en 1930, s’indigne de ce qu’au début d’une crise comparable, il y en ait aujourd’hui trop. Son argument est que, plutôt que de vouloir à tout prix éviter la crise, il est préférable de laisser le marché corriger les erreurs du passé. Si je le comprend bien, son argument me parait plus proche de l’analyse autrichienne du cycle que de l’orthodoxie monétariste : la période d’expansion monétaire aurait envoyé de mauvais signaux au marché. Le problème concernait donc davantage les prix relatifs, que l’inflation en soi, fut-elle boursière. Le cadre monétariste, au contraire, s’intéresse aux grandeurs agrégées. Dans ce cadre, si la dépense publique globale n’est pas assez importante pour que soient utilisées toutes les capacités de production du pays, alors une stimulation monétaire devrait régler le problème, et ce quel que soit le secteur qui bénéficie du stimulus.

Je dois confesser que je suis plus familier avec l’œuvre de Friedman qu’avec celle de Schwartz, et les contradictions que je crois déceler dans son discours trahissent peut-être simplement cette méconnaissance. C’est pourquoi je suis ouvert à tout commentaire pouvant éclairer ma lanterne, en plus de ceux qui rectifieront mes approximations (comme d’hab…).Édit le 25 février : cf, sur le même sujet, ce billet trouvé grâce à CH de rationalité limité


[1] « Another difference between Milton [Friedman] and myself is that everything reminds Milton of the money supply ; well, everything reminds me of sex, but I try to keep it out of my papers ».Robert M. Solow via éconoclaste.

[chiant] taux de préférence pour le présent, élasticité de substitution intertemporelle et joies de l’optimisation dynamique

(avertissement : ce billet est plus destiné aux étudiants googleurs en quête d’explications sur des questions techniques qu’aux lecteurs habituels du blog)

Je suis en train de préparer un cours de théorie de la croissance pour des étudiants en troisième année d’économie, et je me retrouve confronté à un gros dilemme, que doivent connaître tous les responsables d’un tel cours, lorsqu’il ne s’adresse pas à des polytechniciens : doit-on embêter les étudiants avec cet outil mathématique barbare qu’est l’optimisation dynamique, sachant qu’on peut comprendre l’essentiel du contenu d’un cours de croissance en en faisant l’économie ? Jusqu’à il y a quelques semaines, j’avais répondu par la négative à cette question, m’apprêtant à m’inspirer de l’excellent livre de Charles Jones, qui montre qu’on peut aborder des questions passionnantes sur le sujet sans mobiliser un niveau de caïd en math. J’ai, finalement, changé d’avis, et ce pour trois raisons.

La première, c’est que ces étudiants sont censés être bons en maths, puisqu’ils ont choisi une option MASS ou économétrie.

La deuxième, c’est que les articles académiques consacrés aux théories de la croissance sont à 99% envahis par l’optimisation dynamique, et qu’il serait dommage que ces étudiants ne soient pas capables de lire ces articles.

La troisième, c’est que l’optimisation dynamique est l’occasion de présenter aux étudiants deux notions que les économistes adorent mais qui sont parfaitement inconnues du grand public : le taux de préférence pour le présent et l’élasticité de substitution intertemporelle. Voici comment je compte présenter ces deux concepts.

Tout part d’une question : pourquoi doit-on payer un intérêt lorsque l’on emprunte de l’argent ?

Cette question n’est pas nouvelle. Une première réponse s’impose : c’est parce que l’on peut investir l’argent que l’on emprunte dans des activités productives et ainsi gagner de l’argent. Si l’intérêt est inférieur au taux de rendement des investissements productifs, un épargnant investira plutôt qu’il ne prêtera. Mais cette réponse n’est que partielle. Pourquoi des individus acceptent-ils d’emprunter avec intérêt lorsque le but de leur emprunt est de consommer, et non d’investir ? Si je cherche à maximiser ma consommation de biens et services dans ma vie, j’ai tout intérêt à ne jamais emprunter à des fins de consommations, et j’ai même intérêt à prêter l’intégralité de mes revenus actuels, afin de maximiser mes revenus futurs et donc ma consommation future. Si je gagne 100 par an et que le taux d’intérêt est de 5%, j’ai tout intérêt à prêter aujourd’hui les 100 que je gagne, pour consommer 100*1,05 + 100 = 205 demain, plutôt que de consommer 100 aujourd’hui et 100 demain, soit 200 en tout. Et à plus forte raison, je n’ai aucun intérêt à emprunter 50 pour consommer 150 tout de suite, car je devrai rembourser 52,5 demain, et ne pourrai ainsi consommer que 100-52,5=47,5, soit 197,5 en tout.

Et pourtant, à peu près personne ne tient ce raisonnement selon lequel il faudrait investir tout son revenu afin de maximiser sa consommation sur l’ensemble de son existence.

Si personne ne se comporte de la sorte, c’est que maximiser sa consommation n’est l’objectif de personne. Autrement dit, personne ne cherche à maximiser la fonction C0+C1+C2…+CN, où Ci désigne la consommation à la période i, et où N est la durée de vie d’un individu. A cette simple somme de consommations, les économistes apportent deux modifications pour modéliser le comportement d’épargne/emprunt des ménages.

Première modification : le taux de préférence pour le présent. Préférez-vous que je vous donne 100 euros aujourd’hui ou dans 10 ans ? Sans doute me répondrez-vous que vous préférez que je vous les donne tout de suite. C’est bien normal, car en plaçant ces 100 euros à la banque, vous aurez dans 10 ans plus de 100 euros, et donc vous donner 100 euros aujourd’hui plutôt que dans dix ans revient tout simplement à vous donner plus d’argent. Mais qu’en est-il si je vous offre un billet de spectacle non-revendable à utiliser aujourd’hui ou dans 10 ans, pour le même spectacle ? Cette fois-ci, l’argument du taux d’intérêt ne tient pas, car vous ne pouvez pas prêter ce billet de spectacle. Si vous ne l’utilisez pas à la date prévue, il est perdu. Pourtant, même dans ce cas, il est probable que vous préfériez disposer de ce billet de spectacle aujourd’hui plutôt que dans 10 ans. En d’autres termes, indépendamment de toute référence au taux d’intérêt, vous préférez une consommation aujourd’hui à la même consommation dans 10 ans. Pour modéliser ce phénomène, les économistes introduisent le taux de préférence pour le présent, qui consiste à écraser les consommations futures afin de leur donner moins de poids qu’aux consommations présentes. Si l’on s’en tenait à cela, cela signifierait que les agents économiques cherchent à maximiser non pas leur consommation globale C0+C1+C2+…+CN, mais une sorte de moyenne pondérée de ces niveaux de consommation, avec une pondération d’autant plus faible que l’on est loin dans le futur. La fonction à maximiser serait alors C0+C1/(1+r)+C2/(1+r)2+…+CN/(1+r)N où r>0est le taux de préférence pour le présent. Plus ce taux est important, plus la consommation future est dépréciée. Dans ces conditions, si épargner aujourd’hui permet toujours de consommer davantage demain, il n’est plus nécessairement justifié d’épargner tout son revenu, car on attache moins de valeur à une consommation demain qu’à une consommation actuelle.

Seconde modification, l’élasticité de substitution intertemporelle. L’introduction du taux de préférence pour le présent permet de comprendre que les arbitrages des ménages ne soient pas systématiquement en faveur des consommations futures : certes, en épargnant, je pourrai consommer davantage demain, mais j’attache moins d’importance à cette consommation future qu’à une consommation présente. Pourtant, cela ne suffit pas. Penser que les ménages cherchent à maximiser la fonction C0+C1/(1+r)+C2/(1+r)2+…+CN/(1+r)N pose deux problèmes.

Premièrement, pour un ménage donné, maximiser une telle fonction implique de s’endetter au maximum pour tout consommer aujourd’hui si le taux de préférence pour le présent est supérieur au taux d’intérêt, ou au contraire à tout épargner aujourd’hui pour maximiser la consommation future si le taux de préférence pour le présent est inférieur au taux d’intérêt. Cela n’est guère réaliste.

Deuxièmement, cette modélisation suppose que l’on ne peut renoncer à une consommation présente au profit d’une consommation future que si cette consommation future est supérieure à la consommation présente sacrifiée. Or cela n’est pas réaliste non plus, même si c’est moins évident. Supposons que nous traversions une longue période de taux d’intérêt réels négatifs, en raison d’une inflation supérieure au taux d’intérêt nominal. Supposons également qu’il n’existe pas de régime de retraite, et que vous soyez contraint de partir à la retraite dans 10 ans. Seriez-vous disposé, dans ces conditions, à épargner aujourd’hui une partie de l’argent que vous gagnez afin d’avoir de quoi manger à la retraite, tout en sachant que les sommes récupérées à la retraite seront inférieures aux sommes investies ? Il est probable que vous répondiez oui à cette question, car rares sont les personnes qui accepteraient de vivre sans argent pendant des années. Vous accepteriez donc de sacrifier une consommation actuelle au profit d’une consommation future moindre. Ce qui semble incompatible avec l’idée d’un taux de préférence pour le présent, mais ne l’est en fait pas. Dans cet exemple, la comparaison se fait entre des consommations à deux périodes différentes, mais aussi entre deux niveaux de consommation différents : dans un cas, vous avez de l’argent, donc vous avez un certain niveau de consommation, dans le second cas, vous ne gagnez rien, et donc ne pouvez rien consommer si vous n’avez rien épargné. Or, peut-on penser qu’un euro de consommation ait la même valeur pour quelqu’un qui gagne sa vie de façon raisonnable et pour un pauvre qui ne gagne strictement rien ? Sans doute pas. Donnez 50 euros à un pauvre, vous lui ferez infiniment plus plaisir que si vous donnez la même somme à un milliardaire. Dans l’exemple précédent, épargner revient à sacrifier une partie de votre consommation à une période où vous avez de l’argent au profit d’une consommation à une période où vous n’en gagnez plus.

Si un euro de consommation a plus de valeur lorsque vous êtes pauvre que lorsque vous êtes riche, c’est que l’utilité marginale de votre consommation est décroissante. En d’autres termes, votre bien-être est une fonction croissante mais concave de votre consommation. Dans ces conditions, vous aurez tendance à préférer des profils de consommation homogènes dans le temps à des profils accidentés, avec des alternances de périodes de grande consommation et de périodes de grand dénuement.

Finalement, l’objectif que semblent maximiser les ménages est U(C0)+U(C1)/(1+r)+U(C2)/(1+r)2+…+U(CN)/(1+r)N, où U() est une fonction croissante et concave, qui a pour effet d’écraser les unités de consommations élevées, afin de leur donner moins de poids qu’aux premières unités. On appelle généralement cette fonction la fonction d’utilité instantanée.

En résumé, deux facteurs doivent être mobilisés pour comprendre les comportements d’épargne/endettement des ménages, et leur disposition à payer un taux d’intérêt pour consommer : 1) ils tendent à préférer le présent au futur, 2) ils tendent à préférer des profils de consommation lisses à des profils accidentés.

Très souvent, les théoriciens de la croissance utilisent la fonction suivante, dite à élasticité constante : U(Ci) = Ci1-s/(1-s) où s>0 est l’inverse de l’élasticité de substitution intertemporelle (je zappe les explications). Plus s est grand, plus le ménage souhaite avoir un profil de consommation lisse.

Au bout du compte, pour interpréter les comportements d’épargne comme des comportements rationnels, il faut s’intéresser à deux paramètres : r et s. Plus r est grand, plus je préfère le présent au futur, plus s est grand plus j’attache d’importance à l’homogénéité de ma consommation dans le temps.

Que valent ces paramètres en réalité ? On peut montrer que (et c’est là qu’il me faudra être pédagogue en optimisation dynamique), lorsqu’ils résultent d’un comportement d’optimisation, les choix en matière d’épargne doivent respecter l’équation suivante, dite règle de Ramsey-Keynes :

g = (i-r)/s

où g est le taux de croissance de la consommation, et i le taux d’intérêt. Cette équation s’interprète facilement, si l’on garde présent à l’esprit qu’une forte croissance, dans ce type de modèles, est provoquée par une forte épargne. Dans ces conditions, cette équation nous dit que l’épargne (et donc la croissance) est d’autant plus forte qu’elle est fortement rémunérée (i fort), que les ménages se soucient de leur futur (r faible) et qu’ils acceptent un profil de consommation inégalitaire (en l’occurrence, au bénéfice des générations futures) (s faible).

L’équation de Ramsey-Keynes, très élégante, a hélas deux inconnues. Pour une valeur donnée du taux de croissance de la consommation et du taux d’intérêt, on peut établir une relation entre les deux paramètres, en la réécrivant, par exemple, r=i-sg. William Nordhaus, de l’université de Yale, se sert cette équation (cf p. 60 de ce document) pour calibrer le modèle qu’il utilise dans le cadre du débat sur le changement climatique. Etant donné un taux d’intérêt de 5,5% et un taux de croissance de 2% de la consommation, il retient s=2 et r=1,5%.

Il faut noter que ces paramètres ont une grande importance éthique, car d’eux dépend la manière dont ont traite les générations futures. Voyons pourquoi : clairement, si r est fort, cela signifie que l’on fait peu cas du sort des générations futures. On aura donc tendance à épargner peu, car on ne se souciera guère des moyens de productions qu’on souhaite leur léguer. En termes de changement climatique, cela signifie que l’on fera peu d’efforts actuels pour lutter contre un problème environnemental qui concerne essentiellement les générations futures. Concernant s, l’impact de ce paramètre sur le traitement des générations futures dépend de l’idée que l’on se fait de la croissance économique. Si, comme moi et comme beaucoup de monde, on considère que les générations futures seront plus riches que les générations présentes, alors un s plus élevé est défavorable aux générations futures. En effet, plus s est élevé, plus on souhaite avoir un profil de consommation homogène : par conséquent, on tendra à épargner peu pour consommer davantage maintenant, tandis qu’épargner plus tendrait à accentuer les disparités entre générations présentes et futures (au profit des futures).

On a beaucoup entendu parler, en 2007, du rapport Stern sur le changement climatique. Celui-ci est beaucoup plus pessimiste concernant le changement climatique que William Nordhaus. Et pourtant, Stern et Nordhaus s’appuient sur les mêmes données, et ont, en gros, le même modèle conceptuel pour penser le changement climatique. Mais Nordhaus estime que l’on devrait taxer les émissions de carbone à hauteur de 42$ par tonne en 2015, tandis que Stern préconise une taxe de 350$. Comment expliquer une telle différence ? Tout simplement parce que Stern utilise des valeurs différentes pour ces paramètres. Il choisit r=0,1% (à peu près) et s=1 contre, respectivement, 1,5% et 2 pour Nordhaus. Ces valeurs ne respectent pas, loin s’en faut, l’équation de Ramsey-Keynes. Mais, répond Stern, la question du choix de ces paramètres n’est pas empirique mais éthique : selon lui, le bien être des générations futures ne peut moralement pas être négligé, bien que le comportement d’épargne des ménages montre qu’ils ont sans doute un taux de préférence pour le présent bien supérieur à 0,1%. On pourra noter, avec Nordhaus, que ce choix éthique de Stern a pour conséquence que la moitié du coût du changement climatique tel qu’estimé par son rapport a lieu… après l’année 2800.

Passer par un tel détour de production pour modéliser un comportement d’épargne que certains, à l’instar de Robert Solow, le père de la théorie de la croissance, modélisent simplement en supposant qu’une fraction constante du revenu est épargné, est-il vraiment nécessaire ? A vrai dire je n’ai pas de réponse à cette question. Solow s’est montré assez sarcastique à l’égard de cette modélisation luxueuse, en expliquant qu’il n’y avait pas de raison fondamentale de penser que les très pompeux taux de préférence pour le présent et élasticité de substitution intertemporelle constituent une analyse plus fine de la psychologie des épargnants que la simple propension à épargner. Au fond, si un ménage a une faible propension à épargner, c’est bien qu’il s’agit d’un ménage impatient, et qui préfère un tiens à deux tu l’auras. Et pourtant, quand on a fait l’effort d’assimiler ces notions, en général, on a du mal à faire comme si elles n’existaient pas. En tout état de cause, étant donné qu’elles sont omniprésentes dans toute la littérature économique orientée vers les questions de croissance, il serait dommage de se fermer des portes en refusant de les comprendre.

Je ne sais pas si cette présentation est très éclairante. Si, parmi les lecteurs de ce blog, se trouvent d’anciens étudiants ayant souffert en cours de croissance, j’aimerais qu’ils me disent si les explications données dans cet article leur auraient permis de souffrir un peu moins, en tout cas pour cette partie du programme. J’attends vos commentaire !

(ps : cet article n’est pas mon cours, ni même un extrait, juste quelques idées sur ce qu’il devrait contenir)