mardi 4 octobre 2016

Immigration et performance macroéconomique

J'ai récemment mis la main, et eu à commenter, un papier étudiant l'interaction entre immigration et performance macroéconomique en France. J'ai trouvé cet article très bien rédigé, clair, et leur utilisation d'une base de données nouvelle permet d'apporter une quantité d'éclairages possibles sur le fonctionnement du marché du travail, sur la complémentarité entre le travail des résidents et des immigrés, et sur les possibles résultats contre-intuitifs - notamment sur le fait que l'immigration "subie" aurait un effet plus positif sur l'économie que l'immigration "choisie". Si bien que je reproduis ici telle quelle la note de lecture envoyée à ce sujet. 

(Lien vers une version gratuite de l'article : Immigration Policy and Macroeconomic Performance in France)

L'objectif de l'article est d'étudier les interactions entre la performance macroéconomique et l'immigration en France, sans se restreindre à un seul sens de causalité. Pour cela, les auteurs conduisent une analyse à l'aide d'un VAR structurel qui leur permet, sous certaines hypothèses identificatrices, d'isoler les chocs de demande et d'en étudier les effets sur le nombre de titres de séjour délivrés, mais également d'isoler les chocs d'immigration et d'en étudier les effets sur le revenu par habitant et le chômage.

Les données d'immigration utilisées couvrent la période de 1994 à 2008 et ont été compilées par l'INED dans une base qui fait figurer les flux mensuels de titres de séjour de longue durée délivrés, par motif – regroupement familial, travail, étudiant – par nationalité d'origine, sexe et âge. Les données de PIB par habitant sont celles publiés par la comptabilité nationale trimestrielle, mensualisées par l'indicateur de production industriel publié par l'OCDE. Le chômage mensuel provient également de données publiées par l'OCDE.

Les modèles estimés suivent la structure suivante : le PIB par habitant, le taux de chômage, et enfin un ou plusieurs indicateurs d'immigration. Les modèles diffèrent selon ce dernier, le premier considérant l'ensemble des titres de séjour émis, les autres se restreignant à certains motifs, groupes d'âges, sexes et pays d'origine, mettant ainsi à profit le détail des données utilisées. Les fonctions d'impulsion réponse sont calculées tout d'abord en supposant que les conditions macroéconomiques n'ont pas d'effet contemporain sur l'immigration mais uniquement avec un retard. Le PIB par habitant est supposé avoir un effet contemporain sur le chômage mais pas le contraire. Cela revient ainsi à identifier les chocs structurels de revenu, chômage et immigration à l'aide de la décomposition de Cholesky dans le cas où les variables sont ordonnées de telle façon à faire figurer l'indicateur d'immigration en premier, puis le PIB par habitant, puis le chômage. La robustesse de cette stratégie est par la suite testée en adoptant la méthode de « restriction de signe », dans laquelle les auteurs considèrent également toutes les décompositions conduisant à des chocs structurels de demande ayant un effet positif sur le revenu par habitant et négatifs sur le chômage pendant les 12 mois suivant le choc.

Les conclusions de l'article sont les suivantes :

  1. Le nombre de titres de séjour de long terme délivrés par l'administration répond de manière significativement positive, et de manière persistante, à l'amélioration des conditions macroéconomiques, et particulièrement lorsque l'analyse est restreinte aux titres délivrés dans le cadre du regroupement familial et de l'immigration de travail (respectivement 37,7 % et 7,8 % des titres délivrés sur la période). Une augmentation de 1 % du PIB par habitant augmenterait ainsi le flux de titres de séjour délivrés de 0,2 % la première année et de près de 0,3 % à moyen terme (trois ans). L'effet est plus élevé à court-terme dans le cas de l'immigration de travail mais plus persistent dans le cadre de l'immigration pour motifs familiaux. Il est similaire par groupes d'âge et par sexe. Il est notamment intéressant de noter que l'immigration de travail en provenance des pays en voie de développement réagit moins fortement à l'amélioration des conditions macroéconomiques que l'immigration de travail en provenance des pays riches. Les réponses de l'immigration pour motifs familiaux sont en revanche similaires quelle que soit la nature du pays d'origine.
  2. Le PIB par habitant augmente suite à un choc d'immigration, une conclusion qui reste robuste à travers tous les modèles étudiés – choc d'immigration pour motifs familiaux, professionnels, en provenance de pays développés, etc. Quantitativement, cette effet serait élevé : une hausse de 1 % du taux d'immigration est associée à une hausse du PIB par habitant de 0,4 % la première année. Cet effet reste légèrement positif, et statistiquement significatif, à un horizon de trois ans. Il est nettement plus important et persistant dans le cas de l'immigration pour motifs familiaux, et ce quelle que soit la nature du pays d'origine.
  3. L'immigration de travail augmente légèrement le chômage tandis que l'immigration pour motifs familiaux n'a pas d'effet significatif. Une augmentation de 1 % du nombre de permis délivrés pour motifs professionnels augmente le taux de chômage pendant trois ans de 0,5 % (soit 0,05 points de pourcentage pour un taux de chômage de 10%)  Cet effet disparaît lorsqu'on exclut de l'estimation la période 2003-2008, durant laquelle est survenu un changement de politique d'attribution des titres de séjour, au profit de l'immigration de travail.


Les auteurs proposent plusieurs interprétations pour leurs résultats et les comparent à la littérature existante. La réponse de l'immigration à l'amélioration des conditions macroéconomiques est en ligne avec la littérature, mais la distinction entre immigration de travail et immigration familiale permet d'analyser les canaux à l’œuvre, à savoir si l'effet traduit surtout une relaxation des conditions d'attribution des titres de séjour (canal de « l'offre ») ou une plus forte demande d'entrée sur le territoire. L'immigration familiale étant un droit accordé dans le cadre de conventions internationales, on peut s'attendre à ce que dans ce cas l'offre soit assez peu élastique aux conditions macroéconomiques. La forte réponse de l'immigration familiale à l'amélioration des conditions macroéconomiques montre ainsi que la demande joue un rôle important.

La réponse du chômage à un choc d'immigration est également en ligne avec la littérature, qui trouve généralement un effet soit légèrement positif, soit non significatif. Le fait que l'effet positif semble transiter par l'immigration de travail est une contribution originale de l'article. En revanche, l'article se démarque de littérature existante, et notamment celle sur données de panel, en trouvant un effet positif et persistant de l'immigration sur le PIB par habitant. Sur données françaises, les auteurs citent notamment Hunt (1992), qui étudie l'effet des rapatriés d'Algérie et trouve un effet négatif sur les conditions macroéconomiques. Ce résultat différent ne serait pas nécessairement dû à la méthodologie employée, dans la mesure où des modèles similaires sur données américaines trouvent un effet nul ou légèrement négatif à court terme (par exemple Kiguchi & Mountfort, 2013). Encore une fois, la distinction par motifs d'immigration permet aux auteurs de proposer plusieurs explications à ce résultat. Notamment, que l'immigration permet d'atténuer les effets du vieillissement de la population, en augmentant la   part de la population en emploi (effet de composition) et en réduisant les besoins de financement de la protection sociale (effet de pression fiscale). Le fait que cet effet soit plus important  dans le cas d'une immigration pour motifs familiaux, de personnes moins qualifiées ou pas encore en âge de travail suggère que d'autres canaux sont à l’œuvre. Les auteurs proposent la complémentarité entre les immigrants non qualifiés et les résidents, qui jouerait ainsi à plein sur le PIB par habitant, contrairement à l'immigration qualifiée. Un autre canal hypothétique serait celui de la réussite à l'école des enfants nés en France lorsque la part d'immigrants dans leur classe augmente. L'étude citée par les auteurs, (Hunt, 2012) sur données américaines, montrent qu'une augmentation de cette part augmente la probabilité que les enfants natifs terminent le lycée, mais cet impact n'a pas été testé en France.

Ces conclusions sont à mettre en lien avec la littérature sur l'ouverture commerciale et financière, et rejoignent un ensemble de travaux montrant que les gains potentiels à la mobilité sur capital humain sont plus importants que ceux liés à la mobilité du capital physique ou à l'ouverture commerciale, en raison de complémentarités plus importantes.

Commentaires :

Le principal apport de l'article est l'originalité de la base de données utilisée. Pour la France, c'est la première base de données sur si longue période, à une fréquence aussi fine. La plupart des résultats obtenus sur données françaises l'ont été jusqu'à présent à partir d'expériences naturelles et de données de panel. La méthode retenue ici, celle d'un VAR structurel, permet également de tenir compte d'éventuels effets d'équilibre général, qui ne sont a priori pas négligeables dans l'analyse.

La lecture des résultats faite par les auteurs semble être également tout à fait adaptée. Il est toutefois de rigueur de souligner les points suivants :

1) L'immigration est approchée par le nombre de titres de séjour de long-terme délivrés par l'administration, et non par le nombre d'entrées sur le territoire, légales ou non. Il est ainsi plus prudent d'interpréter l'impact d'un choc d'immigration sur les conditions macroéconomiques comme l'impact d'un choc d'immigration légale et de long-terme sur les conditions macroéconomiques. Que celui-ci soit fortement positif reste toutefois une conclusion intéressante.

2) L'analyse de robustesse conduite par « restriction de signe » concerne l'effet de l'amélioration des conditions macroéconomiques sur l'immigration. La robustesse des résultats concernant l'impact des conditions macroéconomiques sur l'immigration, et notamment leur dépendance à l'hypothèse de Cholesky, n'est pas discutée dans l'article. Notamment, si l'amélioration des conditions macroéconomiques peut être anticipée par les candidats à l'immigration, cela peut conduire à surestimer l'impact d'un choc d'immigration sur le revenu par habitant.

Références :

D'Albis, H., Boubtane, E., Coulibaly, D. : « Immigration Policy and Macroeconomic Performance in France », Annals of Economics and Statistics, Number 121/122, June 2016

Hunt, J. : « The Impact of the 1962 Repatriates from Algeria on the French Labor Market», Industrial and Labor Relations Review, 1992.

Hunt, J. : « The Impact of Immigration on the Educational Attainment of Natives », Tech. Rep. 18047, NBER Working Paper, 2012


Kiguchi, T. Mountford, A. : « The Macroeconomics of Immigration », Tech. Rep. 45517, MRPA Paper, 2013.

jeudi 29 septembre 2016

Le négationnisme économique : l'hypothèse nulle est-elle idéologique?

Le dernier livre de Pierre Cahuc et André Zylberberg fait beaucoup parler de lui. En premier lieu son titre suggère que ceux qui contredisent le consensus des économistes méritent d'être comparés à Robert Faurisson. En second lieu, les auteurs réussissent l'exploit d'accorder tous les bords politiques contre eux puisqu'ils tirent à boulet rouge sur les partisans d'une nouvelle gauche, sur les patrons, sur les poujadistes, sur les opposants à l'immigration, sur les faux keynésiens, et sur certains de leurs collègues, à la réputation pourtant bien établie mais qui s'expriment souvent dans les médias sur des sujets parfois éloignés de leurs spécialités.

Pour un bon résumé de la controverse, vous pouvez lire ici l'article de Xavier Ragot président de l'OFCE, un institut indépendant de recherche et d'analyse de la conjoncture, rattaché à Sciences Po à travers la FNSP. Xavier Ragot est un chercheur réputé qui se situe dans le top 7% des économistes au monde en termes de publications au cours des dix dernières années, donc quelqu'un ayant voix au chapitre selon les critères de Pierre Cahuc et André Zylberberg eux-mêmes (Cahuc étant dans le top 1%). La réponse des auteurs aux critiques de Xavier Ragot se situe ici

Le fil rouge du livre de Pierre Cahuc et André Zylberberg est que l'économie est devenue une science expérimentale, et que donc ses conclusions sont plus robustes que par le passé. Notamment, elles doivent être autant prises au sérieux que des études sur l'effet d'un médicament par analyse statistique sur groupe test par rapport au groupe témoin. Sur ce point, les auteurs ont raison de souligner la forte progression des papiers expérimentaux en économie, se fondant sur des variations exogènes à l'objet d'étude pour conclure sur l'effet d'une mesure. Par exemple, dans le cas de la réduction du temps de travail, l'étude sur données françaises citée par les auteurs est celle de Chemin & Wasmer publiée dans le Journal of Economics en 2009. Cet article utilise le fait que les entreprises située en Alsace-Moselle ont été moins contrainte que celles situées dans le reste de la France à réduire la durée légale du travail en raison du traitement de jours fériés supplémentaires datant de la période 1870-1918. L'article conclut qu'il n'y a pas eu de différence significative sur la trajectoire de l'emploi dans cette région. 

Plus de 70% des articles scientifiques économiques sont empiriques

Les auteurs ont-ils raison de dire que l'économie est devenue une science expérimentale? Si l'on en croit l'article de Daniel S. Hamermesh (2013) dont la table ci-dessous est issue, les papiers expérimentaux représentaient en 2011 près de 8% des papiers publiés. Ces observations sont cependant assez dépendantes de la définition qu'on peut avoir d'un protocole purement expérimental, et celle de Hamermersh est assez restrictive. Un papier comme celui Chemin & Wasmer (2009) n'y serait pas. Au final, le principal enseignement est que la part des papiers purement théoriques a fortement décru, au profit des papiers empiriques. 



Pour en revenir au titre de l'article, ce qui m'intéresse ici est la discussion autour de ce qui constitue une preuve en économie. Thomas Coutrot, économiste signataire du manifeste des économistes atterrés fortement critiqué dans le libre, s'est récemment exprimé sur le papier de Chemin et Wasmer dans un article publié sur le blog de Mediapart, en ces termes : "L’article de MM. Chemin et Wasmer, brandi pour prouver l’échec des 35 heures avec l’exemple de l’Alsace & Moselle, conclut en réalité … qu’il ne peut rien conclure". Dans leur livre, Pierre Cahuc et André Zylberbeg soutiennent au contraire, toujours en citant la même étude que "la plus forte réduction de la durée légale du travail dans le reste de la France n'a pas permis de créer plus d'emplois que dans le reste de la France". 

Ce que dit en réalité le papier, c'est qu'il n'est pas possible de rejeter l'hypothèse nulle, selon laquelle la réduction du temps de travail n'a pas d'effet sur l'emploi. Il est tout à fait standard, en matière d'évaluation des politiques publiques, de considérer comme hypothèse nulle, ou hypothèse par défaut, une absence d'effet de la mesure étudiée. Le test statistique permettra d'évaluer quelle serait la probabilité d'observer tel échantillon de données si l'hypothèse nulle était vraie. Ainsi, si la probabilité d'observer telles trajectoires d'emploi dans l'hypothèse que la réduction du temps de travail n'a pas d'effet sur l'emploi était de 0, on serait bien obligé de conclure que la réduction du temps de travail doit avoir un impact. Il est d'usage de considérer que toute probabilité située entre 0 et 5% doit conduire au rejet de l'hypothèse nulle. 

Or un test statistique n'est pas symétrique, il a plutôt tendance à privilégier l'hypothèse nulle. En somme, il faut de solides preuves pour s'éloigner du consensus. Si l'hypothèse nulle était que la réduction du temps de travail a créé 350 000 emplois, l'étude de Chemin et Wasmer aurait probablement conclu qu'il n'est pas possible de considérer que cette hypothèse est fausse. Cela est dû au fait que les données sont rarement aussi informatives qu'on le voudrait (et quand elles le sont, elles ont tendance à considérer que toute différence est significative, même entre deux ensembles générés aléatoirement et séparément...). 

"Ne pas choisir, c'est encore choisir"

L'absence de symétrie des tests statistiques et la parfois mauvaise utilisation de leurs conclusions est un phénomène bien connu des statisticiens, notamment de l'American Statistical Association, qui a mis en garde récemment contre l'utilisation sans précaution de p-value (la probabilité de non-rejet de l'hypothèse nulle). Néanmoins, une réflexion éthique sur la définition de l'hypothèse nulle manque. 

Le choix de l'hypothèse nulle est-il idéologique? En particulier, en évaluation des politiques publiques, faut-il considérer que l'hypothèse nulle est l'absence d'effet? Si oui, on pourrait penser que cela revient à privilégier l'idéologie selon laquelle rien n'a d'effet, et qu'il ne sert donc à rien de tenter quelque chose.

Je pense que Thomas Coutrot fait preuve de lecture idéologique lorsqu'il reformule la conclusion de Chemin et Wasmer en la faisant passer pour un "on ne peut rien conclure". Choisir comme hypothèse nulle tout autre point que l'absence d'effet introduit nécessairement un biais idéologique qui est difficile à défendre et qui ne passera pas la revue par les pairs chère à Pierre Cahuc et André Zylberberg, à raison. En outre, il est difficile de reprocher à la discipline de trop vouloir privilégier le statu quo. Il est bien connu qu'il est plus difficile de publier un article faisant état d'une absence de résultat qu'un article montrant un effet révolutionnaire, c'est dans la nature humaine, et particulièrement scientifique, de vouloir questionner. Peut-être que ce biais de publication est un moyen de rétablir l'équilibre face au biais de l'hypothèse nulle. 

Dans tous les cas, je conseille la lecture du livre de Pierre Cahuc et André Zylberberg, qui est nettement moins virulent que le titre ou la polémiques laissent croire. Il est également bien documenté, et aborde la question du "négationnisme" à travers cinq questions : la politique industrielle, la finance, l'impôt, la relance budgétaire, le partage du travail. Même si l'on est en désaccord avec le premier et le dernier chapitre, dans lesquels les auteurs dénoncent et proposent des solutions contestables à ce qu'ils appellent le "négationnisme", ces cinq chapitres centraux présentent des analyses récentes, validées par la communauté scientifique, et qui précisent les contours et les conditions d'applications de certaines théories. 


Références Bibliographiques :



mercredi 9 mars 2016

Clash of clans sur la loi "Travail"

La loi El Khomri sur le Code du travail a au moins ce mérite de susciter un débat très intéressant entre des économistes français parmi les plus réputés. Ces derniers s'appuient sur la même littérature économique, en ont chacun une interprétation assez proche mais portent un jugement différent sur la loi incriminée, probablement en raison de leurs opinions politiques. C'est frappant parce que les arguments sont quasiment les mêmes dans les deux tribunes, mais l'une dit "donc la loi El Khomri représente une avancée pour les plus fragiles" et l'autre "on est loin d'une politique effective de lutte contre le chômage durable". 

A ma droite (tout à fait fortuitement, j'aurais pu dire à ma gauche), ceux qui favorables à la loi. Parmi eux, Jean Tirole (TSE) et Olivier Blanchard (ex-FMI), les seuls économistes français avec Esther Duflo (mais qui ne n'est pas exprimée sur ce sujet) à figurer dans le top 100 des économistes de RePec selon la plupart des critères (nombre de citations avec différentes pondérations, succès des publications, réussite des anciens étudiants...). On y trouve également treize économistes dans le top 5% des économistes selon ces mêmes critères, et de nombreuses médailles prestigieuses, en France comme à l'international : un Nobel (Tirole), trois prix Yrjö Jahnsson (prix de l'association des économistes européens réservé aux économistes de moins de 45 ans), trois prix John von Neumann (récompense prestigieuse décernée par des étudiants), quatre médailles du CNRS et sept "meilleurs jeunes économistes" de France.  

A ma gauche, ceux qui y sont défavorables. Parmi eux d'excellents économistes également, dont cinq sont dans le top 5% des économistes de RePec, une médaille Clark (réputée précurseur du Nobel et décernée par l'association des économistes américains), un prix John von Neumann, deux médailles du CNRS et trois "meilleurs jeunes économistes de France". 

Olivier Bouba-Olga refuse de compter les galons, mais dans la mesure où ces tribunes s'adressent au grand public je pense qu'il est important de savoir que ceux qui les signent ont gagné le respect de leurs confrères. Si le lecteur n'est pas spécialiste de la question, il aura du mal à distinguer un expert d'un charlatan, un argument fondé sur des faits d'un argument idéologique, ou même une démonstration cohérente d'une suite de sophismes. Ensuite, les économistes ayant une réputation établie ont potentiellement plus à perdre lorsqu'ils prennent position ouvertement pour ou contre une loi. Par exemple, les auteurs de cette tribune, en tant que membres d'ATTAC n'ayant à leur actif aucune publication scientifique dans une revue à comité de lecture et dont la section "publication" de leurs sites personnels ne contiennent que des articles de presse, n'ont absolument rien à perdre s'ils ont torts et utilisent des arguments économiques WTF comme :

"Si un employeur sait à l’avance ce que va lui coûter un licenciement abusif, rien ne l’empêchera d’y avoir recours, ce d’autant plus qu’il pourra le provisionner dans une rubrique quelconque de ses comptes". 
Pouf pouf la magie de la comptabilité.


Bon maintenant, que disent ces tribunes? La première affirme que la loi El Khomri réduira les inégalités devant l'emploi, qui se manifestent par une forte polarisation du marché du travail, entre la majorité protégée et la minorité précaire. Selon ses auteurs, la réduction du coût et de l'incertitude entourant l'embauche en CDI réduira, aux yeux de l’employeur, le risque d'embaucher en CDI par rapport au risque d'embaucher en CDD. Pour aboutir à cette conclusion, ils citent l'Espagne qui a implémenté une réforme des indemnités de licenciement en 2012, et j'imagine qu'ils ont en tête le rapport de l'OCDE de 2013 qui en a évalué les premiers effets puisqu'ils reprennent le chiffre de l'OCDE de 25000 embauches en CDI de plus par mois (soit les 300000 en un an de l'article). Ils se fondent également sur une littérature assez abondante, dont certains des auteurs sont des contributeurs importants, qui étudie l'impact de certaines frictions - dont l'incertitude et les coûts de licenciement - sur non seulement les inégalités devant l'emploi mais également le niveau du chômage. Je ne suis pas un spécialiste du marché du travail et n'ai jamais enseigné ni participé à cette littérature, mais les méthodes économétriques employées sont solides et les arguments théoriques sont plutôt convaincants. Quant à savoir si cela s'applique à la France et à la loi El Khomri, c'est une autre histoire. Ils proposent également de renforcer les garanties données aux chômeurs, en terme de formation notamment, dans la plus pure tradition de la flexi-sécurité.

La seconde tribune affirme deux choses. Tout d'abord, la principale cause du chômage en 2015 en France ne serait pas l'existence de frictions sur le marché du travail mais la politique de réduction du déficit public, qui n'a pas pu être compensée par une politique monétaire suffisamment expansionniste. Le chômage a augmenté car la croissance était trop faible pour créer suffisamment d'emplois. Ce point ne fait pas vraiment débat en fait, et je ne pense pas que les auteurs de la première tribune objecteraient, en particulier Olivier Blanchard qui a beaucoup influencé le revirement anti-austérité du FMI et Thomas Philippon qui a analysé le fort impact des politiques budgétaires pro-cycliques dans un papier avec Philippe Martin en 2013. En revanche, je doute que personne ne croit vraiment que la loi El Khomri soit là pour relancer rapidement l'emploi. Comme toute réforme structurelle, elle ne peut porter ses fruits que lentement. Il existe même une littérature montrant que les réformes sur le marché du travail peuvent être légèrement contre-productives à court terme en situation de trappe à liquidité puisqu'elles accentuent les pressions déflationnistes. En somme, ce genre de réforme peut aider à réduire le chômage minimum atteignable, mais pas tant à l'atteindre si l'économie reste déprimée. D'ailleurs, ce n'est pas ce que disent les auteurs de la première tribune, et c'est un peu malhonnête de la part des auteurs de la deuxième tribune de le faire croire quand ils disent : 
"Rien ne permet d’asséner, comme cela a pourtant été fait par un certain nombre de nos collègues dans une tribune récente qu’une baisse des coûts de licenciement permettrait de réduire le chômage en France."
La seconde tribune entre ensuite réellement dans le vif puisqu'elle vient affirmer que la protection du CDI a plutôt des effets bénéfiques puisqu'elle permet à l'emploi de résister en cas de récession, quitte à ce qu'il reparte moins vite à la reprise (phénomène de rétention de main d'œuvre). Les fortes inégalités devant l'emploi ne seraient pas dues à la protection du CDI mais seraient le reflet des inégalités de formation, ne seraient pas un phénomène spécifique à la France puisque celles-ci existent également aux Etats-Unis et sont de même ampleur et ne seraient pas résolues par la loi El Khomri puisque 70% des embauches en CDD se font pour moins d'un mois et donc sont loin d'être concernées par le CDI. 

Ce point me laisse plus songeur. Le phénomène de rétention de main d'œuvre est avéré, et le papier de Bertola (également un économiste réputé) que citent les auteurs le montre assez bien. C'est probablement positif dans une certaine mesure et peut expliquer pourquoi la productivité s'est plus maintenue en France qu'au Royaume-Uni (en gros : on n'a pas jeté le bébé avec l'eau du bain...), pas trop si ce phénomène dure et empêche la réalisation d'investissements nécessaires via la compression des marges qu'il induit. 

En revanche, je ne sais pas si l'on peut dire que la protection du CDI n'a aucun rôle dans la polarisation du marché du travail en utilisant les arguments cités par les auteurs. Il est vrai que l'écart entre taux de chômage des non qualifiés et des qualifiés est de 1,5 dans les deux pays, mais je ne sais pas si c'est plus pertinent de regarder l'écart en ratio plutôt qu'en différence, et selon cette mesure l'écart entre les taux est de 1,3 à 2 fois plus élevé en France qu'aux USA depuis 2003. 



Ensuite le taux de chômage n'est pas la seule mesure des inégalités devant l'emploi. Si on s'intéresse à la part des emplois à durée indéterminée (cf. OCDE), les deux pays que les auteurs de la tribune citent comme ayant une protection du CDI plus forte (France et Allemagne) ont tous les deux des parts de CDI plus faibles (respectivement 84% et 87%) que le Royaume Uni et les Etats-Unis (respectivement 94% et 96%). En outre, derrière des parts proches, il peut y avoir de fortes différences si dans un pays ce sont toujours les mêmes à être en CDD tandis que dans un autre cela varie n'est jamais une fatalité. J'aimerais bien avoir des données sur le sujet. Enfin, c'est un peu tautologique, mais s'il y a plus d'écart de protection entre le CDD et le CDI, alors il y a plus d'inégalité entre être cantonné au CDD et être cantonné au CDI, même à parts identiques. 

Donc à travers ces désaccords d'économistes apparaissent surtout des désaccords politiques. Les auteurs de la première tribune sont prêts à sacrifier une partie de la protection du CDI pour réduire les inégalités devant l'emploi, les auteurs de la deuxième tribune minimisent - de manière peu convaincante à mes yeux mais libre à vous de penser autrement - le rôle que joue la protection du CDI dans ces inégalités, et je soupçonne que quand bien même ils pouvaient être convaincus, ils soutiendraient que cela ne vaut malgré tout pas le coup. 

On peut jouer le centriste, et s'apercevoir que les deux tribunes s'accordent à dire que la formation initiale et la formation professionnelle sont également des facteurs importants dans les inégalités devant l'emploi et doivent être réformées. Si on ajoute à cela l'effet de la politique économique sur le chômage à court-terme, il y a beaucoup plus d'accord que de désaccord entre tous ces économistes. Non je ne suis pas un bisounours. 

Si on parvient à évaluer cette question du rôle de la protection dans les inégalités face à l'emploi, et si la réduction de l'incertitude sur les coûts de licenciement (à distinguer du niveau de ces coûts) réduit également le chômage de long terme, il ne reste que des questions purement politiques : 

1) Faut-il dégrader la situation du plus grand nombre pour améliorer la situation d'une minorité précaire? Si oui, dans quelle mesure? 

2) Les bénéfices de la réduction de l'incertitude justifient-ils de remettre en cause le principe de réparation du préjudice subi? Si oui dans quelle mesure?


EDIT : Marc Ferracci, un des auteurs de la première tribune, a été assez gentil pour me fournir sur Twitter une liste de références bibliographiques concernant les effets sur l'emploi de la protection des contrats de travail, vous la trouverez ici : google doc











vendredi 13 novembre 2015

Les taux d'intérêt bas sont-ils déflationnistes ?

(Attention, article très long et plutôt technique)

C’est une proposition que de nombreux économistes avancent et connue sous le nom de Néo-Fishérienne, du nom de l’économiste américain Irving Fisher, connu pour ses travaux sur les taux d’intérêt et qui a donné son nom à une équation fondamentale dans les modèles utilisés pour analyser la politique monétaire. 

Ces modèles, dits d’équilibre général dynamique stochastique (DSGE en anglais), tiennent compte de l’ensemble des comportements des agents dans l’économie, et pas seulement de l’effet causal d’une variable sur une autre (équilibre général vs équilibre partiel), tiennent compte de la volonté des agents d’optimiser leur comportement sur plusieurs périodes (dynamique vs statique), et autorisent les variables exogènes (c’est-à-dire extérieures au modèle) à évoluer suivant des lois statistiques caractérisant la taille et la persistance des chocs subis par le système (stochastique). 

Ces modèles avaient pour but de répondre à la critique de Lucas selon laquelle il n’est pas pertinent d’estimer l’effet d’un changement de politique économique sur la base de relations statistiques passées, dans la mesure où les agents réagiront à ce changement de politique économique en formant de nouvelles anticipations. Notamment, la fameuse courbe de Philips donnant une relation décroissante entre inflation et chômage ne pouvait plus être considérée comme stable dans le temps, les critiques les plus extrêmes allant jusqu’à affirmer que celle-ci était simplement verticale, que le chômage ne dépendait que de facteurs purement structurels et que toute politique inflationniste n’aurait aucun effet positif sur le chômage.

Les premiers modèles développés dans les années 80 (RBC ou Real Business Cycles) faisaient donc l’hypothèse d’anticipations parfaitement rationnelles (les agents connaissent le modèle de l’économie et utilisent toute l’information à disposition pour optimiser leur comportement), d’une concurrence parfaite et de prix parfaitement flexibles. Ces modèles aboutissaient ainsi à une neutralité complète de la monnaie, c’est-à-dire au fait que la politique monétaire, que ce soit via les taux d’intérêts nominaux ou via la masse monétaire en circulation, n’avait aucun effet sur les variables dites réelles, à savoir le chômage et la croissance en volume, une conclusion contraire à ce que la littérature empirique affirme. 

Afin d’améliorer la pertinence empirique de ces modèles, une nouvelle classe de modèle a été développée à partir de ces premiers essais, grâce à l’introduction d’une concurrence monopolistique associée à une rigidité nominale des prix. Dans cette classe de modèles, les prix ne sont plus magiquement déterminés par le commissaire-priseur Walrasien et considérés comme donnés par les entreprises, mais sont le résultat du programme d’optimisation du profit dans un contexte où chaque entreprise est en situation de monopole sur la fourniture de son produit, et où les consommateurs retirent de l’utilité de la diversité de leur panier de consommation. Ainsi, une entreprise aura à choisir un prix assez élevé pour en profiter mais pas trop de manière à ne pas décourager la demande pour son bien. La marge des entreprises est ainsi directement reliée à la volonté des consommateurs à substituer un bien pour un autre lorsque son prix augmente. Enfin, la rigidité nominale peut être introduite de plusieurs manières, certaines étant formellement équivalentes, mais toutes conduisant à la constatation que les entreprises ne ré-optimisent pas leurs prix en continu, ce dont elles tiennent compte lorsqu’elles choisissent un nouveau prix : puisqu’elles seront coincées avec pendant un certain temps, ce prix dépend de leurs anticipations de la demande et des prix moyens futurs. Ces modèles ont été assez improprement appelés néo-keynésiens (NK), essentiellement parce que l’introduction d’une rigidité des prix permettait de retrouver la possibilité d’un chômage involontaire. En ce sens, ils sont plutôt néo-hicksiens. 

La version la plus élémentaire de cette classe de modèle, décrite par Woodford (2003) et Gali (2008) permet de capter les intuitions les plus importantes. Ce modèle en économie fermée, avec anticipations rationnelles et sans accumulation de capital, aboutit à trois équations fondamentales, les deux premières étant communes aux modèles RBC et NK. 

L’équation d’Euler décrit comme la demande évolue avec les taux d’intérêts et les anticipations de demande future, et provient de l’optimisation de programme de consommation-épargne des ménages. Dans cette équation, des taux d’intérêts réels élevés découragent la demande : 

Euler : Y(t) = – a . ( R(t) – Rn(t)) + Et[Y(t+1)] : 
où Y est l’excès de demande, R le taux d’intérêt réel, Rn le taux d’intérêt naturel (celui qui prévaudrait si les prix étaient flexibles), et Et est l’opérateur d’espérance, qui désigne les anticipations rationnelles en t d’une variable future. 

L’équation de Fisher définit le taux d’intérêt réel comme la différence entre le taux d’intérêt nominal et l’anticipation d’inflation :

Fisher : R(t) = I(t) – Et[Pi(t+1)] 
où I est le taux nominal de court terme et Pi est l’inflation. 

La troisième et dernière équation, spécifique aux modèles NK, réintroduit une relation décroissante entre le chômage et l’inflation (ou croissante entre l’excès de demande et l’inflation), mais y ajoute un terme d’anticipation, d’où son nom de courbe de Phillips augmentée ou courbe de Phillips néo-keynésienne (NKPC). 

NKPC : Pi(t) = b.Et[Pi(t+1)] + c.Y(t) avec b<1

Ces trois équations régissent le comportement de quatre variables endogènes : R, I, Pi et Y. Afin de pouvoir fermer le modèle, il faut donc une quatrième équation, ce qui montre que des variables réelles comme le taux d’intérêt réel et la croissance ne peuvent être déterminées indépendamment de la politique monétaire. Une autre conclusion de ces modèles, c’est que les effets de la politique monétaire sur les variables réelles ne peuvent qu’être de court terme, car il est facile de vérifier qu’à long-terme ces trois équations aboutissent au même résultat qu’un modèle RBC sans rigidité nominale.

C’est ici qu’intervient la proposition néo-Fishérienne. Supposez que la banque centrale fixe le taux nominal I(t) à chaque période, et considérez qu’à long-terme le taux d’intérêt réel R(t) est exogène et égal à Rn(t). Dans ce cas, l’équation de Fisher permet de déterminer les anticipations d’inflation et donc à long-terme, quand il ne serait pas rationnel d’anticiper un écart permanent avec l’inflation réalisée, de déterminer l’inflation. A long terme, Fisher devient : 

Pi* = I* – Rn. 

Ainsi, il apparaît évident que si la banque centrale choisit d’abaisser I* de manière permanente, l’inflation Pi* diminue. Une baisse du taux d’intérêt serait donc déflationniste. Pourquoi cette proposition est-elle contre-intuitive? Tout simplement parce qu’on s’attend à ce qu’une baisse des taux nominaux accompagnée d’une rigidité des prix débouche sur une baisse des taux réels, et que la demande dépend négativement des taux d’intérêts réels dans l’équation d’Euler. Enfin, la courbe de Phillips nous donne une relation positive entre la demande et l’inflation, donc il paraît étrange que le même modèle nous donne simultanément une relation négative entre inflation et taux nominal à court terme mais positive à long terme : comment passe-t-on d’une succession de courts termes au long terme ? 

Il est donc essentiel de préciser ce qu’on entend par « baisse permanente du taux d’intérêt nominal ». Selon la règle de politique monétaire adoptée, les effets d’une telle baisse varieront. 

Le premier cas simple, est celui d’une règle de politique monétaire dans lequel la banque centrale choisit une cible de taux d’intérêt nominal. C’est le cadre théorique qui vient immédiatement à l’esprit lorsqu’on cherche à imaginer ce que signifie une baisse permanente du taux d’intérêt. C’est aussi le cadre théorique adopté par Cochrane (2015). Le problème d’une telle règle monétaire, c’est que la résolution du modèle décrit par les trois équations et la contrainte I(t) = I*  ne permet pas de déterminer l’inflation : seules les anticipations d’inflation admettent une unique solution, ce qui signifie qu’il existe une infinité de solutions stationnaires pour l’inflation. Si on s’abstrait toutefois de ce problème en introduisant une nouvelle équation permettant de faire disparaître l’indétermination des prix (par exemple la théorie budgétaire du niveau des prix), on aboutit nécessairement à la conclusion qu’une baisse permanente du taux d’intérêt diminue l’inflation. La politique des grandes banques centrales (Fed, BoE, BCE…) depuis 2008 serait donc contraire à leur objectif de stabiliser l’inflation à 2%. Le canal de transmission est le suivant : les agents anticipent des taux nominaux bas à long-terme, révisent donc leurs anticipations d’inflation de long-terme puisqu’ils savent que celles-ci sont contraintes par le taux d’intérêt naturel, et les entreprises qui réactualisent leur prix ont moins besoin d’anticiper les hausses futures de prix, ce qui diminue l’inflation dès aujourd’hui. En outre, l’inflation diminuant moins que le taux nominal à cause des rigidités, le taux réel diminue et la demande augmente. Jim Bullard, président de la Fed de Saint-Louis, a fourni une analyse similaire récemmentet assimile cette dynamique à ce qu’il s’est passé depuis 2008. 

Le problème de cette règle monétaire est que ce n’est pas ainsi que les banques centrales fonctionnent, et que si c’était le cas elles ne seraient pas crédibles. En effet, une telle règle débouche soit sur l’indétermination du niveau des prix, qui peut avoir des conséquences négatives en terme de bien-être social puisque l’incertitude sur les prix est à la source d’inefficacités microéconomiques importantes (comment négocier un salaire, un emprunt, un prix de vente entre fournisseur et client ?), soit sur la disparition du rôle de la banque centrale, puisque le niveau des prix sera déterminé par un autre canal. Ainsi, si cette règle n’est pas crédible et que les agents anticipent que la banque centrale l’abandonnera, le canal de transmission décrit ci-dessus disparaît. 

Un cadre théorique qui décrit mieux l’action des banques centrales est celui où le taux d’intérêt nominal suit une règle de Taylor qui fait évoluer le taux d’intérêt nominal autour d’une cible de long-terme I*, en réponse aux fluctuations de l’inflation et de l’excès de demande. 

Taylor : I(t) = I*(t) + d.(Pi(t) – Pi*) + eY(t). 
Où Pi* est la cible d’inflation de la banque centrale, qui peut être supposé nulle sans perte de généralité dans le modèle. 

Taylor : I(t) = I*(t) + d.Pi(t) + eY(t).

Ainsi, quand l’inflation excède sa cible ou que l’excès de demande devient positif, la banque centrale augmente le taux nominal. Ce modèle peut être résolu et à la condition que d > 1 admet une unique solution stationnaire pour l’inflation (principe de Taylor). Cela traduit le fait que lorsque l’inflation augmente d’un point, il faut augmenter le taux nominal de plus qu’un point pour que le taux réel (=I-Pi) augmente, ce qui permet de réduire l’excès de demande et donc l’inflation. 

Dans ce cadre, on peut décrit I* comme suivant un processus exogène : 
I*(t) = Rn + V(t)
V(t) =  rho.V(t-1) + epsilon(t)
Où V est un choc de politique monétaire caractérisé par sa persistance rho (plus rho est proche de 1, plus un changement epsilon de cible I* une année donnée dure). V peut être interprété comme un changement du taux d’intérêt nominal qui ne serait pas justifié par une fluctuation de l’inflation ou de la demande. 

Ainsi, si la politique monétaire ne subit aucun choc, I* est constant et cohérent avec l’équilibre de long terme dans lequel l’inflation vaut Pi*. A court terme, et contrairement au cas précédent, I fluctue avec Y et Pi, qui peuvent eux subir des chocs d’autre nature (productivité…). 

Dans ce cadre, une baisse de la cible de taux d’intérêt à cible d’inflation inchangée s’interprète comme une valeur négative de V(t), donc un choc négatif epsilon une année donnée t accompagné d’une persistance rho. Quelle est la réponse des variables endogènes du modèle? 

Le résultat dans le cas où rho serait quelconque est le suivant : 
Pi(t) = – c.alpha . V(t)
Y(t) = – (1 – b.rho).alpha.V(t)
R(t) = (1/c).(1 – rho).(1 – b.rho).alpha.V(t).
I(t) = [(1/c).(1 – rho).(1 – b.rho) – c.rho].alpha.V(t)

Où Pi, Y, R, et I désignent les écarts de ces variables à ce qu’il se serait passé si la banque centrale n’avait rien fait, et où alpha dépend des paramètres du modèle mais est positif. Ainsi, suite à une baisse de la cible de taux, l’inflation et la demande augmentent toutes les deux. En particulier, l’effet cet effet est positif quelle que soit la persistance rho. Lorsque rho tend vers 1, alpha reste positif. Le taux d’intérêt réel quant à lui diminue. 

Qu’arrive-t-il au taux nominal ? Si la persistance du choc initial est très élevée, le taux d’intérêt nominal va augmenter. En d’autres termes, une baisse pendant très longtemps de la cible de taux d’intérêt nominal va se traduire par une hausse du taux d’intérêt nominal ! Cela paraît étrange, mais le canal de transmission est plutôt simple : en raison de la règle de Taylor, la banque centrale fait évoluer le taux d’intérêt nominal positivement avec l’inflation et la demande. La baisse de la cible est interprétée par les agents comme une baisse du taux nominal, à inflation et demande données, ce qui stimule la demande et l’inflation. Plus cette cible est abaissée pendant une période longue, plus les agents s’attendent à ce que les bénéfices de ces faibles taux durent, et plus l’effet sur l’inflation et la demande aujourd’hui sont importants, et donc plus la banque centrale augmente le taux effectif aujourd’hui.

Dans ce cadre, la proposition néo-Fishérienne paraît donc décalée, puisqu’une baisse de la cible de taux est sans aucun doute inflationniste. Comment réconcilier ces deux propositions ? Il suffit de constater que l’argument essentiel dans la proposition néo-Fishérienne est l’aspect persistant de la baisse des taux d’intérêt (rho = 1). 

Si la baisse de la cible de taux d’intérêt est permanente, alors le système d’équations devient à long terme : 

Taylor : I = Rn + V + d(Pi – Pi*) + e.Y
Euler   : Y = – a . (R – Rn) + Y 
NKPC : Pi = bPi + c.Y
Fisher  : R = I – Pi

Ce qui donne
(c/(1-b) – e).Y = V + d.Pi.

Donc à long terme, V non nul implique Y et/ou Pi non nuls. Une baisse permanente de la cible de taux d’intérêt est donc soit incohérente avec la cible d’inflation, soit introduit un excès permanent de demande. Dès lors, les hypothèses initiales du modèle et notamment sa log-linéarisation autour de l’équilibre de long terme qui permet d’obtenir les équations d’Euler et NKPC ci-dessus ne sont plus valides, puisque l’équilibre de long terme a changé. Pour obtenir un effet néo-Fishérien, il faut donc que les agents interprètent la baisse permanente de la cible de taux d’intérêt nominal comme en réalité une baisse de la cible d’inflation implicite de la banque centrale. 

Dans le modèle néo-keynésien, la proposition néo-Fishérienne est donc très sensible à l’hypothèse de rationalité parfaite des agents, notamment sur leur capacité à faire la différence entre un choc permanent (rho=1) et un choc quasi-permanent (rho -> 1). C’est ce qui a conduit Garcia-Schmidt et Woodford (2015) à montrer que si on laisse les agents former les anticipations dans un cadre de rationalité même seulement très légèrement limité, la proposition néo-Fishérienne disparaît du modèle NK. 

Bibliographie :
Cochrane, John H. (2015) : “Do Higher Interest Rates Raise or Lower Inflation?”, Forthcoming. 

Gali, Jordi (2008) : “Monetary Policy, Inflation and the Business Cycle, An Introduction to the New Keynesian Framework”, Princeton University Press

Garcia-Schmidt, Mariana & Woodford, Michael (2015) : “Are Low Interest Rates Deflationary? A Paradox of Perfect-Foresight Analysis”, NBER Working Paper 

Woodford (2003) : “Interest and Prices, Foundations of a Theory of Monetary Policy”, Princeton University Press

vendredi 23 octobre 2015

L'accueil des migrants est une question morale, pas économique...

… et ça devrait le rester. 

Le think tank européen Bruegel, a publié une revue de littérature sur le sujet qui démystifie un peu l’impact qu’un fort afflux de migrants peu avoir sur une économie. Ainsi un afflux de migrants booste très probablement la croissance, aussi bien par l’offre que par la demande et que cet effet est d’autant plus fort qu’on autorise les migrants à travailler. L’impact sur les finances publiques est positif car les recettes fiscales supplémentaires compensent la hausse des dépenses temporaires d’accueil. A long-terme, c’est moins clair, car tout dépend de la démographie des populations assimilées. Au final, au niveau macroéconomique, un afflux de migrants s’apparente à un baby-boom : si c’est un afflux purement temporaire, il faudra donc s’attendre à un papy-boom lorsque ceux parmi ces migrants qui seront restés en France partiront à la retraite. 

La littérature est par contre beaucoup moins tranchée sur les effets redistributifs. Les prédictions théoriques sont multiples, et parfois contradictoires. Ici, je m’intéresserai à trois facteurs de production : travail, capital humain, capital physique. Les travailleurs qualifiés détiennent le capital humain, les travailleurs non qualifiés n’ont que le travail, et les capitalistes détiennent le capital physique. C’est l’association des trois qui permet la production.  

En économie fermée, une hausse soudaine d’un facteur fait a priori diminuer le revenu de ce facteur à court-terme, et augmenter le salaire de tous les autres. Par exemple, face à un afflux de travail, le capital total par travailleur diminue et le travail est moins productif. Si les salaires mettent du temps à s’ajuster à la baisse de la productivité par tête, il y a une hausse du chômage à court-terme. A l’inverse, si les migrants sont qualifiés, c’est le salaire des qualifiés qui diminue, tandis que celui des non-qualifiés augmente. 

A moyen-terme, il faut investir pour rétablir le niveau de capital par tête, et s’il existe un effet d’accélérateur (l’investissement augmente avec le taux de croissance de l’économie) la hausse initiale du chômage peut très rapidement se résorber, au point de mettre l’économie en surchauffe. Finalement, après ces soubresauts, l’économie se retrouve sur son sentier de long-terme, avec le même capital par tête qu’auparavant et donc les mêmes salaires. 

En économie ouverte, c’est totalement différent. D’abord, il faut savoir quel modèle de commerce international utiliser pour répondre à cette question. Si l’on s’intéresse à des interactions entre pays très pauvres et pays très riches il faut probablement utiliser une version du modèle de Heckscher-Ohlin (HO), dans lequel les deux pays s’adonnant au commerce se distinguent par les proportions de facteurs disponibles : il y a beaucoup plus de capital (humain+physique) par tête dans un pays que dans l’autre. Une des conclusions les plus célèbres de ce modèle très stylisé est qu’il suffit de permettre l’ouverture commerciale pour que les revenus des facteurs (capital humain, capital physique, travail) s’égalisent. Ainsi, les salaires sont déjà les mêmes dans les deux pays. Bien entendu, ce modèle est trop simple et sa prédiction est évidemment fausse, mais il donne une idée du mécanisme : en situation d’ouverture commerciale parfaite, la concurrence sur les produits crée implicitement la concurrence sur le revenu des facteurs. Si on souhaite donc préserver les travailleurs de la concurrence des migrants, fermer les frontières ne suffit pas, il faut aussi maintenir en autarcie les pays d’où ces migrants proviennent, ce qui ne semble pas très éthique. 

On peut même partir du modèle HO développer un modèle un peu plus raffiné, où la concurrence sur le marché du travail n’est pas parfaite et où les travailleurs ont un pouvoir de négociation. Si on suppose que ce pouvoir de négociation est plus élevé dans le pays riche que dans le pays pauvre, pour des raisons purement institutionnelles et donc exogènes, alors le pouvoir de négociation moyen des travailleurs de tous les pays augmente lorsqu’un travailleur passe du pays pauvre au pays riche. Pour faire court, si plus de travailleurs des pays pauvres s’installent dans les pays riches, les possibilités de délocalisation diminuent. 

Si ce mécanisme est vrai, il entre donc en opposition frontale avec une idée très présente à gauche notamment, selon laquelle le patronat adore l’immigration puisqu’elle permet de mettre en concurrence les travailleurs locaux avec de la main d’œuvre moins chère. Michel Onfray, qui adore parler d’économie, répète cela depuis un certain temps (notamment dans l’entretien donné au Figaro en septembre) mais cela fait partie de ces phrases qui sonnent vraies mais dont le contraire sonne tout aussi vrai. Stéphane Ménia a déjà écrit sur le sujet

Les études empiriques le montrent, il est difficile de trancher. La plupart des études concluent à une hausse des salaires des travailleurs qualifiés, mais il est difficile de conclure sur les salaires des travailleurs non-qualifiés : certaines études empiriques confirment le résultat de l’économie fermée, et constatent une légère baisse des salaires, certains montrent que les complémentarités dominent et que les migrants les moins qualifiés arrivent en bas de l’échelle, permettant à leurs prédécesseurs de monter dans la distribution (le travailleur local devient le chef des nouveaux arrivants). 

Au final, il faut absolument que le débat sur la question des migrants quitte le domaine économique. Cela permet aux opposants de faire peur à la population en la convainquant que la France ne peut pas « se permettre » d’accueillir plus de migrants qu’elle ne le fait déjà, sans avoir à entrer sur le terrain éthique ou culturel, beaucoup plus miné et beaucoup moins payant électoralement. 

Je pense qu'il faut accueillir ces gens parce que c’est un impératif moral, pas parce que cela fait augmenter de X% les recettes fiscales. Si la littérature économique montrait un fort effet négatif, je ne penserais pas différemment. 





mercredi 21 octobre 2015

La croissance potentielle dans le débat public

Les règles budgétaires, en particulier celles européennes matérialisées dans le Pacte de Stabilité et Croissance, font de plus en plus l’utilisation de la notion de déficit structurel comme mesure de la situation budgétaire de moyen/long terme des administrations publiques, c’est-à-dire corrigée du cycle. Le déficit structurel permettrait, au moins dans l’esprit des rédacteurs ainsi que des garants du respect de la règle, de s’abstraire de conditions temporaires en regardant la « vraie » situation du pays, celle qui prévaudra à long terme, et à laquelle il est nécessaire de s’adapter afin de préserver (ou restaurer) la soutenabilité des finances publiques. 

Maintenant que ces contraintes sont intériorisées par le décideur public national, ce qui était le but des traités européens forçant l’inscription de ces règles dans la législation nationale, leur impact sur le débat public doit être discuté. Le respect des règles nous est enseigné depuis le plus jeune âge, et le simple fait d’appeler une règle budgétaire une règle lui confère une aura aux yeux du public. Or si des décennies de débat sur les règles pénales, électorales, commerciales, etc., ont affûté la connaissance des médias et décideurs sur ces sujets, et permettent aujourd’hui au citoyen informé de prendre conscience des implications de certaines décisions, la connaissance du fonctionnement des règles de stabilisation macroéconomique est encore parcellaire. 

Ces règles de stabilisation sont de deux principales sortes : les règles de politique monétaire, traduites en langage législatif dans le mandat de la banque centrale, et les règles budgétaires, traduites en langage législatif dans les traités européens. On peut aussi noter l’apparition des règles de coordination dans les fédérations où les régions conservent une grande partie de la souveraineté et qui ne s’intéressent pas seulement à la situation budgétaire des Etats mais également à l’impact que leurs décisions peuvent avoir sur leurs voisins, notamment au sein d’une union monétaire. 

Toutes ces règles ont en commun une chose noble, qui est de vouloir aider le décideur public à favoriser le long-terme sans négliger le court-terme. Mais ces règles ont également toutes en commun le présupposé qu’il existe nécessairement un conflit entre le court-terme et le long-terme, comme si cela heurtait le bon sens (notre morale, notre intuition, rayez la mention inutile), qu’on peut avoir « le beurre, et l’argent du beurre ». Par exemple, une règle de politique monétaire comme la règle de Taylor, qui fixe la réponse des taux d’intérêt à une déviation de l’inflation ou du chômage de son niveau de long-terme, permet de quantifier à quel point la banque centrale peut se permettre de dévier de sa cible d’inflation (dont la crédibilité est essentielle à long-terme) pour régler un déficit de demande temporaire. Les règles budgétaires qui décomposent le déficit courant en déficit conjoncturel et structurel, et fixent des horizons au-delà duquel le déficit structurel doit revenir en deçà d’un certain plafond, permettent au décideur public confronté à une crise importante de laisser jouer les stabilisateurs automatiques (hausse du déficit conjoncturel) et même d’aller plus loin dans la relance (hausse du déficit structurel), à condition de revenir dans les clous assez vite. 

Les critiques contre ce genre de règles sont nombreuses et souvent très pertinentes, mais la plupart tournent autour d’un thème : il est difficile de mesurer en temps réel le potentiel de l’économie et la réponse des variables comme l’inflation, le chômage et les recettes fiscales à une déviation de ce potentiel. Je ne souhaite pas m’étendre sur ces critiques bien connues, car bien que je les estime suffisantes pour que la décision publique ne soit pas légalement contrainte par des estimations de potentiel techniquement difficiles, elles ne remettent pas en cause l’existence même de ce potentiel. 

Aujourd’hui, le potentiel de l’économie, et donc l’écart de la réalité à son potentiel (output gap), peuvent être mesurées de plusieurs façons, toutes étant une combinaison de méthodes purement statistiques (en modélisant les variables macroéconomiques comme oscillant autour d’une tendance) et purement structurelles (on connaît la fonction de production de l’économie et ses facteurs potentiels, donc on connaît la production potentielle). 

Prenons par exemple l’estimation de la croissance potentielle dans laquelle on modélise la production comme utilisant deux facteurs, le capital d’un côté, le travail de l’autre, et dont les interactions sont augmentées par la productivité globale des facteurs, qui traduit le degré d’optimisation des ressources. Pour calculer le potentiel de l’économie, on calcule une tendance de productivité globale, on s’appuie sur le stock de capital existant, et on calcule une force de travail potentielle, qui est obtenue en supposant à l’aide d’hypothèses démographiques, du niveau de long terme du chômage, et de la tendance du taux d’activité. 

Une fois ce travail accompli, on pourra dire par exemple que la croissance potentielle de la France, d’environ 2% par an dans les années 2000, a ralenti à 0,6% par an ensuite. Ainsi, une bonne part de l’augmentation du déficit suite à la crise est structurelle. Le décideur politique prendra cela et la règle comme données, adaptera la politique économique de façon à réduire le déficit structurel dans le temps imparti. Or ce que la règle ne dit pas, c’est que l’estimation de la croissance potentielle est probablement très sensible à la réponse du décideur politique à la crise en question. Un exemple est la réponse du stock de capital à la crise : si le décideur politique tarde à réagir à la crise, l’investissement tardera à repartir et cela aura un effet permanent sur le potentiel de l’économie. La même logique peut être appliquée à la productivité globale des facteurs (des connaissances se perdent) et à la force de travail (des travailleurs quittent définitivement la population active ou perdent des compétences). Tout cela ne provenant que d’une erreur de politique économique. Ces effets sont bien connus, ce sont les effets d’hystérèse. 

Il existe donc probablement un « potentiel potentiel », ou popotentiel™, derrière le potentiel, c’est-à-dire ce qu’il serait advenu si la réponse des décideurs publics avait été plus rapide ou plus importante. On peut aller plus loin, et se demander à partir de quand il est trop tard pour corriger des erreurs passées, et ce popotentiel n’est plus atteignable : trop de relations commerciales fructueuses ont été détruites depuis trop longtemps, trop de gens ont émigré définitivement, etc. 

Au final, on ne devrait pas juger l’efficacité de la politique économique passée à l’aune d’estimations du potentiel elles-mêmes dépendantes de la politique économique, et encore moins prendre des décisions de politique économique sur la base de grandeurs qui auront tendance à inscrire dans le marbre les erreurs passées. Si on tient vraiment à utiliser ce genre de mesure, on pourrait par exemple utiliser comme potentiel pendant la crise ce qu’on anticipait comme potentiel avant la crise. On s’exposerait peut-être au risque de surestimation du potentiel si la crise révèle effectivement une rupture de tendance dans les capacités de production, rupture qui ne peut être corrigée par la stabilisation macroéconomique. Mais je pense que les conséquences de cette erreur – une relance trop forte –  sont inférieures aux conséquences de l’erreur inverse – des ressources gâchées.