mercredi 9 mars 2016

Clash of clans sur la loi "Travail"

La loi El Khomri sur le Code du travail a au moins ce mérite de susciter un débat très intéressant entre des économistes français parmi les plus réputés. Ces derniers s'appuient sur la même littérature économique, en ont chacun une interprétation assez proche mais portent un jugement différent sur la loi incriminée, probablement en raison de leurs opinions politiques. C'est frappant parce que les arguments sont quasiment les mêmes dans les deux tribunes, mais l'une dit "donc la loi El Khomri représente une avancée pour les plus fragiles" et l'autre "on est loin d'une politique effective de lutte contre le chômage durable". 

A ma droite (tout à fait fortuitement, j'aurais pu dire à ma gauche), ceux qui favorables à la loi. Parmi eux, Jean Tirole (TSE) et Olivier Blanchard (ex-FMI), les seuls économistes français avec Esther Duflo (mais qui ne n'est pas exprimée sur ce sujet) à figurer dans le top 100 des économistes de RePec selon la plupart des critères (nombre de citations avec différentes pondérations, succès des publications, réussite des anciens étudiants...). On y trouve également treize économistes dans le top 5% des économistes selon ces mêmes critères, et de nombreuses médailles prestigieuses, en France comme à l'international : un Nobel (Tirole), trois prix Yrjö Jahnsson (prix de l'association des économistes européens réservé aux économistes de moins de 45 ans), trois prix John von Neumann (récompense prestigieuse décernée par des étudiants), quatre médailles du CNRS et sept "meilleurs jeunes économistes" de France.  

A ma gauche, ceux qui y sont défavorables. Parmi eux d'excellents économistes également, dont cinq sont dans le top 5% des économistes de RePec, une médaille Clark (réputée précurseur du Nobel et décernée par l'association des économistes américains), un prix John von Neumann, deux médailles du CNRS et trois "meilleurs jeunes économistes de France". 

Olivier Bouba-Olga refuse de compter les galons, mais dans la mesure où ces tribunes s'adressent au grand public je pense qu'il est important de savoir que ceux qui les signent ont gagné le respect de leurs confrères. Si le lecteur n'est pas spécialiste de la question, il aura du mal à distinguer un expert d'un charlatan, un argument fondé sur des faits d'un argument idéologique, ou même une démonstration cohérente d'une suite de sophismes. Ensuite, les économistes ayant une réputation établie ont potentiellement plus à perdre lorsqu'ils prennent position ouvertement pour ou contre une loi. Par exemple, les auteurs de cette tribune, en tant que membres d'ATTAC n'ayant à leur actif aucune publication scientifique dans une revue à comité de lecture et dont la section "publication" de leurs sites personnels ne contiennent que des articles de presse, n'ont absolument rien à perdre s'ils ont torts et utilisent des arguments économiques WTF comme :

"Si un employeur sait à l’avance ce que va lui coûter un licenciement abusif, rien ne l’empêchera d’y avoir recours, ce d’autant plus qu’il pourra le provisionner dans une rubrique quelconque de ses comptes". 
Pouf pouf la magie de la comptabilité.


Bon maintenant, que disent ces tribunes? La première affirme que la loi El Khomri réduira les inégalités devant l'emploi, qui se manifestent par une forte polarisation du marché du travail, entre la majorité protégée et la minorité précaire. Selon ses auteurs, la réduction du coût et de l'incertitude entourant l'embauche en CDI réduira, aux yeux de l’employeur, le risque d'embaucher en CDI par rapport au risque d'embaucher en CDD. Pour aboutir à cette conclusion, ils citent l'Espagne qui a implémenté une réforme des indemnités de licenciement en 2012, et j'imagine qu'ils ont en tête le rapport de l'OCDE de 2013 qui en a évalué les premiers effets puisqu'ils reprennent le chiffre de l'OCDE de 25000 embauches en CDI de plus par mois (soit les 300000 en un an de l'article). Ils se fondent également sur une littérature assez abondante, dont certains des auteurs sont des contributeurs importants, qui étudie l'impact de certaines frictions - dont l'incertitude et les coûts de licenciement - sur non seulement les inégalités devant l'emploi mais également le niveau du chômage. Je ne suis pas un spécialiste du marché du travail et n'ai jamais enseigné ni participé à cette littérature, mais les méthodes économétriques employées sont solides et les arguments théoriques sont plutôt convaincants. Quant à savoir si cela s'applique à la France et à la loi El Khomri, c'est une autre histoire. Ils proposent également de renforcer les garanties données aux chômeurs, en terme de formation notamment, dans la plus pure tradition de la flexi-sécurité.

La seconde tribune affirme deux choses. Tout d'abord, la principale cause du chômage en 2015 en France ne serait pas l'existence de frictions sur le marché du travail mais la politique de réduction du déficit public, qui n'a pas pu être compensée par une politique monétaire suffisamment expansionniste. Le chômage a augmenté car la croissance était trop faible pour créer suffisamment d'emplois. Ce point ne fait pas vraiment débat en fait, et je ne pense pas que les auteurs de la première tribune objecteraient, en particulier Olivier Blanchard qui a beaucoup influencé le revirement anti-austérité du FMI et Thomas Philippon qui a analysé le fort impact des politiques budgétaires pro-cycliques dans un papier avec Philippe Martin en 2013. En revanche, je doute que personne ne croit vraiment que la loi El Khomri soit là pour relancer rapidement l'emploi. Comme toute réforme structurelle, elle ne peut porter ses fruits que lentement. Il existe même une littérature montrant que les réformes sur le marché du travail peuvent être légèrement contre-productives à court terme en situation de trappe à liquidité puisqu'elles accentuent les pressions déflationnistes. En somme, ce genre de réforme peut aider à réduire le chômage minimum atteignable, mais pas tant à l'atteindre si l'économie reste déprimée. D'ailleurs, ce n'est pas ce que disent les auteurs de la première tribune, et c'est un peu malhonnête de la part des auteurs de la deuxième tribune de le faire croire quand ils disent : 
"Rien ne permet d’asséner, comme cela a pourtant été fait par un certain nombre de nos collègues dans une tribune récente qu’une baisse des coûts de licenciement permettrait de réduire le chômage en France."
La seconde tribune entre ensuite réellement dans le vif puisqu'elle vient affirmer que la protection du CDI a plutôt des effets bénéfiques puisqu'elle permet à l'emploi de résister en cas de récession, quitte à ce qu'il reparte moins vite à la reprise (phénomène de rétention de main d'œuvre). Les fortes inégalités devant l'emploi ne seraient pas dues à la protection du CDI mais seraient le reflet des inégalités de formation, ne seraient pas un phénomène spécifique à la France puisque celles-ci existent également aux Etats-Unis et sont de même ampleur et ne seraient pas résolues par la loi El Khomri puisque 70% des embauches en CDD se font pour moins d'un mois et donc sont loin d'être concernées par le CDI. 

Ce point me laisse plus songeur. Le phénomène de rétention de main d'œuvre est avéré, et le papier de Bertola (également un économiste réputé) que citent les auteurs le montre assez bien. C'est probablement positif dans une certaine mesure et peut expliquer pourquoi la productivité s'est plus maintenue en France qu'au Royaume-Uni (en gros : on n'a pas jeté le bébé avec l'eau du bain...), pas trop si ce phénomène dure et empêche la réalisation d'investissements nécessaires via la compression des marges qu'il induit. 

En revanche, je ne sais pas si l'on peut dire que la protection du CDI n'a aucun rôle dans la polarisation du marché du travail en utilisant les arguments cités par les auteurs. Il est vrai que l'écart entre taux de chômage des non qualifiés et des qualifiés est de 1,5 dans les deux pays, mais je ne sais pas si c'est plus pertinent de regarder l'écart en ratio plutôt qu'en différence, et selon cette mesure l'écart entre les taux est de 1,3 à 2 fois plus élevé en France qu'aux USA depuis 2003. 



Ensuite le taux de chômage n'est pas la seule mesure des inégalités devant l'emploi. Si on s'intéresse à la part des emplois à durée indéterminée (cf. OCDE), les deux pays que les auteurs de la tribune citent comme ayant une protection du CDI plus forte (France et Allemagne) ont tous les deux des parts de CDI plus faibles (respectivement 84% et 87%) que le Royaume Uni et les Etats-Unis (respectivement 94% et 96%). En outre, derrière des parts proches, il peut y avoir de fortes différences si dans un pays ce sont toujours les mêmes à être en CDD tandis que dans un autre cela varie n'est jamais une fatalité. J'aimerais bien avoir des données sur le sujet. Enfin, c'est un peu tautologique, mais s'il y a plus d'écart de protection entre le CDD et le CDI, alors il y a plus d'inégalité entre être cantonné au CDD et être cantonné au CDI, même à parts identiques. 

Donc à travers ces désaccords d'économistes apparaissent surtout des désaccords politiques. Les auteurs de la première tribune sont prêts à sacrifier une partie de la protection du CDI pour réduire les inégalités devant l'emploi, les auteurs de la deuxième tribune minimisent - de manière peu convaincante à mes yeux mais libre à vous de penser autrement - le rôle que joue la protection du CDI dans ces inégalités, et je soupçonne que quand bien même ils pouvaient être convaincus, ils soutiendraient que cela ne vaut malgré tout pas le coup. 

On peut jouer le centriste, et s'apercevoir que les deux tribunes s'accordent à dire que la formation initiale et la formation professionnelle sont également des facteurs importants dans les inégalités devant l'emploi et doivent être réformées. Si on ajoute à cela l'effet de la politique économique sur le chômage à court-terme, il y a beaucoup plus d'accord que de désaccord entre tous ces économistes. Non je ne suis pas un bisounours. 

Si on parvient à évaluer cette question du rôle de la protection dans les inégalités face à l'emploi, et si la réduction de l'incertitude sur les coûts de licenciement (à distinguer du niveau de ces coûts) réduit également le chômage de long terme, il ne reste que des questions purement politiques : 

1) Faut-il dégrader la situation du plus grand nombre pour améliorer la situation d'une minorité précaire? Si oui, dans quelle mesure? 

2) Les bénéfices de la réduction de l'incertitude justifient-ils de remettre en cause le principe de réparation du préjudice subi? Si oui dans quelle mesure?


EDIT : Marc Ferracci, un des auteurs de la première tribune, a été assez gentil pour me fournir sur Twitter une liste de références bibliographiques concernant les effets sur l'emploi de la protection des contrats de travail, vous la trouverez ici : google doc











vendredi 13 novembre 2015

Les taux d'intérêt bas sont-ils déflationnistes ?

(Attention, article très long et plutôt technique)

C’est une proposition que de nombreux économistes avancent et connue sous le nom de Néo-Fishérienne, du nom de l’économiste américain Irving Fisher, connu pour ses travaux sur les taux d’intérêt et qui a donné son nom à une équation fondamentale dans les modèles utilisés pour analyser la politique monétaire. 

Ces modèles, dits d’équilibre général dynamique stochastique (DSGE en anglais), tiennent compte de l’ensemble des comportements des agents dans l’économie, et pas seulement de l’effet causal d’une variable sur une autre (équilibre général vs équilibre partiel), tiennent compte de la volonté des agents d’optimiser leur comportement sur plusieurs périodes (dynamique vs statique), et autorisent les variables exogènes (c’est-à-dire extérieures au modèle) à évoluer suivant des lois statistiques caractérisant la taille et la persistance des chocs subis par le système (stochastique). 

Ces modèles avaient pour but de répondre à la critique de Lucas selon laquelle il n’est pas pertinent d’estimer l’effet d’un changement de politique économique sur la base de relations statistiques passées, dans la mesure où les agents réagiront à ce changement de politique économique en formant de nouvelles anticipations. Notamment, la fameuse courbe de Philips donnant une relation décroissante entre inflation et chômage ne pouvait plus être considérée comme stable dans le temps, les critiques les plus extrêmes allant jusqu’à affirmer que celle-ci était simplement verticale, que le chômage ne dépendait que de facteurs purement structurels et que toute politique inflationniste n’aurait aucun effet positif sur le chômage.

Les premiers modèles développés dans les années 80 (RBC ou Real Business Cycles) faisaient donc l’hypothèse d’anticipations parfaitement rationnelles (les agents connaissent le modèle de l’économie et utilisent toute l’information à disposition pour optimiser leur comportement), d’une concurrence parfaite et de prix parfaitement flexibles. Ces modèles aboutissaient ainsi à une neutralité complète de la monnaie, c’est-à-dire au fait que la politique monétaire, que ce soit via les taux d’intérêts nominaux ou via la masse monétaire en circulation, n’avait aucun effet sur les variables dites réelles, à savoir le chômage et la croissance en volume, une conclusion contraire à ce que la littérature empirique affirme. 

Afin d’améliorer la pertinence empirique de ces modèles, une nouvelle classe de modèle a été développée à partir de ces premiers essais, grâce à l’introduction d’une concurrence monopolistique associée à une rigidité nominale des prix. Dans cette classe de modèles, les prix ne sont plus magiquement déterminés par le commissaire-priseur Walrasien et considérés comme donnés par les entreprises, mais sont le résultat du programme d’optimisation du profit dans un contexte où chaque entreprise est en situation de monopole sur la fourniture de son produit, et où les consommateurs retirent de l’utilité de la diversité de leur panier de consommation. Ainsi, une entreprise aura à choisir un prix assez élevé pour en profiter mais pas trop de manière à ne pas décourager la demande pour son bien. La marge des entreprises est ainsi directement reliée à la volonté des consommateurs à substituer un bien pour un autre lorsque son prix augmente. Enfin, la rigidité nominale peut être introduite de plusieurs manières, certaines étant formellement équivalentes, mais toutes conduisant à la constatation que les entreprises ne ré-optimisent pas leurs prix en continu, ce dont elles tiennent compte lorsqu’elles choisissent un nouveau prix : puisqu’elles seront coincées avec pendant un certain temps, ce prix dépend de leurs anticipations de la demande et des prix moyens futurs. Ces modèles ont été assez improprement appelés néo-keynésiens (NK), essentiellement parce que l’introduction d’une rigidité des prix permettait de retrouver la possibilité d’un chômage involontaire. En ce sens, ils sont plutôt néo-hicksiens. 

La version la plus élémentaire de cette classe de modèle, décrite par Woodford (2003) et Gali (2008) permet de capter les intuitions les plus importantes. Ce modèle en économie fermée, avec anticipations rationnelles et sans accumulation de capital, aboutit à trois équations fondamentales, les deux premières étant communes aux modèles RBC et NK. 

L’équation d’Euler décrit comme la demande évolue avec les taux d’intérêts et les anticipations de demande future, et provient de l’optimisation de programme de consommation-épargne des ménages. Dans cette équation, des taux d’intérêts réels élevés découragent la demande : 

Euler : Y(t) = – a . ( R(t) – Rn(t)) + Et[Y(t+1)] : 
où Y est l’excès de demande, R le taux d’intérêt réel, Rn le taux d’intérêt naturel (celui qui prévaudrait si les prix étaient flexibles), et Et est l’opérateur d’espérance, qui désigne les anticipations rationnelles en t d’une variable future. 

L’équation de Fisher définit le taux d’intérêt réel comme la différence entre le taux d’intérêt nominal et l’anticipation d’inflation :

Fisher : R(t) = I(t) – Et[Pi(t+1)] 
où I est le taux nominal de court terme et Pi est l’inflation. 

La troisième et dernière équation, spécifique aux modèles NK, réintroduit une relation décroissante entre le chômage et l’inflation (ou croissante entre l’excès de demande et l’inflation), mais y ajoute un terme d’anticipation, d’où son nom de courbe de Phillips augmentée ou courbe de Phillips néo-keynésienne (NKPC). 

NKPC : Pi(t) = b.Et[Pi(t+1)] + c.Y(t) avec b<1

Ces trois équations régissent le comportement de quatre variables endogènes : R, I, Pi et Y. Afin de pouvoir fermer le modèle, il faut donc une quatrième équation, ce qui montre que des variables réelles comme le taux d’intérêt réel et la croissance ne peuvent être déterminées indépendamment de la politique monétaire. Une autre conclusion de ces modèles, c’est que les effets de la politique monétaire sur les variables réelles ne peuvent qu’être de court terme, car il est facile de vérifier qu’à long-terme ces trois équations aboutissent au même résultat qu’un modèle RBC sans rigidité nominale.

C’est ici qu’intervient la proposition néo-Fishérienne. Supposez que la banque centrale fixe le taux nominal I(t) à chaque période, et considérez qu’à long-terme le taux d’intérêt réel R(t) est exogène et égal à Rn(t). Dans ce cas, l’équation de Fisher permet de déterminer les anticipations d’inflation et donc à long-terme, quand il ne serait pas rationnel d’anticiper un écart permanent avec l’inflation réalisée, de déterminer l’inflation. A long terme, Fisher devient : 

Pi* = I* – Rn. 

Ainsi, il apparaît évident que si la banque centrale choisit d’abaisser I* de manière permanente, l’inflation Pi* diminue. Une baisse du taux d’intérêt serait donc déflationniste. Pourquoi cette proposition est-elle contre-intuitive? Tout simplement parce qu’on s’attend à ce qu’une baisse des taux nominaux accompagnée d’une rigidité des prix débouche sur une baisse des taux réels, et que la demande dépend négativement des taux d’intérêts réels dans l’équation d’Euler. Enfin, la courbe de Phillips nous donne une relation positive entre la demande et l’inflation, donc il paraît étrange que le même modèle nous donne simultanément une relation négative entre inflation et taux nominal à court terme mais positive à long terme : comment passe-t-on d’une succession de courts termes au long terme ? 

Il est donc essentiel de préciser ce qu’on entend par « baisse permanente du taux d’intérêt nominal ». Selon la règle de politique monétaire adoptée, les effets d’une telle baisse varieront. 

Le premier cas simple, est celui d’une règle de politique monétaire dans lequel la banque centrale choisit une cible de taux d’intérêt nominal. C’est le cadre théorique qui vient immédiatement à l’esprit lorsqu’on cherche à imaginer ce que signifie une baisse permanente du taux d’intérêt. C’est aussi le cadre théorique adopté par Cochrane (2015). Le problème d’une telle règle monétaire, c’est que la résolution du modèle décrit par les trois équations et la contrainte I(t) = I*  ne permet pas de déterminer l’inflation : seules les anticipations d’inflation admettent une unique solution, ce qui signifie qu’il existe une infinité de solutions stationnaires pour l’inflation. Si on s’abstrait toutefois de ce problème en introduisant une nouvelle équation permettant de faire disparaître l’indétermination des prix (par exemple la théorie budgétaire du niveau des prix), on aboutit nécessairement à la conclusion qu’une baisse permanente du taux d’intérêt diminue l’inflation. La politique des grandes banques centrales (Fed, BoE, BCE…) depuis 2008 serait donc contraire à leur objectif de stabiliser l’inflation à 2%. Le canal de transmission est le suivant : les agents anticipent des taux nominaux bas à long-terme, révisent donc leurs anticipations d’inflation de long-terme puisqu’ils savent que celles-ci sont contraintes par le taux d’intérêt naturel, et les entreprises qui réactualisent leur prix ont moins besoin d’anticiper les hausses futures de prix, ce qui diminue l’inflation dès aujourd’hui. En outre, l’inflation diminuant moins que le taux nominal à cause des rigidités, le taux réel diminue et la demande augmente. Jim Bullard, président de la Fed de Saint-Louis, a fourni une analyse similaire récemmentet assimile cette dynamique à ce qu’il s’est passé depuis 2008. 

Le problème de cette règle monétaire est que ce n’est pas ainsi que les banques centrales fonctionnent, et que si c’était le cas elles ne seraient pas crédibles. En effet, une telle règle débouche soit sur l’indétermination du niveau des prix, qui peut avoir des conséquences négatives en terme de bien-être social puisque l’incertitude sur les prix est à la source d’inefficacités microéconomiques importantes (comment négocier un salaire, un emprunt, un prix de vente entre fournisseur et client ?), soit sur la disparition du rôle de la banque centrale, puisque le niveau des prix sera déterminé par un autre canal. Ainsi, si cette règle n’est pas crédible et que les agents anticipent que la banque centrale l’abandonnera, le canal de transmission décrit ci-dessus disparaît. 

Un cadre théorique qui décrit mieux l’action des banques centrales est celui où le taux d’intérêt nominal suit une règle de Taylor qui fait évoluer le taux d’intérêt nominal autour d’une cible de long-terme I*, en réponse aux fluctuations de l’inflation et de l’excès de demande. 

Taylor : I(t) = I*(t) + d.(Pi(t) – Pi*) + eY(t). 
Où Pi* est la cible d’inflation de la banque centrale, qui peut être supposé nulle sans perte de généralité dans le modèle. 

Taylor : I(t) = I*(t) + d.Pi(t) + eY(t).

Ainsi, quand l’inflation excède sa cible ou que l’excès de demande devient positif, la banque centrale augmente le taux nominal. Ce modèle peut être résolu et à la condition que d > 1 admet une unique solution stationnaire pour l’inflation (principe de Taylor). Cela traduit le fait que lorsque l’inflation augmente d’un point, il faut augmenter le taux nominal de plus qu’un point pour que le taux réel (=I-Pi) augmente, ce qui permet de réduire l’excès de demande et donc l’inflation. 

Dans ce cadre, on peut décrit I* comme suivant un processus exogène : 
I*(t) = Rn + V(t)
V(t) =  rho.V(t-1) + epsilon(t)
Où V est un choc de politique monétaire caractérisé par sa persistance rho (plus rho est proche de 1, plus un changement epsilon de cible I* une année donnée dure). V peut être interprété comme un changement du taux d’intérêt nominal qui ne serait pas justifié par une fluctuation de l’inflation ou de la demande. 

Ainsi, si la politique monétaire ne subit aucun choc, I* est constant et cohérent avec l’équilibre de long terme dans lequel l’inflation vaut Pi*. A court terme, et contrairement au cas précédent, I fluctue avec Y et Pi, qui peuvent eux subir des chocs d’autre nature (productivité…). 

Dans ce cadre, une baisse de la cible de taux d’intérêt à cible d’inflation inchangée s’interprète comme une valeur négative de V(t), donc un choc négatif epsilon une année donnée t accompagné d’une persistance rho. Quelle est la réponse des variables endogènes du modèle? 

Le résultat dans le cas où rho serait quelconque est le suivant : 
Pi(t) = – c.alpha . V(t)
Y(t) = – (1 – b.rho).alpha.V(t)
R(t) = (1/c).(1 – rho).(1 – b.rho).alpha.V(t).
I(t) = [(1/c).(1 – rho).(1 – b.rho) – c.rho].alpha.V(t)

Où Pi, Y, R, et I désignent les écarts de ces variables à ce qu’il se serait passé si la banque centrale n’avait rien fait, et où alpha dépend des paramètres du modèle mais est positif. Ainsi, suite à une baisse de la cible de taux, l’inflation et la demande augmentent toutes les deux. En particulier, l’effet cet effet est positif quelle que soit la persistance rho. Lorsque rho tend vers 1, alpha reste positif. Le taux d’intérêt réel quant à lui diminue. 

Qu’arrive-t-il au taux nominal ? Si la persistance du choc initial est très élevée, le taux d’intérêt nominal va augmenter. En d’autres termes, une baisse pendant très longtemps de la cible de taux d’intérêt nominal va se traduire par une hausse du taux d’intérêt nominal ! Cela paraît étrange, mais le canal de transmission est plutôt simple : en raison de la règle de Taylor, la banque centrale fait évoluer le taux d’intérêt nominal positivement avec l’inflation et la demande. La baisse de la cible est interprétée par les agents comme une baisse du taux nominal, à inflation et demande données, ce qui stimule la demande et l’inflation. Plus cette cible est abaissée pendant une période longue, plus les agents s’attendent à ce que les bénéfices de ces faibles taux durent, et plus l’effet sur l’inflation et la demande aujourd’hui sont importants, et donc plus la banque centrale augmente le taux effectif aujourd’hui.

Dans ce cadre, la proposition néo-Fishérienne paraît donc décalée, puisqu’une baisse de la cible de taux est sans aucun doute inflationniste. Comment réconcilier ces deux propositions ? Il suffit de constater que l’argument essentiel dans la proposition néo-Fishérienne est l’aspect persistant de la baisse des taux d’intérêt (rho = 1). 

Si la baisse de la cible de taux d’intérêt est permanente, alors le système d’équations devient à long terme : 

Taylor : I = Rn + V + d(Pi – Pi*) + e.Y
Euler   : Y = – a . (R – Rn) + Y 
NKPC : Pi = bPi + c.Y
Fisher  : R = I – Pi

Ce qui donne
(c/(1-b) – e).Y = V + d.Pi.

Donc à long terme, V non nul implique Y et/ou Pi non nuls. Une baisse permanente de la cible de taux d’intérêt est donc soit incohérente avec la cible d’inflation, soit introduit un excès permanent de demande. Dès lors, les hypothèses initiales du modèle et notamment sa log-linéarisation autour de l’équilibre de long terme qui permet d’obtenir les équations d’Euler et NKPC ci-dessus ne sont plus valides, puisque l’équilibre de long terme a changé. Pour obtenir un effet néo-Fishérien, il faut donc que les agents interprètent la baisse permanente de la cible de taux d’intérêt nominal comme en réalité une baisse de la cible d’inflation implicite de la banque centrale. 

Dans le modèle néo-keynésien, la proposition néo-Fishérienne est donc très sensible à l’hypothèse de rationalité parfaite des agents, notamment sur leur capacité à faire la différence entre un choc permanent (rho=1) et un choc quasi-permanent (rho -> 1). C’est ce qui a conduit Garcia-Schmidt et Woodford (2015) à montrer que si on laisse les agents former les anticipations dans un cadre de rationalité même seulement très légèrement limité, la proposition néo-Fishérienne disparaît du modèle NK. 

Bibliographie :
Cochrane, John H. (2015) : “Do Higher Interest Rates Raise or Lower Inflation?”, Forthcoming. 

Gali, Jordi (2008) : “Monetary Policy, Inflation and the Business Cycle, An Introduction to the New Keynesian Framework”, Princeton University Press

Garcia-Schmidt, Mariana & Woodford, Michael (2015) : “Are Low Interest Rates Deflationary? A Paradox of Perfect-Foresight Analysis”, NBER Working Paper 

Woodford (2003) : “Interest and Prices, Foundations of a Theory of Monetary Policy”, Princeton University Press

vendredi 23 octobre 2015

L'accueil des migrants est une question morale, pas économique...

… et ça devrait le rester. 

Le think tank européen Bruegel, a publié une revue de littérature sur le sujet qui démystifie un peu l’impact qu’un fort afflux de migrants peu avoir sur une économie. Ainsi un afflux de migrants booste très probablement la croissance, aussi bien par l’offre que par la demande et que cet effet est d’autant plus fort qu’on autorise les migrants à travailler. L’impact sur les finances publiques est positif car les recettes fiscales supplémentaires compensent la hausse des dépenses temporaires d’accueil. A long-terme, c’est moins clair, car tout dépend de la démographie des populations assimilées. Au final, au niveau macroéconomique, un afflux de migrants s’apparente à un baby-boom : si c’est un afflux purement temporaire, il faudra donc s’attendre à un papy-boom lorsque ceux parmi ces migrants qui seront restés en France partiront à la retraite. 

La littérature est par contre beaucoup moins tranchée sur les effets redistributifs. Les prédictions théoriques sont multiples, et parfois contradictoires. Ici, je m’intéresserai à trois facteurs de production : travail, capital humain, capital physique. Les travailleurs qualifiés détiennent le capital humain, les travailleurs non qualifiés n’ont que le travail, et les capitalistes détiennent le capital physique. C’est l’association des trois qui permet la production.  

En économie fermée, une hausse soudaine d’un facteur fait a priori diminuer le revenu de ce facteur à court-terme, et augmenter le salaire de tous les autres. Par exemple, face à un afflux de travail, le capital total par travailleur diminue et le travail est moins productif. Si les salaires mettent du temps à s’ajuster à la baisse de la productivité par tête, il y a une hausse du chômage à court-terme. A l’inverse, si les migrants sont qualifiés, c’est le salaire des qualifiés qui diminue, tandis que celui des non-qualifiés augmente. 

A moyen-terme, il faut investir pour rétablir le niveau de capital par tête, et s’il existe un effet d’accélérateur (l’investissement augmente avec le taux de croissance de l’économie) la hausse initiale du chômage peut très rapidement se résorber, au point de mettre l’économie en surchauffe. Finalement, après ces soubresauts, l’économie se retrouve sur son sentier de long-terme, avec le même capital par tête qu’auparavant et donc les mêmes salaires. 

En économie ouverte, c’est totalement différent. D’abord, il faut savoir quel modèle de commerce international utiliser pour répondre à cette question. Si l’on s’intéresse à des interactions entre pays très pauvres et pays très riches il faut probablement utiliser une version du modèle de Heckscher-Ohlin (HO), dans lequel les deux pays s’adonnant au commerce se distinguent par les proportions de facteurs disponibles : il y a beaucoup plus de capital (humain+physique) par tête dans un pays que dans l’autre. Une des conclusions les plus célèbres de ce modèle très stylisé est qu’il suffit de permettre l’ouverture commerciale pour que les revenus des facteurs (capital humain, capital physique, travail) s’égalisent. Ainsi, les salaires sont déjà les mêmes dans les deux pays. Bien entendu, ce modèle est trop simple et sa prédiction est évidemment fausse, mais il donne une idée du mécanisme : en situation d’ouverture commerciale parfaite, la concurrence sur les produits crée implicitement la concurrence sur le revenu des facteurs. Si on souhaite donc préserver les travailleurs de la concurrence des migrants, fermer les frontières ne suffit pas, il faut aussi maintenir en autarcie les pays d’où ces migrants proviennent, ce qui ne semble pas très éthique. 

On peut même partir du modèle HO développer un modèle un peu plus raffiné, où la concurrence sur le marché du travail n’est pas parfaite et où les travailleurs ont un pouvoir de négociation. Si on suppose que ce pouvoir de négociation est plus élevé dans le pays riche que dans le pays pauvre, pour des raisons purement institutionnelles et donc exogènes, alors le pouvoir de négociation moyen des travailleurs de tous les pays augmente lorsqu’un travailleur passe du pays pauvre au pays riche. Pour faire court, si plus de travailleurs des pays pauvres s’installent dans les pays riches, les possibilités de délocalisation diminuent. 

Si ce mécanisme est vrai, il entre donc en opposition frontale avec une idée très présente à gauche notamment, selon laquelle le patronat adore l’immigration puisqu’elle permet de mettre en concurrence les travailleurs locaux avec de la main d’œuvre moins chère. Michel Onfray, qui adore parler d’économie, répète cela depuis un certain temps (notamment dans l’entretien donné au Figaro en septembre) mais cela fait partie de ces phrases qui sonnent vraies mais dont le contraire sonne tout aussi vrai. Stéphane Ménia a déjà écrit sur le sujet

Les études empiriques le montrent, il est difficile de trancher. La plupart des études concluent à une hausse des salaires des travailleurs qualifiés, mais il est difficile de conclure sur les salaires des travailleurs non-qualifiés : certaines études empiriques confirment le résultat de l’économie fermée, et constatent une légère baisse des salaires, certains montrent que les complémentarités dominent et que les migrants les moins qualifiés arrivent en bas de l’échelle, permettant à leurs prédécesseurs de monter dans la distribution (le travailleur local devient le chef des nouveaux arrivants). 

Au final, il faut absolument que le débat sur la question des migrants quitte le domaine économique. Cela permet aux opposants de faire peur à la population en la convainquant que la France ne peut pas « se permettre » d’accueillir plus de migrants qu’elle ne le fait déjà, sans avoir à entrer sur le terrain éthique ou culturel, beaucoup plus miné et beaucoup moins payant électoralement. 

Je pense qu'il faut accueillir ces gens parce que c’est un impératif moral, pas parce que cela fait augmenter de X% les recettes fiscales. Si la littérature économique montrait un fort effet négatif, je ne penserais pas différemment. 





mercredi 21 octobre 2015

La croissance potentielle dans le débat public

Les règles budgétaires, en particulier celles européennes matérialisées dans le Pacte de Stabilité et Croissance, font de plus en plus l’utilisation de la notion de déficit structurel comme mesure de la situation budgétaire de moyen/long terme des administrations publiques, c’est-à-dire corrigée du cycle. Le déficit structurel permettrait, au moins dans l’esprit des rédacteurs ainsi que des garants du respect de la règle, de s’abstraire de conditions temporaires en regardant la « vraie » situation du pays, celle qui prévaudra à long terme, et à laquelle il est nécessaire de s’adapter afin de préserver (ou restaurer) la soutenabilité des finances publiques. 

Maintenant que ces contraintes sont intériorisées par le décideur public national, ce qui était le but des traités européens forçant l’inscription de ces règles dans la législation nationale, leur impact sur le débat public doit être discuté. Le respect des règles nous est enseigné depuis le plus jeune âge, et le simple fait d’appeler une règle budgétaire une règle lui confère une aura aux yeux du public. Or si des décennies de débat sur les règles pénales, électorales, commerciales, etc., ont affûté la connaissance des médias et décideurs sur ces sujets, et permettent aujourd’hui au citoyen informé de prendre conscience des implications de certaines décisions, la connaissance du fonctionnement des règles de stabilisation macroéconomique est encore parcellaire. 

Ces règles de stabilisation sont de deux principales sortes : les règles de politique monétaire, traduites en langage législatif dans le mandat de la banque centrale, et les règles budgétaires, traduites en langage législatif dans les traités européens. On peut aussi noter l’apparition des règles de coordination dans les fédérations où les régions conservent une grande partie de la souveraineté et qui ne s’intéressent pas seulement à la situation budgétaire des Etats mais également à l’impact que leurs décisions peuvent avoir sur leurs voisins, notamment au sein d’une union monétaire. 

Toutes ces règles ont en commun une chose noble, qui est de vouloir aider le décideur public à favoriser le long-terme sans négliger le court-terme. Mais ces règles ont également toutes en commun le présupposé qu’il existe nécessairement un conflit entre le court-terme et le long-terme, comme si cela heurtait le bon sens (notre morale, notre intuition, rayez la mention inutile), qu’on peut avoir « le beurre, et l’argent du beurre ». Par exemple, une règle de politique monétaire comme la règle de Taylor, qui fixe la réponse des taux d’intérêt à une déviation de l’inflation ou du chômage de son niveau de long-terme, permet de quantifier à quel point la banque centrale peut se permettre de dévier de sa cible d’inflation (dont la crédibilité est essentielle à long-terme) pour régler un déficit de demande temporaire. Les règles budgétaires qui décomposent le déficit courant en déficit conjoncturel et structurel, et fixent des horizons au-delà duquel le déficit structurel doit revenir en deçà d’un certain plafond, permettent au décideur public confronté à une crise importante de laisser jouer les stabilisateurs automatiques (hausse du déficit conjoncturel) et même d’aller plus loin dans la relance (hausse du déficit structurel), à condition de revenir dans les clous assez vite. 

Les critiques contre ce genre de règles sont nombreuses et souvent très pertinentes, mais la plupart tournent autour d’un thème : il est difficile de mesurer en temps réel le potentiel de l’économie et la réponse des variables comme l’inflation, le chômage et les recettes fiscales à une déviation de ce potentiel. Je ne souhaite pas m’étendre sur ces critiques bien connues, car bien que je les estime suffisantes pour que la décision publique ne soit pas légalement contrainte par des estimations de potentiel techniquement difficiles, elles ne remettent pas en cause l’existence même de ce potentiel. 

Aujourd’hui, le potentiel de l’économie, et donc l’écart de la réalité à son potentiel (output gap), peuvent être mesurées de plusieurs façons, toutes étant une combinaison de méthodes purement statistiques (en modélisant les variables macroéconomiques comme oscillant autour d’une tendance) et purement structurelles (on connaît la fonction de production de l’économie et ses facteurs potentiels, donc on connaît la production potentielle). 

Prenons par exemple l’estimation de la croissance potentielle dans laquelle on modélise la production comme utilisant deux facteurs, le capital d’un côté, le travail de l’autre, et dont les interactions sont augmentées par la productivité globale des facteurs, qui traduit le degré d’optimisation des ressources. Pour calculer le potentiel de l’économie, on calcule une tendance de productivité globale, on s’appuie sur le stock de capital existant, et on calcule une force de travail potentielle, qui est obtenue en supposant à l’aide d’hypothèses démographiques, du niveau de long terme du chômage, et de la tendance du taux d’activité. 

Une fois ce travail accompli, on pourra dire par exemple que la croissance potentielle de la France, d’environ 2% par an dans les années 2000, a ralenti à 0,6% par an ensuite. Ainsi, une bonne part de l’augmentation du déficit suite à la crise est structurelle. Le décideur politique prendra cela et la règle comme données, adaptera la politique économique de façon à réduire le déficit structurel dans le temps imparti. Or ce que la règle ne dit pas, c’est que l’estimation de la croissance potentielle est probablement très sensible à la réponse du décideur politique à la crise en question. Un exemple est la réponse du stock de capital à la crise : si le décideur politique tarde à réagir à la crise, l’investissement tardera à repartir et cela aura un effet permanent sur le potentiel de l’économie. La même logique peut être appliquée à la productivité globale des facteurs (des connaissances se perdent) et à la force de travail (des travailleurs quittent définitivement la population active ou perdent des compétences). Tout cela ne provenant que d’une erreur de politique économique. Ces effets sont bien connus, ce sont les effets d’hystérèse. 

Il existe donc probablement un « potentiel potentiel », ou popotentiel™, derrière le potentiel, c’est-à-dire ce qu’il serait advenu si la réponse des décideurs publics avait été plus rapide ou plus importante. On peut aller plus loin, et se demander à partir de quand il est trop tard pour corriger des erreurs passées, et ce popotentiel n’est plus atteignable : trop de relations commerciales fructueuses ont été détruites depuis trop longtemps, trop de gens ont émigré définitivement, etc. 

Au final, on ne devrait pas juger l’efficacité de la politique économique passée à l’aune d’estimations du potentiel elles-mêmes dépendantes de la politique économique, et encore moins prendre des décisions de politique économique sur la base de grandeurs qui auront tendance à inscrire dans le marbre les erreurs passées. Si on tient vraiment à utiliser ce genre de mesure, on pourrait par exemple utiliser comme potentiel pendant la crise ce qu’on anticipait comme potentiel avant la crise. On s’exposerait peut-être au risque de surestimation du potentiel si la crise révèle effectivement une rupture de tendance dans les capacités de production, rupture qui ne peut être corrigée par la stabilisation macroéconomique. Mais je pense que les conséquences de cette erreur – une relance trop forte –  sont inférieures aux conséquences de l’erreur inverse – des ressources gâchées. 

vendredi 14 août 2015

Le bruit et ma fureur

Les médias sont incorrigibles. Les chiffres de la croissance du deuxième trimestre publiés par l'Insee ce matin sont légèrement décevants et une bonne partie de la presse s'empresse de tirer la ligne, interprétant ce coup de mou comme le signe que la reprise tant annoncée n'arrivera jamais. 

Souvenez-vous, au premier trimestre, lorsque l'Insee avait publié une croissance de +0,6% (aujourd'hui révisée à +0,7%), comment les commentateurs surpris avaient commencé à se dire "et si finalement la reprise était bien là et plus rapide qu'attendue" tandis que les incrédules, les éternels pessimistes s'étaient appliqués à démontrer que ce n'était qu'un feu de paille dû à la baisse de l'euro, des prix du pétrole ou au rebond de l'énergie (rayez la ou les mentions inutiles). 

En vérité, l'économie française a crû de 0,3% en moyenne par trimestre au premier semestre, soit un rythme cohérent avec une croissance annuelle de 1,2%, plus rapide que les trois dernières années mais pas la panacée non plus. Comme l'a signalé l'Insee en juin, le climat des affaires, approchant sa moyenne de longue periode, est cohérent avec une croissance annuelle de 1,2%. Le glissement annuel (trimestre de cette année sur même trimestre l'année précédente) du PIB était de +0,9% au premier trimestre, il est de +1,0% au deuxième trimestre. 

Ce même climat des affaires s'est légèrement amélioré en juillet, donc même sans grand optimisme et en supposant qu'il se stabilisera sur le reste de l'année, on reste sur une croissance supérieure à 1% en rythme annuel. 

Les à-coups d'un trimestre à un autre font verser beaucoup d'encre, mais les journalistes adorent commenter le bruit statistique et n'ont aucune compétence pour analyser le signal sous-jacent. En raison de facteurs temporaires, la croissance était plus élevée que ce qu'elle devait être en début d'année, pour la même raison elle est trop basse au deuxième trimestre, et quand on ne garde les yeux que sur le dernier chiffre on oublie la tendance, qui elle s'est nettement améliorée depuis l'an dernier. 

Bref, ne laissez pas les journalistes pourrir votre week-end du 15 août! 




samedi 4 juillet 2015

Grèce

Je n'ai pas envie de m'attarder sur le sujet car tout a déjà été dit sur les aspects économiques. 

Mais un très bon résumé, accompagné de la dose parfaite d'agacement et de clairvoyance, peut être trouvé chez Steve Randy Waldman 


Spoiler alert: tout est purement politique, et c'est désespérant. 




mardi 16 juin 2015

Pourquoi le chômage augmente-t-il?

Vaste sujet, sur lequel il est très difficile d’avoir les idées claires. Certains blâment la mécanisation ou la concurrence avec les pays pauvres, d’autres le recul de l’âge de départ à la retraite ou l’arrivée des femmes dans la population active, et d’autres encore la Crise, malaise indéfinissable dont j’entends parler depuis ma naissance, et cette cacophonie entretient la confusion dans laquelle les Français baignent depuis la fin des Trente Glorieuses, époque bénie du Petit Nicolas et de la guerre d’Algérie. 

En vérité, le chômage n’augmente pas tout le temps, parfois il baisse même : voici un graphique représentant le taux de chômage en France métropolitaine depuis 1975, publié par l’Insee. 


Le premier constat, c’est qu’il a effectivement nettement augmenté de 1975 à 1985, passant ainsi de 3% de la population active environ à près de 9% en moyenne depuis. Le deuxième constat, c’est qu’il fluctue beaucoup, entre un minimum de 6,8% au premier trimestre 2008 et un maximum de 10,4 % atteint à deux reprises, en 1994 et 1997. 

Pour obtenir une telle hausse du niveau de chômage de long terme (hors fluctuations de court-terme), il faut que des caractéristiques intrinsèques au marché du travail aient changé. Par exemple, cela peut provenir d’une augmentation du chômage dit « frictionnel », c’est-à-dire que les gens changent plus souvent d’emploi qu’auparavant, à dessein ou non, avec une période incompressible de chômage entre deux emplois : la durée moyenne au chômage dans les années 70 était de 16 mois, elle est tombée à 13 mois de 1980 à 2010, et est de nouveau de 16 mois depuis 2000, ce qui suggère que le chômage est un phénomène plus fréquent mais pas plus durable qu’avant. Cela peut également provenir d’un écart permanent entre la productivité et le coût réel de l’emploi pour une partie plus importante de la population, mais l’effet sur l’emploi de l’instauration d’un salaire minimum qu’on trouve dans la littérature est trop faible pour expliquer la hausse depuis 1970. 

En revanche, le ralentissement de la croissance de long terme ne peut pas expliquer cette hausse du chômage de long terme. La croissance de long-terme représente la croissance du potentiel de production de l’économie, qui dépend de la productivité, des caractéristiques du marché du travail, et de la population active. Ainsi, toutes choses égales par ailleurs, une dégradation des caractéristiques du marché du travail cause un ralentissement de la croissance potentielle, et non l’inverse. De même, un ralentissement de la productivité signifiera juste qu’un emploi donné contribuera moins à la croissance, mais ne dit rien sur la dynamique de l’emploi. Et il en est de même pour les variations de population (entrée des femmes sur le marché du travail, immigration, hausse passée de la natalité, recul de l’âge de départ à la retraite), supposées n’avoir aucun effet sur le chômage de long terme. 

A court-terme, c’est différent. Des évènements exogènes perturbent l’équilibre et causent des fluctuations, qu’on essaie de distinguer entre fluctuations liées à l’offre (= les capacités de production) et fluctuations liées à la demande (= la consommation et l’investissement). Dans le cas de fluctuations exclusivement liées à l’offre, on ne s’attend pas à un effet majeur de premier ordre sur l’emploi et le chômage. Par exemple, un ralentissement de la productivité dans une économie tournant à plein régime se traduira par un ralentissement des salaires, de la croissance et de la consommation, à emploi inchangé. Il peut cependant y avoir des effets de second ordre s’il existe des frictions réelles dans l’économie, par exemple si l’innovation requiert de déplacer les travailleurs d’un secteur vers un autre, et que cela ne se fait pas du jour au lendemain. 

Dans le cas de fluctuations exclusivement liées à la demande, tout dépend des frictions dites nominales, c’est-à-dire à quel point le salaire nominal permet de maintenir le plein emploi. Par exemple, considérons que deux facteurs sont utilisés dans la production, le capital et le travail. Les entreprises choisissent le mix capital/travail optimal selon les coûts réels relatifs de chacun (plus un facteur est « relativement » cher, moins il est utilisé dans le mix). Dans un monde où la production est contrainte par une demande basse, les entreprises vont chercher à réduire leurs capacités de production. Si les coûts relatifs du capital et du travail restent inchangés, elles vont garder le même rapport entre les deux et réduire leurs investissements et leurs embauches, ce qui réduit l’emploi. Le seul moyen de maintenir l’emploi est de changer le mix capital/travail au profit de ce dernier, ce qui passe par une baisse du coût du travail relativement au coût du capital (ou bien de résoudre la crise de demande). Or l’existence de rigidités nominales sur les salaires ne permet pas au coût réel du travail de diminuer, et si l’inflation ralentit fortement, c’est même l’inverse qui se produit. 

Il peut se passer des choses différentes d’un pays à un autre. Par exemple, après la crise, le Royaume-Uni a connu une forte réduction du coût du travail (plus forte inflation, plus forte mobilité sectorielle), et a permis d’augmenter la part du travail dans la production, au détriment du capital. La contrepartie du modèle anglais est la forte réduction de la productivité, qui a étonné les observateurs et a inquiété les économistes, le Royaume-Uni ayant pris le risque de rendre permanente la perte de valeur ajoutée consécutive à la crise, pour un bénéfice seulement temporaire (baisse du chômage plus rapide).  En France, l’exact contraire s’est produit, le mix capital/travail est resté sensiblement le même, la productivité ne s’est pas effondrée, au détriment de l’emploi. Aucun des deux modèles n’est strictement préférable à l’autre. Le modèle anglais rend les effets de la crise plus diffus mais prend plus le risque de les rendre permanents. Le modèle français préserve le capital humain et le capital productif, mais est moins flexible. 

Cette inertie du modèle français peut d’ailleurs être à l’origine pour partie de l’élévation du taux de chômage moyen depuis 1980, si les crises sont de plus en plus rapprochées : l’emploi mettant plus de temps à se remettre d’une crise, la crise suivante arrive avant qu’on ait pu se remettre de la précédente. Le taux de chômage de long terme est peut-être nettement plus bas que 6.8%, mais on n’a jamais eu le temps de l’atteindre. 

Mais aujourd’hui qu’en est-il ? Un moyen de tester si le chômage est surtout conjoncturel ou surtout structurel est de regarder ce qu’il se passe lorsque la population active augmente fortement ou diminue fortement. Si on néglige les effets dits de flexion ou de découragement (les entrées et sorties de la population active dépendent partiellement de l’état du marché du travail), et qu’on admet que le modèle français préserve plutôt le mix capital/travail, des variations de population active n’ayant a priori aucun effet sur la demande (par exemple, un départ à la retraite ne change pas le nombre de consommateurs, alors que l’arrivée d’un immigrant si) devraient se traduire par des variations du nombre de chômeurs. Le graphique ci-dessous décompose la variation du taux d’activité depuis 1976 en taux d’emploi et taux de chômeurs (nombre de chômeurs/ population totale, différent du taux de chômage). Les années suivant une crise de demande (1993-1995 ; 2002-2004 ; 2009-2013) lorsque la population active accélère, le nombre de chômeurs accélère, alors que l’emploi reste bas. En l’occurrence, le taux d’emploi est stable depuis 2010, mais le taux de chômeurs augmente car le taux d’activité augmente. 

Désormais, plusieurs choses peuvent se passer. Soit la demande reste déprimée, et les politiques visant à réduire le coût du travail permettent d’enrichir la croissance en emplois (ó baisser la productivité), et on s’oriente vers le modèle anglais (sans aller aussi loin je pense, peut-être que pour des raisons culturelles et/ou institutionnelles le travail est moins mobile d’un secteur à un autre en France). Soit contrainte de demande disparaît et on revient au taux maximum d’utilisation des capacités de production (TUC), et dans ce cas le fait que le taux d’activité ait augmenté depuis 2009 laisse présager un rebond plus fort que n’a été la chute : non seulement l’emploi se rétablit, mais il doit augmenter pour absorber la hausse du taux d’activité, ce qui stimule l’investissement et crée un cercle vertueux offre>demande>offre. 






F25E672E-07E1-4470-8937-D469C6F34D2E