vendredi 13 novembre 2015

Les taux d'intérêt bas sont-ils déflationnistes ?

(Attention, article très long et plutôt technique)

C’est une proposition que de nombreux économistes avancent et connue sous le nom de Néo-Fishérienne, du nom de l’économiste américain Irving Fisher, connu pour ses travaux sur les taux d’intérêt et qui a donné son nom à une équation fondamentale dans les modèles utilisés pour analyser la politique monétaire. 

Ces modèles, dits d’équilibre général dynamique stochastique (DSGE en anglais), tiennent compte de l’ensemble des comportements des agents dans l’économie, et pas seulement de l’effet causal d’une variable sur une autre (équilibre général vs équilibre partiel), tiennent compte de la volonté des agents d’optimiser leur comportement sur plusieurs périodes (dynamique vs statique), et autorisent les variables exogènes (c’est-à-dire extérieures au modèle) à évoluer suivant des lois statistiques caractérisant la taille et la persistance des chocs subis par le système (stochastique). 

Ces modèles avaient pour but de répondre à la critique de Lucas selon laquelle il n’est pas pertinent d’estimer l’effet d’un changement de politique économique sur la base de relations statistiques passées, dans la mesure où les agents réagiront à ce changement de politique économique en formant de nouvelles anticipations. Notamment, la fameuse courbe de Philips donnant une relation décroissante entre inflation et chômage ne pouvait plus être considérée comme stable dans le temps, les critiques les plus extrêmes allant jusqu’à affirmer que celle-ci était simplement verticale, que le chômage ne dépendait que de facteurs purement structurels et que toute politique inflationniste n’aurait aucun effet positif sur le chômage.

Les premiers modèles développés dans les années 80 (RBC ou Real Business Cycles) faisaient donc l’hypothèse d’anticipations parfaitement rationnelles (les agents connaissent le modèle de l’économie et utilisent toute l’information à disposition pour optimiser leur comportement), d’une concurrence parfaite et de prix parfaitement flexibles. Ces modèles aboutissaient ainsi à une neutralité complète de la monnaie, c’est-à-dire au fait que la politique monétaire, que ce soit via les taux d’intérêts nominaux ou via la masse monétaire en circulation, n’avait aucun effet sur les variables dites réelles, à savoir le chômage et la croissance en volume, une conclusion contraire à ce que la littérature empirique affirme. 

Afin d’améliorer la pertinence empirique de ces modèles, une nouvelle classe de modèle a été développée à partir de ces premiers essais, grâce à l’introduction d’une concurrence monopolistique associée à une rigidité nominale des prix. Dans cette classe de modèles, les prix ne sont plus magiquement déterminés par le commissaire-priseur Walrasien et considérés comme donnés par les entreprises, mais sont le résultat du programme d’optimisation du profit dans un contexte où chaque entreprise est en situation de monopole sur la fourniture de son produit, et où les consommateurs retirent de l’utilité de la diversité de leur panier de consommation. Ainsi, une entreprise aura à choisir un prix assez élevé pour en profiter mais pas trop de manière à ne pas décourager la demande pour son bien. La marge des entreprises est ainsi directement reliée à la volonté des consommateurs à substituer un bien pour un autre lorsque son prix augmente. Enfin, la rigidité nominale peut être introduite de plusieurs manières, certaines étant formellement équivalentes, mais toutes conduisant à la constatation que les entreprises ne ré-optimisent pas leurs prix en continu, ce dont elles tiennent compte lorsqu’elles choisissent un nouveau prix : puisqu’elles seront coincées avec pendant un certain temps, ce prix dépend de leurs anticipations de la demande et des prix moyens futurs. Ces modèles ont été assez improprement appelés néo-keynésiens (NK), essentiellement parce que l’introduction d’une rigidité des prix permettait de retrouver la possibilité d’un chômage involontaire. En ce sens, ils sont plutôt néo-hicksiens. 

La version la plus élémentaire de cette classe de modèle, décrite par Woodford (2003) et Gali (2008) permet de capter les intuitions les plus importantes. Ce modèle en économie fermée, avec anticipations rationnelles et sans accumulation de capital, aboutit à trois équations fondamentales, les deux premières étant communes aux modèles RBC et NK. 

L’équation d’Euler décrit comme la demande évolue avec les taux d’intérêts et les anticipations de demande future, et provient de l’optimisation de programme de consommation-épargne des ménages. Dans cette équation, des taux d’intérêts réels élevés découragent la demande : 

Euler : Y(t) = – a . ( R(t) – Rn(t)) + Et[Y(t+1)] : 
où Y est l’excès de demande, R le taux d’intérêt réel, Rn le taux d’intérêt naturel (celui qui prévaudrait si les prix étaient flexibles), et Et est l’opérateur d’espérance, qui désigne les anticipations rationnelles en t d’une variable future. 

L’équation de Fisher définit le taux d’intérêt réel comme la différence entre le taux d’intérêt nominal et l’anticipation d’inflation :

Fisher : R(t) = I(t) – Et[Pi(t+1)] 
où I est le taux nominal de court terme et Pi est l’inflation. 

La troisième et dernière équation, spécifique aux modèles NK, réintroduit une relation décroissante entre le chômage et l’inflation (ou croissante entre l’excès de demande et l’inflation), mais y ajoute un terme d’anticipation, d’où son nom de courbe de Phillips augmentée ou courbe de Phillips néo-keynésienne (NKPC). 

NKPC : Pi(t) = b.Et[Pi(t+1)] + c.Y(t) avec b<1

Ces trois équations régissent le comportement de quatre variables endogènes : R, I, Pi et Y. Afin de pouvoir fermer le modèle, il faut donc une quatrième équation, ce qui montre que des variables réelles comme le taux d’intérêt réel et la croissance ne peuvent être déterminées indépendamment de la politique monétaire. Une autre conclusion de ces modèles, c’est que les effets de la politique monétaire sur les variables réelles ne peuvent qu’être de court terme, car il est facile de vérifier qu’à long-terme ces trois équations aboutissent au même résultat qu’un modèle RBC sans rigidité nominale.

C’est ici qu’intervient la proposition néo-Fishérienne. Supposez que la banque centrale fixe le taux nominal I(t) à chaque période, et considérez qu’à long-terme le taux d’intérêt réel R(t) est exogène et égal à Rn(t). Dans ce cas, l’équation de Fisher permet de déterminer les anticipations d’inflation et donc à long-terme, quand il ne serait pas rationnel d’anticiper un écart permanent avec l’inflation réalisée, de déterminer l’inflation. A long terme, Fisher devient : 

Pi* = I* – Rn. 

Ainsi, il apparaît évident que si la banque centrale choisit d’abaisser I* de manière permanente, l’inflation Pi* diminue. Une baisse du taux d’intérêt serait donc déflationniste. Pourquoi cette proposition est-elle contre-intuitive? Tout simplement parce qu’on s’attend à ce qu’une baisse des taux nominaux accompagnée d’une rigidité des prix débouche sur une baisse des taux réels, et que la demande dépend négativement des taux d’intérêts réels dans l’équation d’Euler. Enfin, la courbe de Phillips nous donne une relation positive entre la demande et l’inflation, donc il paraît étrange que le même modèle nous donne simultanément une relation négative entre inflation et taux nominal à court terme mais positive à long terme : comment passe-t-on d’une succession de courts termes au long terme ? 

Il est donc essentiel de préciser ce qu’on entend par « baisse permanente du taux d’intérêt nominal ». Selon la règle de politique monétaire adoptée, les effets d’une telle baisse varieront. 

Le premier cas simple, est celui d’une règle de politique monétaire dans lequel la banque centrale choisit une cible de taux d’intérêt nominal. C’est le cadre théorique qui vient immédiatement à l’esprit lorsqu’on cherche à imaginer ce que signifie une baisse permanente du taux d’intérêt. C’est aussi le cadre théorique adopté par Cochrane (2015). Le problème d’une telle règle monétaire, c’est que la résolution du modèle décrit par les trois équations et la contrainte I(t) = I*  ne permet pas de déterminer l’inflation : seules les anticipations d’inflation admettent une unique solution, ce qui signifie qu’il existe une infinité de solutions stationnaires pour l’inflation. Si on s’abstrait toutefois de ce problème en introduisant une nouvelle équation permettant de faire disparaître l’indétermination des prix (par exemple la théorie budgétaire du niveau des prix), on aboutit nécessairement à la conclusion qu’une baisse permanente du taux d’intérêt diminue l’inflation. La politique des grandes banques centrales (Fed, BoE, BCE…) depuis 2008 serait donc contraire à leur objectif de stabiliser l’inflation à 2%. Le canal de transmission est le suivant : les agents anticipent des taux nominaux bas à long-terme, révisent donc leurs anticipations d’inflation de long-terme puisqu’ils savent que celles-ci sont contraintes par le taux d’intérêt naturel, et les entreprises qui réactualisent leur prix ont moins besoin d’anticiper les hausses futures de prix, ce qui diminue l’inflation dès aujourd’hui. En outre, l’inflation diminuant moins que le taux nominal à cause des rigidités, le taux réel diminue et la demande augmente. Jim Bullard, président de la Fed de Saint-Louis, a fourni une analyse similaire récemmentet assimile cette dynamique à ce qu’il s’est passé depuis 2008. 

Le problème de cette règle monétaire est que ce n’est pas ainsi que les banques centrales fonctionnent, et que si c’était le cas elles ne seraient pas crédibles. En effet, une telle règle débouche soit sur l’indétermination du niveau des prix, qui peut avoir des conséquences négatives en terme de bien-être social puisque l’incertitude sur les prix est à la source d’inefficacités microéconomiques importantes (comment négocier un salaire, un emprunt, un prix de vente entre fournisseur et client ?), soit sur la disparition du rôle de la banque centrale, puisque le niveau des prix sera déterminé par un autre canal. Ainsi, si cette règle n’est pas crédible et que les agents anticipent que la banque centrale l’abandonnera, le canal de transmission décrit ci-dessus disparaît. 

Un cadre théorique qui décrit mieux l’action des banques centrales est celui où le taux d’intérêt nominal suit une règle de Taylor qui fait évoluer le taux d’intérêt nominal autour d’une cible de long-terme I*, en réponse aux fluctuations de l’inflation et de l’excès de demande. 

Taylor : I(t) = I*(t) + d.(Pi(t) – Pi*) + eY(t). 
Où Pi* est la cible d’inflation de la banque centrale, qui peut être supposé nulle sans perte de généralité dans le modèle. 

Taylor : I(t) = I*(t) + d.Pi(t) + eY(t).

Ainsi, quand l’inflation excède sa cible ou que l’excès de demande devient positif, la banque centrale augmente le taux nominal. Ce modèle peut être résolu et à la condition que d > 1 admet une unique solution stationnaire pour l’inflation (principe de Taylor). Cela traduit le fait que lorsque l’inflation augmente d’un point, il faut augmenter le taux nominal de plus qu’un point pour que le taux réel (=I-Pi) augmente, ce qui permet de réduire l’excès de demande et donc l’inflation. 

Dans ce cadre, on peut décrit I* comme suivant un processus exogène : 
I*(t) = Rn + V(t)
V(t) =  rho.V(t-1) + epsilon(t)
Où V est un choc de politique monétaire caractérisé par sa persistance rho (plus rho est proche de 1, plus un changement epsilon de cible I* une année donnée dure). V peut être interprété comme un changement du taux d’intérêt nominal qui ne serait pas justifié par une fluctuation de l’inflation ou de la demande. 

Ainsi, si la politique monétaire ne subit aucun choc, I* est constant et cohérent avec l’équilibre de long terme dans lequel l’inflation vaut Pi*. A court terme, et contrairement au cas précédent, I fluctue avec Y et Pi, qui peuvent eux subir des chocs d’autre nature (productivité…). 

Dans ce cadre, une baisse de la cible de taux d’intérêt à cible d’inflation inchangée s’interprète comme une valeur négative de V(t), donc un choc négatif epsilon une année donnée t accompagné d’une persistance rho. Quelle est la réponse des variables endogènes du modèle? 

Le résultat dans le cas où rho serait quelconque est le suivant : 
Pi(t) = – c.alpha . V(t)
Y(t) = – (1 – b.rho).alpha.V(t)
R(t) = (1/c).(1 – rho).(1 – b.rho).alpha.V(t).
I(t) = [(1/c).(1 – rho).(1 – b.rho) – c.rho].alpha.V(t)

Où Pi, Y, R, et I désignent les écarts de ces variables à ce qu’il se serait passé si la banque centrale n’avait rien fait, et où alpha dépend des paramètres du modèle mais est positif. Ainsi, suite à une baisse de la cible de taux, l’inflation et la demande augmentent toutes les deux. En particulier, l’effet cet effet est positif quelle que soit la persistance rho. Lorsque rho tend vers 1, alpha reste positif. Le taux d’intérêt réel quant à lui diminue. 

Qu’arrive-t-il au taux nominal ? Si la persistance du choc initial est très élevée, le taux d’intérêt nominal va augmenter. En d’autres termes, une baisse pendant très longtemps de la cible de taux d’intérêt nominal va se traduire par une hausse du taux d’intérêt nominal ! Cela paraît étrange, mais le canal de transmission est plutôt simple : en raison de la règle de Taylor, la banque centrale fait évoluer le taux d’intérêt nominal positivement avec l’inflation et la demande. La baisse de la cible est interprétée par les agents comme une baisse du taux nominal, à inflation et demande données, ce qui stimule la demande et l’inflation. Plus cette cible est abaissée pendant une période longue, plus les agents s’attendent à ce que les bénéfices de ces faibles taux durent, et plus l’effet sur l’inflation et la demande aujourd’hui sont importants, et donc plus la banque centrale augmente le taux effectif aujourd’hui.

Dans ce cadre, la proposition néo-Fishérienne paraît donc décalée, puisqu’une baisse de la cible de taux est sans aucun doute inflationniste. Comment réconcilier ces deux propositions ? Il suffit de constater que l’argument essentiel dans la proposition néo-Fishérienne est l’aspect persistant de la baisse des taux d’intérêt (rho = 1). 

Si la baisse de la cible de taux d’intérêt est permanente, alors le système d’équations devient à long terme : 

Taylor : I = Rn + V + d(Pi – Pi*) + e.Y
Euler   : Y = – a . (R – Rn) + Y 
NKPC : Pi = bPi + c.Y
Fisher  : R = I – Pi

Ce qui donne
(c/(1-b) – e).Y = V + d.Pi.

Donc à long terme, V non nul implique Y et/ou Pi non nuls. Une baisse permanente de la cible de taux d’intérêt est donc soit incohérente avec la cible d’inflation, soit introduit un excès permanent de demande. Dès lors, les hypothèses initiales du modèle et notamment sa log-linéarisation autour de l’équilibre de long terme qui permet d’obtenir les équations d’Euler et NKPC ci-dessus ne sont plus valides, puisque l’équilibre de long terme a changé. Pour obtenir un effet néo-Fishérien, il faut donc que les agents interprètent la baisse permanente de la cible de taux d’intérêt nominal comme en réalité une baisse de la cible d’inflation implicite de la banque centrale. 

Dans le modèle néo-keynésien, la proposition néo-Fishérienne est donc très sensible à l’hypothèse de rationalité parfaite des agents, notamment sur leur capacité à faire la différence entre un choc permanent (rho=1) et un choc quasi-permanent (rho -> 1). C’est ce qui a conduit Garcia-Schmidt et Woodford (2015) à montrer que si on laisse les agents former les anticipations dans un cadre de rationalité même seulement très légèrement limité, la proposition néo-Fishérienne disparaît du modèle NK. 

Bibliographie :
Cochrane, John H. (2015) : “Do Higher Interest Rates Raise or Lower Inflation?”, Forthcoming. 

Gali, Jordi (2008) : “Monetary Policy, Inflation and the Business Cycle, An Introduction to the New Keynesian Framework”, Princeton University Press

Garcia-Schmidt, Mariana & Woodford, Michael (2015) : “Are Low Interest Rates Deflationary? A Paradox of Perfect-Foresight Analysis”, NBER Working Paper 

Woodford (2003) : “Interest and Prices, Foundations of a Theory of Monetary Policy”, Princeton University Press

vendredi 23 octobre 2015

L'accueil des migrants est une question morale, pas économique...

… et ça devrait le rester. 

Le think tank européen Bruegel, a publié une revue de littérature sur le sujet qui démystifie un peu l’impact qu’un fort afflux de migrants peu avoir sur une économie. Ainsi un afflux de migrants booste très probablement la croissance, aussi bien par l’offre que par la demande et que cet effet est d’autant plus fort qu’on autorise les migrants à travailler. L’impact sur les finances publiques est positif car les recettes fiscales supplémentaires compensent la hausse des dépenses temporaires d’accueil. A long-terme, c’est moins clair, car tout dépend de la démographie des populations assimilées. Au final, au niveau macroéconomique, un afflux de migrants s’apparente à un baby-boom : si c’est un afflux purement temporaire, il faudra donc s’attendre à un papy-boom lorsque ceux parmi ces migrants qui seront restés en France partiront à la retraite. 

La littérature est par contre beaucoup moins tranchée sur les effets redistributifs. Les prédictions théoriques sont multiples, et parfois contradictoires. Ici, je m’intéresserai à trois facteurs de production : travail, capital humain, capital physique. Les travailleurs qualifiés détiennent le capital humain, les travailleurs non qualifiés n’ont que le travail, et les capitalistes détiennent le capital physique. C’est l’association des trois qui permet la production.  

En économie fermée, une hausse soudaine d’un facteur fait a priori diminuer le revenu de ce facteur à court-terme, et augmenter le salaire de tous les autres. Par exemple, face à un afflux de travail, le capital total par travailleur diminue et le travail est moins productif. Si les salaires mettent du temps à s’ajuster à la baisse de la productivité par tête, il y a une hausse du chômage à court-terme. A l’inverse, si les migrants sont qualifiés, c’est le salaire des qualifiés qui diminue, tandis que celui des non-qualifiés augmente. 

A moyen-terme, il faut investir pour rétablir le niveau de capital par tête, et s’il existe un effet d’accélérateur (l’investissement augmente avec le taux de croissance de l’économie) la hausse initiale du chômage peut très rapidement se résorber, au point de mettre l’économie en surchauffe. Finalement, après ces soubresauts, l’économie se retrouve sur son sentier de long-terme, avec le même capital par tête qu’auparavant et donc les mêmes salaires. 

En économie ouverte, c’est totalement différent. D’abord, il faut savoir quel modèle de commerce international utiliser pour répondre à cette question. Si l’on s’intéresse à des interactions entre pays très pauvres et pays très riches il faut probablement utiliser une version du modèle de Heckscher-Ohlin (HO), dans lequel les deux pays s’adonnant au commerce se distinguent par les proportions de facteurs disponibles : il y a beaucoup plus de capital (humain+physique) par tête dans un pays que dans l’autre. Une des conclusions les plus célèbres de ce modèle très stylisé est qu’il suffit de permettre l’ouverture commerciale pour que les revenus des facteurs (capital humain, capital physique, travail) s’égalisent. Ainsi, les salaires sont déjà les mêmes dans les deux pays. Bien entendu, ce modèle est trop simple et sa prédiction est évidemment fausse, mais il donne une idée du mécanisme : en situation d’ouverture commerciale parfaite, la concurrence sur les produits crée implicitement la concurrence sur le revenu des facteurs. Si on souhaite donc préserver les travailleurs de la concurrence des migrants, fermer les frontières ne suffit pas, il faut aussi maintenir en autarcie les pays d’où ces migrants proviennent, ce qui ne semble pas très éthique. 

On peut même partir du modèle HO développer un modèle un peu plus raffiné, où la concurrence sur le marché du travail n’est pas parfaite et où les travailleurs ont un pouvoir de négociation. Si on suppose que ce pouvoir de négociation est plus élevé dans le pays riche que dans le pays pauvre, pour des raisons purement institutionnelles et donc exogènes, alors le pouvoir de négociation moyen des travailleurs de tous les pays augmente lorsqu’un travailleur passe du pays pauvre au pays riche. Pour faire court, si plus de travailleurs des pays pauvres s’installent dans les pays riches, les possibilités de délocalisation diminuent. 

Si ce mécanisme est vrai, il entre donc en opposition frontale avec une idée très présente à gauche notamment, selon laquelle le patronat adore l’immigration puisqu’elle permet de mettre en concurrence les travailleurs locaux avec de la main d’œuvre moins chère. Michel Onfray, qui adore parler d’économie, répète cela depuis un certain temps (notamment dans l’entretien donné au Figaro en septembre) mais cela fait partie de ces phrases qui sonnent vraies mais dont le contraire sonne tout aussi vrai. Stéphane Ménia a déjà écrit sur le sujet

Les études empiriques le montrent, il est difficile de trancher. La plupart des études concluent à une hausse des salaires des travailleurs qualifiés, mais il est difficile de conclure sur les salaires des travailleurs non-qualifiés : certaines études empiriques confirment le résultat de l’économie fermée, et constatent une légère baisse des salaires, certains montrent que les complémentarités dominent et que les migrants les moins qualifiés arrivent en bas de l’échelle, permettant à leurs prédécesseurs de monter dans la distribution (le travailleur local devient le chef des nouveaux arrivants). 

Au final, il faut absolument que le débat sur la question des migrants quitte le domaine économique. Cela permet aux opposants de faire peur à la population en la convainquant que la France ne peut pas « se permettre » d’accueillir plus de migrants qu’elle ne le fait déjà, sans avoir à entrer sur le terrain éthique ou culturel, beaucoup plus miné et beaucoup moins payant électoralement. 

Je pense qu'il faut accueillir ces gens parce que c’est un impératif moral, pas parce que cela fait augmenter de X% les recettes fiscales. Si la littérature économique montrait un fort effet négatif, je ne penserais pas différemment. 





mercredi 21 octobre 2015

La croissance potentielle dans le débat public

Les règles budgétaires, en particulier celles européennes matérialisées dans le Pacte de Stabilité et Croissance, font de plus en plus l’utilisation de la notion de déficit structurel comme mesure de la situation budgétaire de moyen/long terme des administrations publiques, c’est-à-dire corrigée du cycle. Le déficit structurel permettrait, au moins dans l’esprit des rédacteurs ainsi que des garants du respect de la règle, de s’abstraire de conditions temporaires en regardant la « vraie » situation du pays, celle qui prévaudra à long terme, et à laquelle il est nécessaire de s’adapter afin de préserver (ou restaurer) la soutenabilité des finances publiques. 

Maintenant que ces contraintes sont intériorisées par le décideur public national, ce qui était le but des traités européens forçant l’inscription de ces règles dans la législation nationale, leur impact sur le débat public doit être discuté. Le respect des règles nous est enseigné depuis le plus jeune âge, et le simple fait d’appeler une règle budgétaire une règle lui confère une aura aux yeux du public. Or si des décennies de débat sur les règles pénales, électorales, commerciales, etc., ont affûté la connaissance des médias et décideurs sur ces sujets, et permettent aujourd’hui au citoyen informé de prendre conscience des implications de certaines décisions, la connaissance du fonctionnement des règles de stabilisation macroéconomique est encore parcellaire. 

Ces règles de stabilisation sont de deux principales sortes : les règles de politique monétaire, traduites en langage législatif dans le mandat de la banque centrale, et les règles budgétaires, traduites en langage législatif dans les traités européens. On peut aussi noter l’apparition des règles de coordination dans les fédérations où les régions conservent une grande partie de la souveraineté et qui ne s’intéressent pas seulement à la situation budgétaire des Etats mais également à l’impact que leurs décisions peuvent avoir sur leurs voisins, notamment au sein d’une union monétaire. 

Toutes ces règles ont en commun une chose noble, qui est de vouloir aider le décideur public à favoriser le long-terme sans négliger le court-terme. Mais ces règles ont également toutes en commun le présupposé qu’il existe nécessairement un conflit entre le court-terme et le long-terme, comme si cela heurtait le bon sens (notre morale, notre intuition, rayez la mention inutile), qu’on peut avoir « le beurre, et l’argent du beurre ». Par exemple, une règle de politique monétaire comme la règle de Taylor, qui fixe la réponse des taux d’intérêt à une déviation de l’inflation ou du chômage de son niveau de long-terme, permet de quantifier à quel point la banque centrale peut se permettre de dévier de sa cible d’inflation (dont la crédibilité est essentielle à long-terme) pour régler un déficit de demande temporaire. Les règles budgétaires qui décomposent le déficit courant en déficit conjoncturel et structurel, et fixent des horizons au-delà duquel le déficit structurel doit revenir en deçà d’un certain plafond, permettent au décideur public confronté à une crise importante de laisser jouer les stabilisateurs automatiques (hausse du déficit conjoncturel) et même d’aller plus loin dans la relance (hausse du déficit structurel), à condition de revenir dans les clous assez vite. 

Les critiques contre ce genre de règles sont nombreuses et souvent très pertinentes, mais la plupart tournent autour d’un thème : il est difficile de mesurer en temps réel le potentiel de l’économie et la réponse des variables comme l’inflation, le chômage et les recettes fiscales à une déviation de ce potentiel. Je ne souhaite pas m’étendre sur ces critiques bien connues, car bien que je les estime suffisantes pour que la décision publique ne soit pas légalement contrainte par des estimations de potentiel techniquement difficiles, elles ne remettent pas en cause l’existence même de ce potentiel. 

Aujourd’hui, le potentiel de l’économie, et donc l’écart de la réalité à son potentiel (output gap), peuvent être mesurées de plusieurs façons, toutes étant une combinaison de méthodes purement statistiques (en modélisant les variables macroéconomiques comme oscillant autour d’une tendance) et purement structurelles (on connaît la fonction de production de l’économie et ses facteurs potentiels, donc on connaît la production potentielle). 

Prenons par exemple l’estimation de la croissance potentielle dans laquelle on modélise la production comme utilisant deux facteurs, le capital d’un côté, le travail de l’autre, et dont les interactions sont augmentées par la productivité globale des facteurs, qui traduit le degré d’optimisation des ressources. Pour calculer le potentiel de l’économie, on calcule une tendance de productivité globale, on s’appuie sur le stock de capital existant, et on calcule une force de travail potentielle, qui est obtenue en supposant à l’aide d’hypothèses démographiques, du niveau de long terme du chômage, et de la tendance du taux d’activité. 

Une fois ce travail accompli, on pourra dire par exemple que la croissance potentielle de la France, d’environ 2% par an dans les années 2000, a ralenti à 0,6% par an ensuite. Ainsi, une bonne part de l’augmentation du déficit suite à la crise est structurelle. Le décideur politique prendra cela et la règle comme données, adaptera la politique économique de façon à réduire le déficit structurel dans le temps imparti. Or ce que la règle ne dit pas, c’est que l’estimation de la croissance potentielle est probablement très sensible à la réponse du décideur politique à la crise en question. Un exemple est la réponse du stock de capital à la crise : si le décideur politique tarde à réagir à la crise, l’investissement tardera à repartir et cela aura un effet permanent sur le potentiel de l’économie. La même logique peut être appliquée à la productivité globale des facteurs (des connaissances se perdent) et à la force de travail (des travailleurs quittent définitivement la population active ou perdent des compétences). Tout cela ne provenant que d’une erreur de politique économique. Ces effets sont bien connus, ce sont les effets d’hystérèse. 

Il existe donc probablement un « potentiel potentiel », ou popotentiel™, derrière le potentiel, c’est-à-dire ce qu’il serait advenu si la réponse des décideurs publics avait été plus rapide ou plus importante. On peut aller plus loin, et se demander à partir de quand il est trop tard pour corriger des erreurs passées, et ce popotentiel n’est plus atteignable : trop de relations commerciales fructueuses ont été détruites depuis trop longtemps, trop de gens ont émigré définitivement, etc. 

Au final, on ne devrait pas juger l’efficacité de la politique économique passée à l’aune d’estimations du potentiel elles-mêmes dépendantes de la politique économique, et encore moins prendre des décisions de politique économique sur la base de grandeurs qui auront tendance à inscrire dans le marbre les erreurs passées. Si on tient vraiment à utiliser ce genre de mesure, on pourrait par exemple utiliser comme potentiel pendant la crise ce qu’on anticipait comme potentiel avant la crise. On s’exposerait peut-être au risque de surestimation du potentiel si la crise révèle effectivement une rupture de tendance dans les capacités de production, rupture qui ne peut être corrigée par la stabilisation macroéconomique. Mais je pense que les conséquences de cette erreur – une relance trop forte –  sont inférieures aux conséquences de l’erreur inverse – des ressources gâchées. 

vendredi 14 août 2015

Le bruit et ma fureur

Les médias sont incorrigibles. Les chiffres de la croissance du deuxième trimestre publiés par l'Insee ce matin sont légèrement décevants et une bonne partie de la presse s'empresse de tirer la ligne, interprétant ce coup de mou comme le signe que la reprise tant annoncée n'arrivera jamais. 

Souvenez-vous, au premier trimestre, lorsque l'Insee avait publié une croissance de +0,6% (aujourd'hui révisée à +0,7%), comment les commentateurs surpris avaient commencé à se dire "et si finalement la reprise était bien là et plus rapide qu'attendue" tandis que les incrédules, les éternels pessimistes s'étaient appliqués à démontrer que ce n'était qu'un feu de paille dû à la baisse de l'euro, des prix du pétrole ou au rebond de l'énergie (rayez la ou les mentions inutiles). 

En vérité, l'économie française a crû de 0,3% en moyenne par trimestre au premier semestre, soit un rythme cohérent avec une croissance annuelle de 1,2%, plus rapide que les trois dernières années mais pas la panacée non plus. Comme l'a signalé l'Insee en juin, le climat des affaires, approchant sa moyenne de longue periode, est cohérent avec une croissance annuelle de 1,2%. Le glissement annuel (trimestre de cette année sur même trimestre l'année précédente) du PIB était de +0,9% au premier trimestre, il est de +1,0% au deuxième trimestre. 

Ce même climat des affaires s'est légèrement amélioré en juillet, donc même sans grand optimisme et en supposant qu'il se stabilisera sur le reste de l'année, on reste sur une croissance supérieure à 1% en rythme annuel. 

Les à-coups d'un trimestre à un autre font verser beaucoup d'encre, mais les journalistes adorent commenter le bruit statistique et n'ont aucune compétence pour analyser le signal sous-jacent. En raison de facteurs temporaires, la croissance était plus élevée que ce qu'elle devait être en début d'année, pour la même raison elle est trop basse au deuxième trimestre, et quand on ne garde les yeux que sur le dernier chiffre on oublie la tendance, qui elle s'est nettement améliorée depuis l'an dernier. 

Bref, ne laissez pas les journalistes pourrir votre week-end du 15 août! 




samedi 4 juillet 2015

Grèce

Je n'ai pas envie de m'attarder sur le sujet car tout a déjà été dit sur les aspects économiques. 

Mais un très bon résumé, accompagné de la dose parfaite d'agacement et de clairvoyance, peut être trouvé chez Steve Randy Waldman 


Spoiler alert: tout est purement politique, et c'est désespérant. 




mardi 16 juin 2015

Pourquoi le chômage augmente-t-il?

Vaste sujet, sur lequel il est très difficile d’avoir les idées claires. Certains blâment la mécanisation ou la concurrence avec les pays pauvres, d’autres le recul de l’âge de départ à la retraite ou l’arrivée des femmes dans la population active, et d’autres encore la Crise, malaise indéfinissable dont j’entends parler depuis ma naissance, et cette cacophonie entretient la confusion dans laquelle les Français baignent depuis la fin des Trente Glorieuses, époque bénie du Petit Nicolas et de la guerre d’Algérie. 

En vérité, le chômage n’augmente pas tout le temps, parfois il baisse même : voici un graphique représentant le taux de chômage en France métropolitaine depuis 1975, publié par l’Insee. 


Le premier constat, c’est qu’il a effectivement nettement augmenté de 1975 à 1985, passant ainsi de 3% de la population active environ à près de 9% en moyenne depuis. Le deuxième constat, c’est qu’il fluctue beaucoup, entre un minimum de 6,8% au premier trimestre 2008 et un maximum de 10,4 % atteint à deux reprises, en 1994 et 1997. 

Pour obtenir une telle hausse du niveau de chômage de long terme (hors fluctuations de court-terme), il faut que des caractéristiques intrinsèques au marché du travail aient changé. Par exemple, cela peut provenir d’une augmentation du chômage dit « frictionnel », c’est-à-dire que les gens changent plus souvent d’emploi qu’auparavant, à dessein ou non, avec une période incompressible de chômage entre deux emplois : la durée moyenne au chômage dans les années 70 était de 16 mois, elle est tombée à 13 mois de 1980 à 2010, et est de nouveau de 16 mois depuis 2000, ce qui suggère que le chômage est un phénomène plus fréquent mais pas plus durable qu’avant. Cela peut également provenir d’un écart permanent entre la productivité et le coût réel de l’emploi pour une partie plus importante de la population, mais l’effet sur l’emploi de l’instauration d’un salaire minimum qu’on trouve dans la littérature est trop faible pour expliquer la hausse depuis 1970. 

En revanche, le ralentissement de la croissance de long terme ne peut pas expliquer cette hausse du chômage de long terme. La croissance de long-terme représente la croissance du potentiel de production de l’économie, qui dépend de la productivité, des caractéristiques du marché du travail, et de la population active. Ainsi, toutes choses égales par ailleurs, une dégradation des caractéristiques du marché du travail cause un ralentissement de la croissance potentielle, et non l’inverse. De même, un ralentissement de la productivité signifiera juste qu’un emploi donné contribuera moins à la croissance, mais ne dit rien sur la dynamique de l’emploi. Et il en est de même pour les variations de population (entrée des femmes sur le marché du travail, immigration, hausse passée de la natalité, recul de l’âge de départ à la retraite), supposées n’avoir aucun effet sur le chômage de long terme. 

A court-terme, c’est différent. Des évènements exogènes perturbent l’équilibre et causent des fluctuations, qu’on essaie de distinguer entre fluctuations liées à l’offre (= les capacités de production) et fluctuations liées à la demande (= la consommation et l’investissement). Dans le cas de fluctuations exclusivement liées à l’offre, on ne s’attend pas à un effet majeur de premier ordre sur l’emploi et le chômage. Par exemple, un ralentissement de la productivité dans une économie tournant à plein régime se traduira par un ralentissement des salaires, de la croissance et de la consommation, à emploi inchangé. Il peut cependant y avoir des effets de second ordre s’il existe des frictions réelles dans l’économie, par exemple si l’innovation requiert de déplacer les travailleurs d’un secteur vers un autre, et que cela ne se fait pas du jour au lendemain. 

Dans le cas de fluctuations exclusivement liées à la demande, tout dépend des frictions dites nominales, c’est-à-dire à quel point le salaire nominal permet de maintenir le plein emploi. Par exemple, considérons que deux facteurs sont utilisés dans la production, le capital et le travail. Les entreprises choisissent le mix capital/travail optimal selon les coûts réels relatifs de chacun (plus un facteur est « relativement » cher, moins il est utilisé dans le mix). Dans un monde où la production est contrainte par une demande basse, les entreprises vont chercher à réduire leurs capacités de production. Si les coûts relatifs du capital et du travail restent inchangés, elles vont garder le même rapport entre les deux et réduire leurs investissements et leurs embauches, ce qui réduit l’emploi. Le seul moyen de maintenir l’emploi est de changer le mix capital/travail au profit de ce dernier, ce qui passe par une baisse du coût du travail relativement au coût du capital (ou bien de résoudre la crise de demande). Or l’existence de rigidités nominales sur les salaires ne permet pas au coût réel du travail de diminuer, et si l’inflation ralentit fortement, c’est même l’inverse qui se produit. 

Il peut se passer des choses différentes d’un pays à un autre. Par exemple, après la crise, le Royaume-Uni a connu une forte réduction du coût du travail (plus forte inflation, plus forte mobilité sectorielle), et a permis d’augmenter la part du travail dans la production, au détriment du capital. La contrepartie du modèle anglais est la forte réduction de la productivité, qui a étonné les observateurs et a inquiété les économistes, le Royaume-Uni ayant pris le risque de rendre permanente la perte de valeur ajoutée consécutive à la crise, pour un bénéfice seulement temporaire (baisse du chômage plus rapide).  En France, l’exact contraire s’est produit, le mix capital/travail est resté sensiblement le même, la productivité ne s’est pas effondrée, au détriment de l’emploi. Aucun des deux modèles n’est strictement préférable à l’autre. Le modèle anglais rend les effets de la crise plus diffus mais prend plus le risque de les rendre permanents. Le modèle français préserve le capital humain et le capital productif, mais est moins flexible. 

Cette inertie du modèle français peut d’ailleurs être à l’origine pour partie de l’élévation du taux de chômage moyen depuis 1980, si les crises sont de plus en plus rapprochées : l’emploi mettant plus de temps à se remettre d’une crise, la crise suivante arrive avant qu’on ait pu se remettre de la précédente. Le taux de chômage de long terme est peut-être nettement plus bas que 6.8%, mais on n’a jamais eu le temps de l’atteindre. 

Mais aujourd’hui qu’en est-il ? Un moyen de tester si le chômage est surtout conjoncturel ou surtout structurel est de regarder ce qu’il se passe lorsque la population active augmente fortement ou diminue fortement. Si on néglige les effets dits de flexion ou de découragement (les entrées et sorties de la population active dépendent partiellement de l’état du marché du travail), et qu’on admet que le modèle français préserve plutôt le mix capital/travail, des variations de population active n’ayant a priori aucun effet sur la demande (par exemple, un départ à la retraite ne change pas le nombre de consommateurs, alors que l’arrivée d’un immigrant si) devraient se traduire par des variations du nombre de chômeurs. Le graphique ci-dessous décompose la variation du taux d’activité depuis 1976 en taux d’emploi et taux de chômeurs (nombre de chômeurs/ population totale, différent du taux de chômage). Les années suivant une crise de demande (1993-1995 ; 2002-2004 ; 2009-2013) lorsque la population active accélère, le nombre de chômeurs accélère, alors que l’emploi reste bas. En l’occurrence, le taux d’emploi est stable depuis 2010, mais le taux de chômeurs augmente car le taux d’activité augmente. 

Désormais, plusieurs choses peuvent se passer. Soit la demande reste déprimée, et les politiques visant à réduire le coût du travail permettent d’enrichir la croissance en emplois (ó baisser la productivité), et on s’oriente vers le modèle anglais (sans aller aussi loin je pense, peut-être que pour des raisons culturelles et/ou institutionnelles le travail est moins mobile d’un secteur à un autre en France). Soit contrainte de demande disparaît et on revient au taux maximum d’utilisation des capacités de production (TUC), et dans ce cas le fait que le taux d’activité ait augmenté depuis 2009 laisse présager un rebond plus fort que n’a été la chute : non seulement l’emploi se rétablit, mais il doit augmenter pour absorber la hausse du taux d’activité, ce qui stimule l’investissement et crée un cercle vertueux offre>demande>offre. 






F25E672E-07E1-4470-8937-D469C6F34D2E

vendredi 6 mars 2015

Le "Frexit" n'est pas un free lunch

Il est désormais communément admis que l’euro est un projet économiquement bancal, et que les pires prédictions des économistes spécialistes des zones monétaires se sont réalisées.

En effet, alors que les promoteurs de la monnaie unique affirmaient que des règles budgétaires strictes suffiraient à aligner les cycles économiques des pays européens et donc à faire de la zone euro une zone monétaire optimale, le contraire a eu lieu. Le manque d’investissement dans le Nord (quelle que soit sa cause) a été compensé par une forte croissance de l’investissement dans le Sud, l’épargnant Nordiste n’ayant ainsi pas d’autre moyen de générer du rendement qu’en plaçant son épargne dans le Sud, les banques jouant l’intermédiaire. Les règles budgétaires, même si elles avaient été respectées partout (et elles l’ont été en Espagne par exemple) n’auraient pas pu empêcher cette dynamique purement privée, qui a conduit l’épargnant Nordiste avide de rendement à oublier le risque qu’il prenait et le promoteur immobilier Sudiste à profiter d’un afflux de capitaux à bas coût. Un tel déséquilibre de flux de capitaux avait vocation à s’arrêter et se retourner car il générait une inflation bien trop importante dans le Sud et dégradait leur compétitivité. Quand la musique s’arrêterait l’épargnant et le promoteur immobilier encaisseraient chacun une perte conséquente, se traduisant par une crise économique dans le Sud et une crise financière dans le Nord. 

Mais pour couronner le tout, la gestion de la crise fut catastrophique. Au lieu de solder les excès du passé de manière à reconstruire le futur sur des bases solides, par exemple via le défaut des agents surendettés, la recapitalisation des banques, et en contrebalaçant la récession par un stimulus monétaire et/ou budgétaire (prenant par exemple la forme d’un transfert des régions peu atteintes vers les régions atteintes, au-délà des considérations nationales), les décideurs européens ont préféré contraindre les agents surendettés à rembourser leurs dettes en réduisant leurs dépenses tout en leur fournissant la liquidité nécessaire au jour le jour. Seulement lorsque tout le monde fait cela en même temps, on se retrouve dans une « balance sheet recession » qu’il est très difficile de contrebalancer via la baisse des taux d’intérêts : ceux-ci atteignent zéro, ce qui n’est peut ne pas être suffisant pour relancer la demande intérieure qui reste contrainte par la réduction de la dette. L’inflation ralentit, ce qui rend les dettes plus élevées en termes réels et augmente les taux d’intérêt réels (égal dans ce cas à l’opposé de l’inflation). Cela rend aussi nécessaires des baisses de salaires dans les pays du Sud afin que ceux-ci restaurent leur compétitivité. Les baisses de salaires nominales étant plus compliquées à réaliser que laisser l’inflation rogner le pouvoir d’achat, le processus d’ajustement est particulièrement long et douloureux. 

En économie, on dit qu’il y a deux équilibres, le bon et le mauvais (on part du principe qu’une augmentation gratuite du chômage est mauvaise, un jugement moral qui fera probablement consensus) : l’équilibre déflationniste (ou de basse inflation, rien de particulier ne se passe à zéro) est le mauvais équilibre, et une fois qu’on est dessus il est très difficile de le quitter. 

En bref, la crise de l’euro aurait pu être évitée
1)       si les institutions avait eu la volonté d’organiser des transferts budgétaires entre Etats Membres
2)       ou bien si une répression financière importante avait été mise en place pour limiter les flux de capitaux 
3)       ou bien si l’euro n’avait pas existé. 

Ce que les anti-euros retirent de tout cela, c’est que comme il est impossible ou pas souhaitable politiquement d’instaurer des transferts entre Etats et que la liberté de mouvement des capitaux fait tellement partie du génôme de l’Union Européenne qu’on ne peut envisager le contrôle des capitaux généralisé, il faut donc sortir de la zone euro. 

Les arguments sont séduisants : une sortie unilatérale de l’euro permettrait de dévaluer rapidement la monnaie et de booster les exportations. Le renchérissement des importations aurait un impact très négatif sur le pouvoir d’achat à court-terme, mais conduirait à des relocalisations d’entreprises sur le territoire national pour profiter de la compétitivité retrouvée. Le revers de la médaille serait le problème posé par la dette extérieure : soit on négocie sa dénomination en Francs puis on dévalue, et il serait très difficile de se financer à nouveau, soit on la laisse en euros mais la dévaluation augmente son poids. Au final, les promoteurs d’un « Frexit » disent qu’on prendrait probablement un choc à court terme, mais qu’on y gagnerait à long terme.

C’est là que je ne suis pas convaincu. Je suis peut-être trop néoclassique, mais j’ai toujours cru que le niveau de production à long terme d’une économie est déterminé par la quantité et la productivité de ses facteurs de production : population active, niveau d’éducation, mobilité, progrès technique, stock de capital, etc… Si tel est bien le cas, il n’y a aucune raison de penser qu’à long terme la France serait mieux lotie en dehors de l’euro qu’à l’intérieur, à moins qu’on n’arrive à expliquer que la sortie de l’euro permettrait d’améliorer l’un des facteurs de la production potentielle.

Au final on nous propose le chemin vert au lieu du chemin rouge : 

Dans le cas rouge, on est sur la pente du « mauvais équilibre », le potentiel reste le même mais parce qu’on ne résoud toujours pas à relancer l’économie, l’écart avec le potentiel reste positif voire même grandit. Finalement, quelque part dans le futur les choses s’arrangent, soit parce que les salaires ont finalement suffisamment baissé relativement aux voisins et que les coûts correspondent à nouveau aux productivités de chaque pays, soit parce que les agents ont fini par réussir, douloureusement à réduire le fardeau de leur dette. Les vents contraires cessent et l’économie retourne au potentiel. 

Dans le cas vert, on sort de l’euro et on dévalue, ce qui provoque une crise financière ainsi qu’une crise économique. Finalement, la compétitivité restaurée permet à l’économie de rebondir et de retourner au potentiel.

La préférence pour l’une ou l’autre solution dépend de la différence entre les aires A et B, qui représente la perte nette à quitter l’euro. Si A > B, il vaut mieux rester dans l’euro, et inversement. Ces aires dépendent de l’ampleur de la crise provoquée par la sortie, de sa durée avant que la hausse de la compétitivité ne permette de retrouver la croissance. Elles dépendent également du moment dans le futur où les choses s’arrangeront dans le cas où on n’abandonne pas l’euro. L’expérience de l’Argentine tend à laisser penser que la crise serait très importante et durable, et les récentes bonnes nouvelles sur le front économique que les choses pourraient s’arranger plus rapidement qu’on le pensait. Néanmoins il est possible de penser le contraire. 

Le problème, c’est que ce n’est pas l’argument avancé. Les Frexitistes laissent croire leurs auditeurs, lecteurs et électeurs crédules que le point d’arrivée après la crise sera nettement plus haut que précédemment, et pour toujours. Pour arriver à cette conclusion ils partagent une idée avec les austéritaires, celle qu’une économie structurellement exportatrice est en meilleure santé qu’une économie importatrice. Mais contrairement aux austéritaires, dont le mercantilisme latent a au moins l’avantage de les faire reconnaître qu’il faut investir dans des secteurs à haut rendement pour augmenter le potentiel de production, les Frexististes donnent l’impression qu’il suffira de dévaluer pour maintenir un surplus commercial. Certes des dévaluations successives permettront de doper les exportations françaises, mais elles réduiront le pouvoir d’achat dans les produits même partiellement fabriqués à l’étranger. Les Français s’appauvriront pour fournir des produits de qualité constante à prix de plus en bas. Le point d’arrivée de cette dynamique, c’est le Bangladesh ou l’autarcie. 

Il est possible de soutenir que la production potentielle est plus élevée dans le scénario où la France sort de l’euro. Par exemple, si les fluctuations du Franc permettent de limiter l’impact des crises on obtient un chômage moyen est plus bas, ce qui a un impact positif sur l’employabilité et la productivité des actifs (effet d’hystérèse). Ou bien si la hausse à court terme des marges des entreprises conduit les entreprises à investir. Ou encore, si la stagnation séculaire se vérifie, que l’économie ne revient jamais au potentiel. Mais il est également possible de soutenir le contraire, si la perspective d’une dévaluation permettra aux entreprises de négliger leur compétitivité hors-coût et d’acheter la paix sociale en distribuant des augmentations de salaire. 

Pour conclure, il est douteux d’affirmer que l’impact à long terme est positif ; ensuite dans les conditions actuelles il faut être déraisonnablement optimiste sur les conséquences du Frexit pour que l’impact à moyen terme soit positif ; enfin à court terme, personne n’ose suggérer que ce ne sera pas douloureux.

Mon point de vue personnel est que quitte à investir de l’énergie dans un projet politique européen, autant favoriser le développement de l’union de transferts, par exemple via un impôt communautaire permettant de financer une assurance-chômage européenne. Mais il n’engage que moi.


lundi 23 février 2015

L'OFCE, le déclin productif et la gouvernance partenariale

Pour mon premier billet en tant qu’invité sur ce blog, je commence par un conseil de lecture. L’OFCE vient de sortir un document de travail sur le tissu productif français. Un énième article sur le déclin de l’industrie en France ? C’est depuis une bonne décennie un grand classique des commandes de rapports, des livres d’économie politique grands publics et des think-tanks plus ou moins portés sur l’économie. Oui mais cet article, coécrit par Xavier Ragot et surtout Michel Aglietta apporte un regard vraiment original. Avec eux, on dépasse rapidement l’alternative classique entre politique d’offre (en prenant systématiquement exemple sur le modèle allemand) et relance par la demande. L’article insiste plutôt sur les questions financement des entreprises, gouvernance actionnariale et qui pose même la (très bonne) question “est-il raisonnable de considérer que ce sont les actionnaires qui possèdent l’entreprise ?”.

En revanche, certains points de l’analyse macro de l’article me semble mériter quelques éclaircissements. L’article parle de la situation “paradoxale” du financement des entreprises en France. Pourquoi, se demande l’article, alors que la rentabilité du capitale est si basse, les entreprises ont-elles continué à investir ? Ça n’est pas tant un paradoxe qu’un enchaînement malheureusement logique de circonstances à mon sens…

Que les auteurs souhaitent que les entreprises montent en gamme plutôt qu’elles se contentent de renouveler leur capital et qu’ils se demandent pourquoi ça n’est pas le cas, on le comprend facilement. Mais pourquoi serait-ce un paradoxe ? Le constat qu’ils font d’entreprises qui ont utilisé la baisse des frais financiers pour augmenter la rémunération des actionnaires explique à mon sens assez bien pourquoi le taux d’investissement ne s’est pas dégradé (les dividendes ont été financées par les taux d’intérêts bas)... et pourquoi en revanche le passif financier des entreprises, lui, s’est dégradé ? Eh bien on peut justement penser que préférer les dividendes à l’investissement n’aide pas vraiment de ce côté-là ! Et si les entreprises ont investi à “courte-vue” dans le renouvellement de leur capital, cela s’explique - et la suite de l’article le montre - par une mauvaise gouvernance et une place trop grande prises par les actionnaires. Quant au paradoxe initial, la baisse de la rentabilité du capital qui n’a pas donné lieu à une baisse de l’investissement, on peut prendre le problème à l’envers : comme on l’a vu l’investissement est resté en ligne avec l’activité mais s’est concentré sur le renouvellement, et ceci a fait nécessairement chuté la rentabilité moyenne du capital (il paraît assez probable que la montée en gamme et la modernisation soient plus profitables que le renouvellement du capital !). Une question qui reste alors est de savoir s’il s’agit d’une stratégie choisie (par crainte du risque ou la volonté d’assurer des rendements de court-terme, ce que semble suggérer l’article) ou subie (car la structure du capital productif actuel nécessiterait un renouvellement plus fréquent).

Une deuxième petite remarque : l’argument de l’investissement dans l’immobilier ne tient pas. En effet l’investissement hors immobilier n’a pas tellement baissé non plus (voir le graphique ci-dessous tiré de ce rapport de BPI France).

Taux d’investissement hors construction des sociétés non financières

Et, comme le montrait une étude de l’Insee, l’investissement - même en dehors de l’immobilier - est globalement en ligne avec son comportement attendu au vu de l’activité. En d’autres termes, l’immobilier n’explique pas vraiment le “paradoxe”.

Dans la deuxième moitié de l’article Aglietta (j’imagine que cette partie est de lui) montre que s’il faut s’inspirer de l’Allemagne, c’est surtout du côté de l’organisation de son système productif (Mittelstand) qu’il faut regarder, et surtout que le système actionnarial français produit un modèle de financement structurellement inefficace. Il invoque pour ça, avec beaucoup de pédagogie, la théorie des contrat et propose même une alternative, la gouvernance partenariale. Il faut parfois un peu s’accrocher pour ceux qui n’ont pas calculé des équilibres de Nash depuis longtemps, mais le tout reste assez clair et pédagogique.

En dépit des quelques remarques, article excellent article, donc, qui sort des poncifs habituels sur la politique industrielle française, et qui donne envie de soutenir les voix trop souvent marginalisées de l’économie française !