Le modèle RBC (chapitre 14) a montré que les chocs technologiques dans une économie sans frictions peuvent générer des statistiques réalistes du cycle économique. Mais il a un angle mort critique : la politique monétaire est inopérante. Dans le monde RBC, la monnaie est neutre — la Fed est sans importance. Cela contredit des preuves écrasantes que la politique monétaire affecte la production réelle, au moins à court terme.
L'économie néo-keynésienne (NK) résout ce problème en ajoutant des rigidités nominales — prix ou salaires rigides — au châssis RBC. Le résultat est un modèle où la politique monétaire a des effets réels, la banque centrale fait face à des arbitrages significatifs et la règle de Taylor devient l'équation centrale de la banque centrale moderne.
Le cadre néo-keynésien de ce chapitre se rattache à trois des Grandes Questions du livre. Chaque point de jonction apparaît après la section où le modèle pertinent est développé.
En concurrence parfaite, les entreprises sont preneuses de prix — il n'y a pas de prix à « figer ». Pour que la rigidité des prix ait de l'importance, les entreprises doivent avoir un pouvoir de fixation des prix. Le cadre NK standard utilise la concurrence monopolistique de Dixit-Stiglitz :
Chaque entreprise fait face à une courbe de demande décroissante : $y_j = (p_j / P)^{-\varepsilon} Y$.
Le prix de réajustement optimal est une moyenne pondérée des coûts marginaux courants et futurs anticipés :
où $\pi_t$ est l'inflation, $x_t$ est l'écart de production, et $\kappa = \frac{(1-\theta)(1-\beta\theta)}{\theta} \cdot \frac{\sigma + \varphi}{1 + \varphi\varepsilon}$. L'inflation courante dépend de l'inflation future anticipée (prospectif !) et du coût marginal courant (proportionnel à l'écart de production). Avec des chocs d'offre :
Étape 1 : Sous la tarification de Calvo avec paramètre $\theta$, une fraction $(1-\theta)$ des entreprises réajuste ses prix chaque période. Le niveau général des prix évolue selon : $P_t = [\theta P_{t-1}^{1-\varepsilon} + (1-\theta)(p_t^*)^{1-\varepsilon}]^{1/(1-\varepsilon)}$.
Étape 2 : Log-linéarisation : $\hat{p}_t = \theta\hat{p}_{t-1} + (1-\theta)\hat{p}_t^*$. Puisque $\pi_t = \hat{p}_t - \hat{p}_{t-1}$ : $\pi_t = (1-\theta)(\hat{p}_t^* - \hat{p}_{t-1})$.
Étape 3 : Le prix de réajustement optimal est une somme actualisée des coûts marginaux futurs anticipés : $\hat{p}_t^* = (1-\beta\theta)\sum_{k=0}^\infty(\beta\theta)^k E_t[\widehat{mc}_{t+k} + \hat{p}_{t+k}]$.
Étape 4 : La substitution récursive donne : $\pi_t = \beta E_t\pi_{t+1} + \frac{(1-\theta)(1-\beta\theta)}{\theta}\widehat{mc}_t$.
Étape 5 : Le coût marginal réel est proportionnel à l'écart de production : $\widehat{mc}_t = \frac{\sigma+\varphi}{1+\varphi\varepsilon}x_t$. En définissant $\kappa = \frac{(1-\theta)(1-\beta\theta)}{\theta}\cdot\frac{\sigma+\varphi}{1+\varphi\varepsilon}$, on obtient la NKPC : $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t$.
Paramètres : $\beta = 0.99$, $\kappa = 0.3$, $\sigma = 1$, $\phi_\pi = 1.5$, $\phi_x = 0.5$, $r^* = 2\%$, $r^n = 2\%$, $u = 0$.
Étape 1 : De la NKPC (choc d'une période, $E_t\pi_{t+1} = 0$) : $\pi = \kappa x + u = 0.3x$.
Étape 2 : De l'IS (une période, $E_tx_{t+1} = 0$) : $x = -(1/\sigma)(i - r^n) = -(i - 2)$.
Étape 3 : Règle de Taylor : $i = 2 + 1.5\pi + 0.5x$.
Étape 4 : Substitution de Taylor dans IS : $x = -(2 + 1.5\pi + 0.5x - 2) = -1.5\pi - 0.5x$, donc \$1.5x = -1.5\pi$, d'où $x = -\pi$.
Étape 5 : Substitution dans la NKPC : $\pi = 0.3(-\pi) = -0.3\pi$, donc \$1.3\pi = 0$ et $\pi = 0$, $x = 0$, $i = 2\%$.
Résultat : Sans chocs, l'équilibre est $\pi = 0$, $x = 0$, $i = r^* = 2\%$. La coïncidence divine tient.
La banque centrale minimise $L = E_0\sum\beta^t[x_t^2 + \alpha_\pi\pi_t^2]$ avec $\alpha_\pi = 0.5$, $\kappa = 0.3$.
Étape 1 : Sous discrétion, la banque centrale minimise la perte d'une période en prenant les anticipations comme données : $\min_{x_t}\{x_t^2 + \alpha_\pi(\kappa x_t + u_t)^2\}$.
Étape 2 : CPO : $1x_t + 2\alpha_\pi\kappa(\kappa x_t + u_t) = 0$. Résolution : $x_t = -\frac{\alpha_\pi\kappa}{1 + \alpha_\pi\kappa^2}u_t = -\frac{0.5 \times 0.3}{1 + 0.5 \times 0.09}u_t = -\frac{0.15}{1.045}u_t = -0.144u_t$.
Étape 3 : Inflation : $\pi_t = \kappa x_t + u_t = -0.3(0.144)u_t + u_t = 0.957u_t$.
Étape 4 : La règle de Taylor implicite atteint cet objectif en réagissant agressivement à l'inflation. Un $\alpha_\pi$ plus élevé (aversion à l'inflation) implique un $\phi_\pi$ plus grand, réduisant l'inflation au prix d'une plus grande volatilité de l'écart de production.
L'écart de production dépend de l'écart futur anticipé moins la différence entre le taux d'intérêt réel et le taux naturel. Lorsque la banque centrale fixe le taux réel en dessous du taux naturel, elle stimule la demande.
Trois équations, trois inconnues ($\pi_t$, $x_t$, $i_t$) :
| Équation | Nom | Rôle |
|---|---|---|
| $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t + u_t$ | NKPC | Détermination de l'inflation |
| $x_t = E_tx_{t+1} - \frac{1}{\sigma}(i_t - E_t\pi_{t+1} - r_t^n)$ | IS dynamique | Demande |
| $i_t = r^* + \phi_\pi\pi_t + \phi_x x_t$ | Règle de Taylor | Politique monétaire |
Ajustez les chocs et l’agressivité de la règle de Taylor pour voir comment l’équilibre NK se déplace. Le panneau gauche montre la NKPC et la réaction monétaire dans l’espace $(\pi, x)$. Le panneau droit montre le taux d’intérêt implicite.
Figure 15.2. Le modèle NK à 3 équations. Panneau gauche : NKPC (bleu, pente ascendante) et fonction de réaction de politique monétaire (rouge, pente descendante) dans l'espace ($x$, $\pi$). Panneau droit : taux d'intérêt de la règle de Taylor. Ajustez les curseurs pour voir comment les chocs et l'agressivité de la politique déplacent l'équilibre. Survolez pour les valeurs.
Le principe de Taylor n'est pas une curiosité théorique abstraite — c'est la règle opérationnelle la plus importante de la banque centrale moderne. La Fed pré-Volcker (années 1960–70) avait $\phi_\pi \approx 0.83 < 1$, produisant la Grande Inflation. La Fed post-Volcker avait $\phi_\pi \approx 2.15 > 1$, produisant la Grande Modération.
Faites glisser $\phi_\pi$ au-delà du seuil critique de 1. En dessous de 1, l’économie est indéterminée : une hausse de l’inflation réduit le taux réel, alimentant davantage d’inflation. Au-dessus de 1, le taux réel augmente avec l’inflation, stabilisant l’économie.
Figure 15.3. Visualisation du principe de Taylor. La ligne bleue est la règle de Taylor ($i$ en fonction de $\pi$). La ligne grise pointillée est $i = \pi$ (taux réel constant). Lorsque la règle de Taylor est plus pentue que la droite à 45 degrés ($\phi_\pi > 1$), les taux réels augmentent avec l'inflation (stable). Lorsqu'elle est plus plate ($\phi_\pi < 1$), les taux réels baissent avec l'inflation (instable).
Vous disposez maintenant du modèle NK à 3 équations avec la règle de Taylor. C'est le cadre moderne qui confère aux banques centrales un mandat précis, un outil précis et une règle précise. Voici ce qu'il promet, et où il se brise.
Le modèle NK à 3 équations (NKPC + IS dynamique + règle de Taylor) confère à la politique monétaire des effets réels grâce aux prix collants. Le principe de Taylor ($\phi_\pi > 1$) assure la détermination — la banque centrale doit relever les taux d'intérêt plus qu'une fois pour une avec l'inflation. Quand cela tient, le système a un équilibre stable unique : la Fed contrôle l'inflation en contrôlant le taux d'intérêt réel, et la coïncidence divine signifie que stabiliser l'inflation stabilise automatiquement l'écart de production (en l'absence de chocs de coûts). La règle de Taylor fournit un cadre politique systématique, transparent et efficace. Le verdict du modèle : oui, les banques centrales peuvent contrôler l'inflation et stabiliser la production, si elles suivent la bonne règle. La Grande Modération (1984–2007) — 23 ans de faible inflation et de volatilité réduite de la production sous Greenspan et le début de l'ère Bernanke — en est le soutien empirique le plus solide. Clarida, Gali et Gertler (2000) ont montré que la politique monétaire satisfaisait le principe de Taylor après Volcker mais le violait auparavant, expliquant le passage de l'instabilité à la stabilité.
La première faille vient de la ZLB. Quand le taux naturel $r^n$ devient négatif, la règle de Taylor prescrit un taux nominal négatif, ce qui est impossible. La banque centrale est bloquée à $i = 0$ alors que l'économie a besoin de relance. Le Japon depuis 1990, les États-Unis et l'Europe de 2009 à 2015 ont vécu cette contrainte, et elle pourrait se reproduire. Les politiques non conventionnelles (QE, forward guidance, taux réels négatifs) sont des substituts partiels mais plus faibles et plus incertains. La deuxième préoccupation est l'énigme du forward guidance. Le modèle NK implique des effets absurdement grands des baisses de taux futures anticipées (Del Negro, Giannoni, Patterson 2015), ce qui suggère qu'il surestime le pouvoir de la banque centrale même dans son cadre le plus optimiste. Si le modèle surestime le pouvoir des politiques fondées sur les anticipations, la boîte à outils de la Fed à la ZLB peut être plus faible que la théorie ne le prétend. La troisième est l'inflation post-COVID (2021–2023). La Fed a maintenu les taux à zéro tandis que l'inflation atteignait 9 %, la qualifiant de « transitoire ». Quand elle a finalement relevé les taux de manière agressive, l'inflation a baissé, mais de savoir si la Fed a causé la baisse ou si la normalisation de l'offre a fait le travail est véritablement incertain.
Après 2008, la profession a développé des cadres pour la politique à la ZLB : forward guidance, assouplissement quantitatif, contrôle de la courbe des taux et ciblage d'inflation moyenne (cadre de la Fed de 2020). Mais ces outils sont moins précis et moins bien compris que la politique conventionnelle de taux. Le courant dominant distingue maintenant entre « temps normaux » (où la règle de Taylor fonctionne bien) et « temps de crise » (où la banque centrale est considérablement contrainte). L'évaluation honnête : la Fed a surestimé son propre pouvoir avant 2008, et la profession a depuis recalibré les attentes à la baisse.
Les banques centrales sont puissantes mais pas omnipotentes. En temps normaux, le cadre de la règle de Taylor fonctionne bien — il explique la Grande Modération de manière convaincante. À la ZLB, les banques centrales sont considérablement contraintes, et la politique budgétaire devient l'outil de stabilisation principal (rejoignant directement la GQ01 dans la section suivante). La profession a surestimé le pouvoir de la banque centrale avant 2008 et a depuis recalibré. Le modèle NK reste le meilleur cadre disponible, mais sa promesse de contrôle par la banque centrale s'accompagne de conditions qui comptent énormément en pratique.
La banque centrale contrôle-t-elle réellement l'inflation, ou est-ce la politique budgétaire ? La Théorie Fiscale du Niveau des Prix (chapitre 16, §16.5) défend l'idée radicale que la politique budgétaire détermine le niveau des prix indépendamment de ce que fait la banque centrale avec les taux d'intérêt. Et la dimension internationale compte : pour la plupart des pays, la trinité impossible contraint davantage la politique monétaire. Revenez au chapitre 16 (§16.2, §16.5) pour le problème d'incohérence temporelle et le défi de la TFNP, et au chapitre 17 (§17.4) pour les contraintes en économie ouverte.
La banque centrale est censée piloter l'économie. Mais quand les taux atteignent zéro, le volant se déconnecte. La crise de 2008 a révélé une limite fondamentale de la politique monétaire qui a remodelé tout le domaine.
AvancéLa section 15.6 a établi la coïncidence divine : sans chocs d'offre ($u_t = 0$), la banque centrale peut atteindre simultanément $\pi_t = 0$ et $x_t = 0$. Il n'y a pas d'arbitrage. Mais lorsque $u_t \neq 0$ — un choc pétrolier, une perturbation de l'offre, un choc salarial — la coïncidence divine est rompue. La banque centrale fait alors face à un véritable arbitrage de politique : elle ne peut réduire l'inflation qu'en acceptant un écart de production plus grand, ou combler l'écart de production qu'en tolérant une inflation plus élevée. Comment doit-elle choisir ?
La réponse dépend de la fonction de perte de la banque centrale — son objectif formel. La spécification standard pénalise quadratiquement les écarts de l'écart de production et de l'inflation :
Le paramètre $\alpha_\pi > 0$ est le poids relatif de la stabilisation de l'inflation. Une banque centrale avec un $\alpha_\pi$ élevé (averse à l'inflation, comme la Bundesbank ou la BCE) privilégie la stabilité des prix ; une avec un $\alpha_\pi$ faible (centrée sur l'emploi) tolère davantage d'inflation pour stabiliser la production. Le « double mandat » de la Réserve fédérale correspond à un $\alpha_\pi$ modéré.
Sous discrétion, la banque centrale réoptimise chaque période, prenant les anticipations du secteur privé comme données. Elle minimise la perte sur une période $x_t^2 + \alpha_\pi \pi_t^2$ sous la contrainte de la CPNK $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t + u_t$, en traitant $E_t\pi_{t+1}$ comme fixe. La condition du premier ordre donne :
$$x_t = -\frac{\alpha_\pi \kappa}{1 + \alpha_\pi \kappa^2} u_t, \qquad \pi_t = \frac{1}{1 + \alpha_\pi \kappa^2} u_t$$
La banque centrale accommode partiellement le choc d'offre. Avec un $\alpha_\pi$ plus élevé, elle tolère un écart de production plus grand pour maintenir l'inflation plus proche de zéro. Avec un $\alpha_\pi$ plus faible, elle accepte davantage d'inflation pour protéger la production. C'est la frontière de politique sous discrétion : l'ensemble des combinaisons atteignables de variance de l'écart de production et de variance de l'inflation lorsque $\alpha_\pi$ varie.
Sous engagement, la banque centrale se lie à un plan contingent à l'état à la date zéro. Parce qu'elle peut promettre une déflation future après un choc d'offre, elle manipule le terme $\beta E_t\pi_{t+1}$ dans la CPNK. Une promesse crédible d'inflation future plus basse réduit directement l'inflation courante — les agents privés anticipent la déflation et modèrent leur fixation des prix aujourd'hui. La règle de ciblage optimale sous engagement (Clarida, Gali et Gertler, 1999 ; Woodford, 2003) est :
$$\pi_t - \pi_{t-1} = -\frac{\kappa}{\alpha_\pi} x_t$$
C'est une règle dépendante de l'histoire : l'inflation dépend de son propre passé, pas seulement du choc courant. Sous discrétion, chaque période est une optimisation indépendante — la banque centrale ne peut pas s'engager de manière crédible à une déflation future, donc le canal des anticipations est indisponible. Sous engagement, elle le peut, et le résultat est strictement meilleur : pour tout $\alpha_\pi$, la frontière sous engagement se situe à l'intérieur (au sud-ouest) de la frontière sous discrétion dans l'espace (var($x$), var($\pi$)).
Le gain de l'engagement dépend de la persistance des chocs. Lorsque les chocs d'offre sont iid ($\rho_u = 0$), le futur est sans importance et l'engagement n'offre que peu d'avantage. Lorsque les chocs sont persistants ($\rho_u \to 1$), le canal des anticipations est puissant — la capacité de la banque centrale à promettre une déflation future réduit considérablement le coût courant de la désinflation. C'est la leçon de Volcker formalisée : un engagement crédible à combattre l'inflation réduit le ratio de sacrifice.
Ajustez le poids de l'inflation $\alpha_\pi$ pour tracer la frontière de politique, et la persistance des chocs $\rho_u$ pour voir comment la persistance amplifie l'avantage de l'engagement. La frontière sous engagement (bleue) se situe toujours au sud-ouest de la frontière sous discrétion (rouge) — l'engagement atteint une variance plus faible tant de l'inflation que de l'écart de production.
Figure 15.6. Frontière de politique sous discrétion (rouge pointillé) vs engagement (bleu plein) dans l'espace variance de l'écart de production–variance de l'inflation. Chaque courbe montre les paires (var($x$), var($\pi$)) atteignables lorsque $\alpha_\pi$ varie. Les points marquent le point de fonctionnement courant. La frontière sous engagement se situe strictement à l'intérieur : l'engagement atteint une variance plus faible des deux variables. Augmentez $\rho_u$ pour voir l'avantage de l'engagement croître.
Données : $\alpha_\pi = 0,5$, $\kappa = 0,3$, $\beta = 0,99$. Un choc d'offre persistant $u_t = 1\%$, $\rho_u = 0,8$.
Étape 1 (discrétion) : Chaque période, $x_t = -\frac{0,5 \times 0,3}{1 + 0,5 \times 0,09} u_t = -0,144 u_t$. Avec $u_0 = 1$ : $x_0 = -0,144\%$, $\pi_0 = 0,957\%$. Puisque $u_t = 0,8^t$ : $x_t = -0,144 \times 0,8^t$, $\pi_t = 0,957 \times 0,8^t$.
Étape 2 (perte sous discrétion) : $\mathcal{L}_D = \sum_{t=0}^{\infty} 0,99^t [(0,144 \times 0,8^t)^2 + 0,5 (0,957 \times 0,8^t)^2] = [0,0207 + 0,458] \times \frac{1}{1 - 0,99 \times 0,64} = 0,479 \times 2,78 = 1,33$.
Étape 3 (engagement) : Sous engagement, la banque centrale promet une déflation future. Le plan optimal réduit $\pi_0$ en dessous de \$1,957\%$ car $E_0 \pi_1 < 0$ rétroagit via la CPNK pour abaisser l'inflation courante. La règle dépendante de l'histoire produit $\pi_0 \approx 0,71\%$, $x_0 \approx -0,21\%$ — davantage de sacrifice de production à l'impact, mais moins d'inflation et une convergence plus rapide.
Étape 4 (comparaison) : $\mathcal{L}_C \approx 0,92$. Gain de l'engagement : $(1,33 - 0,92)/1,33 = 31\%$. L'avantage de l'engagement est substantiel avec des chocs persistants car le canal des anticipations a plusieurs périodes futures pour opérer.
L'analyse de la politique optimale suppose que la banque centrale peut fixer n'importe quel taux d'intérêt. En pratique, le taux d'intérêt nominal ne peut descendre en dessous de zéro : $i_t \geq 0$. Lorsque le taux naturel tombe en dessous de zéro, même la politique optimale est impuissante — la borne zéro est contraignante, et la politique monétaire conventionnelle est épuisée. La section 15.8 analyse cette contrainte.
Le taux d'intérêt nominal ne peut descendre en dessous de zéro : $i_t \geq 0$. Lorsque le taux naturel $r_t^n$ tombe en dessous de zéro lors d'une récession sévère, la règle de Taylor prescrit un taux nominal négatif — ce qui est irréalisable. La politique monétaire conventionnelle est impuissante.
Faites glisser le taux naturel du positif au négatif. Quand $r^n$ devient négatif, la règle de Taylor exige un taux nominal négatif, mais la ZLB le bloque à zéro. L’écart représente l’impuissance de la politique monétaire.
Figure 15.4. Piège de la ZLB. Panneau gauche : taux prescrit par la règle de Taylor (bleu) vs taux effectif (rouge, plancher à 0). La zone rouge ombrée est le « déficit de politique monétaire » : le stimulus que la banque centrale ne peut pas fournir. Panneau droit : écart de production résultant. Faites glisser $r^n$ en dessous de zéro pour voir le piège s'activer.
Ron Paul a passé des décennies à cuisiner les présidents de la Fed sur C-SPAN, et les extraits sont devenus de l'or sur YouTube pour le mouvement « End the Fed ». Peter Schiff a transformé « la Fed dégrade la monnaie » en empire médiatique. Pendant 2020–2023, lorsque le bilan de la Fed a gonflé de \$4 billions à \$9 billions et que l'inflation a atteint 9 %, « ils impriment de l'argent » est passé d'un argument libertarien marginal à un consensus de table de dîner. Le modèle néo-keynésien que vous venez d'apprendre dit que la Fed contrôle l'économie par les taux d'intérêt, les anticipations et la règle de Taylor. Les partisans du « End the Fed » disent que la Fed est le problème. Qui a raison ?
AvancéVous venez de voir la borne zéro des taux, où la politique monétaire conventionnelle est impuissante. Cela change tout le débat sur la politique budgétaire. Quand la banque centrale est bloquée à zéro, la politique budgétaire devient le seul levier disponible.
Dans le modèle NK, quand le taux d'intérêt naturel est négatif et que le taux nominal est bloqué à zéro, une augmentation des dépenses publiques $G$ augmente la production sans effet d'éviction. Le mécanisme est l'inverse des temps normaux : avec le taux d'intérêt fixé à zéro, un $G$ plus élevé augmente la demande, ce qui augmente la production, ce qui augmente l'inflation, ce qui abaisse le taux d'intérêt réel (puisque le taux nominal ne peut pas s'ajuster), ce qui stimule encore plus la demande. Le multiplicateur à la ZLB peut être de 1,5 à 2,0+ dans les calibrations standard (Christiano, Eichenbaum et Rebelo 2011). Les dépenses publiques sont sans ambiguïté expansionnistes — le canal de l'effet d'éviction qui affaiblit la politique budgétaire en temps normaux est complètement coupé.
Le multiplicateur à la ZLB est un résultat de modèle qui dépend fortement de la façon dont les anticipations sont modélisées. La littérature sur l'énigme du forward guidance montre que les modèles NK génèrent des effets implausiblement grands des politiques futures anticipées — et si le modèle surestime le pouvoir des canaux fondés sur les anticipations, il peut aussi surestimer le multiplicateur budgétaire à la ZLB. De plus, la ZLB est une condition spécifique, pas l'état normal — fonder la doctrine budgétaire sur les résultats de la ZLB, c'est comme concevoir une voiture uniquement pour les routes verglacées. Empiriquement, estimer le multiplicateur budgétaire pendant les récessions fait face à de sévères problèmes d'identification : les dépenses publiques augmentent à cause des récessions, ce qui rend difficile l'isolement de l'effet causal. Et même à la ZLB, les consommateurs ricardiens peuvent épargner plutôt que dépenser s'ils anticipent de futures hausses d'impôts pour payer la relance.
La littérature post-2008 a été un va-et-vient. Les estimations empiriques des multiplicateurs budgétaires pendant les récessions se regroupent autour de 1,5 (synthèse de Ramey 2019), plus élevées que les estimations en temps normaux de 0,6 à 1,0. Le courant dominant distingue maintenant les « multiplicateurs dépendant de l'état » — la réponse change véritablement selon les conditions économiques. Les modèles TANK et HANK (NK à deux agents et à agents hétérogènes) montrent que la fraction de ménages contraints en liquidité est le paramètre clé : plus il y a de ménages contraints, plus le multiplicateur est grand. La vision de la profession a convergé vers une position nuancée qui aurait semblé inhabituelle en 2005 : la politique budgétaire importe beaucoup parfois et moins à d'autres moments.
La ZLB importe énormément, et la politique budgétaire y est véritablement plus puissante. Ce n'est pas une curiosité théorique — cela décrit les États-Unis de 2009 à 2015, la zone euro pendant encore plus longtemps, et le Japon depuis des décennies. Mais le courant dominant reconnaît que la ZLB est (habituellement) temporaire et que la politique budgétaire hors de la ZLB fait face à de véritables contraintes d'éviction. La bonne réponse à « les dépenses publiques aident-elles ? » est véritablement « cela dépend de l'état de l'économie » — et ce n'est pas une dérobade, c'est le résultat réel d'une analyse rigoureuse à travers de multiples cadres théoriques et approches empiriques.
Nous n'avons pas encore demandé : comment les dépenses sont-elles financées ? Si la dette s'accumule, qu'est-ce qui détermine si elle est soutenable ? La théorie fiscale du niveau des prix (chapitre 16, §16.5) remet en question toute la séparation monétaire-budgétaire. Et le résultat formel de l'équivalence ricardienne (Ch 16, §16.4) dit que sous certaines conditions, la dette publique n'est pas de la richesse nette — donc les dépenses financées par déficit peuvent n'avoir aucun effet du tout. Revenez au chapitre 16 (§16.3 à §16.8) pour le tableau complet : la contrainte budgétaire du gouvernement, l'équivalence ricardienne, la TFNP et les preuves empiriques sur les multiplicateurs.
Christina Romer a dit à Obama qu'il fallait 1 200 milliards \$. Le Congrès a voté 787 milliards \$. La reprise lente qui a suivi est devenue la pièce à conviction centrale du plus grand débat de politique budgétaire du siècle, et le récit keynésien de la demande est le cadre dont vous avez besoin pour l'évaluer.
IntermédiaireLa Théorie Monétaire Moderne est passée de niche universitaire à best-seller puis à argument de tribune politique en cinq ans. Son affirmation centrale, que les déficits n'ont pas l'importance qu'on leur prête, est soit la plus importante avancée d'une génération, soit la plus dangereuse.
Avancé| Choc | Réponse RBC | Réponse NK |
|---|---|---|
| Technologie + | Production en hausse, heures ambiguës | Production en hausse plus lente, heures peuvent baisser |
| Expansion monétaire | Aucun effet (neutre) | Production en hausse, inflation en hausse, taux en baisse |
| Choc d'offre | Correspond au choc technologique | Inflation en hausse, production en baisse (stagflation) |
Comparez les réponses impulsionnelles côte à côte. Basculez entre un choc technologique et un choc de politique monétaire pour voir ce que les rigidités nominales ajoutent.
Figure 15.5. Réponses impulsionnelles côte à côte. Colonne gauche : RBC (prix flexibles). Colonne droite : NK (prix rigides). Rangée supérieure : production. Rangée inférieure : inflation. Basculez entre les types de chocs. Le choc monétaire n'a aucun effet en RBC mais des effets réels en NK. C'est ce qu'apporte la rigidité des prix.
Vous avez maintenant vu le modèle NK aux côtés du modèle RBC. Le cadre NK englobe le RBC comme cas particulier et y ajoute les chocs de demande, les prix collants et la non-neutralité monétaire. C'est la synthèse, et l'étape finale pour cette Grande Question.
Le modèle NK englobe le RBC comme cas particulier ($\theta \to 0$, tous les prix flexibles). Avec des prix collants, trois types de chocs causent des récessions : (a) chocs de demande — les changements de $r^n$, de confiance ou de politique budgétaire déplacent la production parce que les entreprises ne peuvent pas ajuster les prix immédiatement ; (b) chocs de politique monétaire — les changements de taux ont des effets réels puisque les prix sont collants ; (c) chocs de coûts créant de la stagflation (inflation en hausse, production en baisse). Le modèle génère des fonctions de réponse aux impulsions réalistes et correspond aux moments clés du cycle des affaires. Surtout, la politique monétaire importe — une baisse de taux stimule la demande quand les prix sont collants, contrairement au RBC où la monnaie est neutre. La synthèse répond à la question centrale : les récessions sont causées par une combinaison de chocs de demande et d'offre interagissant avec les rigidités nominales, et l'économie peut rester bloquée sous son potentiel quand les prix ne s'ajustent pas assez rapidement.
Les frictions financières sont absentes du cadre de base. La crise de 2008 a été causée par l'effet de levier financier, la panique et la contraction du crédit, rien de tout cela n'apparaît dans le modèle NK tel qu'il est formulé. Bernanke, Gertler et Gilchrist (1999) ont ajouté un accélérateur financier, mais la profession a été lente à le prendre au sérieux avant 2008. La Grande Récession n'était pas un choc technologique ni un choc de demande standard ; c'était une crise financière qui s'est propagée en cascade à travers les marchés du crédit. L'hétérogénéité est également absente. Les modèles à agent représentatif manquent les effets distributifs des récessions : le chômage frappe des travailleurs spécifiques, pas l'agent « moyen ». Les modèles HANK (Kaplan, Molin, Violante 2018) y remédient mais relèvent de la recherche à la frontière. Une préoccupation distincte est le problème de persistance autrichien. Ni le RBC ni le NK n'expliquent pourquoi les booms de crédit précèdent systématiquement les effondrements. La théorie autrichienne du malinvestissement (selon laquelle des taux d'intérêt artificiellement bas provoquent des schémas d'investissement insoutenables) décrit un schéma récurrent que les modèles dominants ne capturent pas.
Après 2008, le cadre NK s'est considérablement élargi : frictions financières (Christiano, Motto et Rostagno 2014), agents hétérogènes (HANK) et contraintes occasionnellement contraignantes (ZLB). La frontière est constituée des modèles « DSGE à échelle moyenne » avec de nombreux chocs et frictions — Smets et Wouters (2007) utilisent sept chocs et de multiples frictions pour correspondre à un large ensemble de moments macroéconomiques. Les banques centrales font maintenant tourner ces modèles de manière opérationnelle. La profession est aussi devenue plus honnête sur l'incertitude : aucun modèle unique n'explique toutes les récessions, et la contribution relative des chocs de demande, d'offre et financiers varie selon les épisodes.
La synthèse NK est le meilleur cadre disponible pour comprendre les récessions : les chocs de demande et d'offre comptent tous deux, la politique monétaire a des effets réels, et l'économie peut rester bloquée sous son potentiel quand les prix sont collants. L'affirmation du RBC selon laquelle les récessions sont efficientes a été rejetée, mais son insistance méthodologique sur les micro-fondements a été absorbée. La réponse à « qu'est-ce qui cause les récessions ? » est véritablement plurielle — les chocs de demande (canal keynésien), les chocs d'offre (canal RBC), l'instabilité financière (canal Minsky-Bernanke) et les erreurs de politique (canal Friedman-Volcker) contribuent tous. La position honnête est qu'aucune théorie unique n'explique toutes les récessions, et la profession devrait être plus franche à ce sujet.
C'est l'étape finale pour la GQ08, mais la question n'est pas complètement close. Manquons-nous un mécanisme fondamental ? Les crises financières, les pandémies et les chocs géopolitiques causent tous des récessions par des canaux que les modèles DSGE standard peinent à capturer. Les modèles à base d'agents et les approches par réseaux qui capturent les défaillances en cascade constituent une frontière active. Et la question la plus profonde peut être épistémologique : un seul modèle macro peut-il capturer la diversité des causes des récessions, ou avons-nous besoin d'une boîte à outils de modèles adaptés aux circonstances ? La réponse de la profession, de plus en plus, est cette dernière — et cette humilité peut être la leçon la plus importante des deux dernières décennies de macroéconomie.
Les expansions ne meurent pas de vieillesse — elles sont tuées par des erreurs de politique, des déséquilibres financiers ou des chocs externes. Mais plus une expansion dure, plus les fragilités s'accumulent. Les faits stylisés vous disent à quoi ressemblent les récessions. Ils ne vous disent pas quand la prochaine frappera.
IntermédiaireChristina Romer a dit à Obama qu'il fallait 1 200 milliards \$. Le Congrès a voté 787 milliards \$. La reprise lente qui a suivi est devenue la pièce à conviction centrale du plus grand débat de politique budgétaire du siècle, et le récit keynésien de la demande est le cadre dont vous avez besoin pour l'évaluer.
IntermédiaireUne grille de 100 entreprises. Chaque période, une fraction aléatoire $(1-\theta)$ peut réajuster son prix (vert). Les autres gardent leur ancien prix (rouge). Ajustez $\theta$ et avancez pour voir la rigidité des prix.
Figure 15.1. Tarification de Calvo visualisée. Cellules vertes = entreprises qui réajustent leur prix cette période. Cellules rouges = entreprises bloquées à un ancien prix. Avec $\theta = 0.75$, seules 25% des entreprises ajustent chaque trimestre, de sorte que les prix agrégés sont inertes. C'est le mécanisme microéconomique derrière la NKPC. Cliquez sur « Avancer » ou « Lecture automatique » pour progresser.
Posons $\phi_\pi = 0.8 < 1$. Montrer que des équilibres à taches solaires sont possibles.
Étape 1 : Supposons que les agents croient soudainement que l'inflation sera de 2% la période suivante (tache solaire). De la courbe IS : $x = E_tx_{t+1} - (1/\sigma)(i - E_t\pi_{t+1} - r^n)$.
Étape 2 : Règle de Taylor : $i = r^* + 0.8\pi + 0.5x$. Avec $\phi_\pi = 0.8$, une hausse de 1% de l'inflation n'augmente $i$ que de 0,8%. Le taux réel $r = i - E\pi$ baisse de 0,2%.
Étape 3 : Un taux réel plus bas stimule la demande : $x$ augmente. Un écart de production plus élevé fait monter l'inflation via la NKPC : $\pi = \kappa x > 0$. Cela valide la croyance initiale.
Étape 4 : La tache solaire est autoréalisatrice : la croyance en une inflation plus élevée provoque des taux réels plus bas, une demande plus forte et une inflation réelle plus élevée. Avec $\phi_\pi > 1$, cette boucle est brisée : le taux réel augmente avec l'inflation, freinant la demande.
Une récession sévère pousse le taux naturel à $r^n = -3\%$. Paramètres : $\phi_\pi = 1.5$, $\phi_x = 0.5$, $\sigma = 1$, $\kappa = 0.3$.
Étape 1 : Sans ZLB, règle de Taylor : $i = 2 + 1.5(0) + 0.5(0) - 3 = -1\%$ (en supposant que $r^n$ entre dans l'équation). Un taux négatif est irréalisable.
Étape 2 : La ZLB s'impose : $i = 0$. Taux réel : $r = 0 - E\pi \approx 0\%$ (si l'inflation est proche de zéro). Mais le taux naturel est de $-3\%$. Écart de politique monétaire : $r - r^n = 0 - (-3) = 3\%$ trop restrictif.
Étape 3 : De la courbe IS : $x \approx -(1/\sigma)(r - r^n) = -3\%$. L'écart de production est sévèrement négatif.
Étape 4 : De la NKPC : $\pi = \kappa x = 0.3(-3) = -0.9\%$. La déflation s'installe, faisant monter le taux réel et approfondissant la récession — la spirale déflationniste.
Options de politique : Guidage prospectif (promettre des taux bas après la reprise), relance budgétaire (multiplicateur des dépenses publiques $> 1$ à la ZLB), ou politique monétaire non conventionnelle (assouplissement quantitatif).
Comparer les réponses à une baisse surprise de 1% du taux d'intérêt.
Modèle RBC : La monnaie est neutre. La baisse du taux nominal n'a aucun effet sur les variables réelles. Production, consommation, investissement et heures travaillées sont inchangés. $\Delta y = \Delta c = \Delta i = \Delta h = 0$.
Modèle NK : Avec $\theta = 0.75$ (les prix sont réajustés en moyenne une fois par an) :
Étape 1 : Le taux réel baisse d'environ 1% (les prix sont rigides, donc la baisse de $i$ se transmet à $r$).
Étape 2 : De la courbe IS, l'écart de production augmente : $\Delta x \approx (1/\sigma)\Delta r = 1\%$.
Étape 3 : De la NKPC, l'inflation augmente : $\Delta\pi = \kappa\Delta x = 0.3\%$.
Étape 4 : Au fil du temps, les prix s'ajustent. À mesure que davantage d'entreprises réajustent à des prix plus élevés, le niveau des prix rattrape son retard, le taux réel revient à la normale et l'effet sur la production se dissipe. Demi-vie : environ $1/(1-\theta) = 4$ trimestres.
Enseignement clé : Les rigidités nominales convertissent un choc nominal en choc réel. Quand $\theta \to 0$, la réponse NK converge vers la réponse RBC (pas d'effets réels).
La désinflation Volcker (1979–82) : relever les taux à 20% pour briser l'inflation.
Lorsque Paul Volcker est devenu président de la Fed en août 1979, l'inflation américaine était de 13% et s'accélérait. Les anticipations d'inflation s'étaient désancrées : les travailleurs exigeaient des salaires plus élevés, les entreprises augmentaient les prix et la courbe de Phillips s'était déplacée vers le haut à plusieurs reprises. La Fed pré-Volcker sous Arthur Burns avait répondu à l'inflation par des hausses de taux modérées ($\phi_\pi \approx 0.83 < 1$), violant le principe de Taylor et permettant à l'inflation de devenir autoréalisatrice.
La stratégie de Volcker était radicale : il a relevé le taux des fonds fédéraux à un pic de 20% en juin 1981. Le taux d'intérêt réel dépassait 8% — la politique monétaire la plus restrictive de l'histoire moderne des États-Unis. L'économie a plongé en récession : le chômage a culminé à 10,8% en novembre 1982, et le PIB a chuté de 2,7%.
Le résultat : L'inflation est passée de 13% à 3% en 1983. Plus important encore, les anticipations d'inflation ont été brisées. Le ratio de sacrifice — la perte cumulée de production par point de pourcentage de désinflation — était d'environ 2,3, dans la fourchette prédite par les modèles NK avec une rigidité des prix modérée ($\theta \approx 0.75$).
Interprétation NK : La politique de Volcker a mis en œuvre le principe de Taylor avec une force considérable ($\phi_\pi \gg 1$). En démontrant que la Fed tolérerait une récession sévère pour réduire l'inflation, il est passé d'un régime indéterminé à un régime déterminé. Après Volcker, la Fed a maintenu $\phi_\pi > 1$, produisant la Grande Modération (1984–2007) — la plus longue période de stabilité macroéconomique de l'histoire américaine.
La banque centrale de Kaelani adopte un régime de ciblage d'inflation avec un objectif $\pi^* = 3\%$ et une règle de Taylor : $i_t = 0.04 + 1.5(\pi_t - 0.03) + 0.5x_t$.
Scénario 1 (choc de demande) : Un boom des matières premières fait monter l'inflation à 5%. Règle de Taylor : $i = 0.04 + 1.5(0.02) + 0.5(0.02) = 8\%$. Le taux réel augmente, refroidissant la demande.
Scénario 2 (ZLB) : Une récession mondiale porte $r^n = -2\%$. La règle de Taylor prescrit $i = -1\%$, mais la ZLB impose 0%. L'économie reste en récession. Options : relance budgétaire, guidage prospectif ou politique monétaire non conventionnelle.
| Libellé | Équation | Description |
|---|---|---|
| Éq. 15.1–15.2 | Agrégation Dixit-Stiglitz | Concurrence monopolistique |
| Éq. 15.4 | $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t$ | Courbe de Phillips néo-keynésienne |
| Éq. 15.5 | $x_t = E_tx_{t+1} - \frac{1}{\sigma}(i_t - E_t\pi_{t+1} - r_t^n)$ | Courbe IS dynamique |
| Éq. 15.6 | $i_t = r^* + \phi_\pi\pi_t + \phi_x x_t$ | Règle de Taylor |
| Éq. 15.7 | $\phi_\pi > 1$ | Principe de Taylor |
| Éq. 15.8 | NKPC avec choc d'offre $u_t$ | Brise la coïncidence divine |
| Eq. 15.9 | $\mathcal{L} = E_0 \sum \beta^t [x_t^2 + \alpha_\pi \pi_t^2]$ | Fonction de perte de la banque centrale |
| Éq. 15.10 | $i_t \geq 0$ | Borne zéro des taux |