Chapitre 15Économie néo-keynésienne

Intro

Le modèle RBC (chapitre 14) a montré que les chocs technologiques dans une économie sans frictions peuvent générer des statistiques réalistes du cycle économique. Mais il a un angle mort critique : la politique monétaire est inopérante. Dans le monde RBC, la monnaie est neutre — la Fed est sans importance. Cela contredit des preuves écrasantes que la politique monétaire affecte la production réelle, au moins à court terme.

L'économie néo-keynésienne (NK) résout ce problème en ajoutant des rigidités nominales — prix ou salaires rigides — au châssis RBC. Le résultat est un modèle où la politique monétaire a des effets réels, la banque centrale fait face à des arbitrages significatifs et la règle de Taylor devient l'équation centrale de la banque centrale moderne.

À la fin de ce chapitre, vous serez capable de :
  1. Expliquer pourquoi la concurrence monopolistique est nécessaire pour que la rigidité des prix ait de l'importance
  2. Dériver la courbe de Phillips néo-keynésienne à partir de la tarification de Calvo
  3. Dériver la courbe IS dynamique à partir de l'équation d'Euler du ménage
  4. Analyser le modèle NK à 3 équations (NKPC, IS, règle de Taylor)
  5. Expliquer le principe de Taylor et son rôle dans la stabilité macroéconomique
  6. Analyser la borne zéro des taux et le piège de liquidité

Grandes Questions dans ce chapitre

Le cadre néo-keynésien de ce chapitre se rattache à trois des Grandes Questions du livre. Chaque point de jonction apparaît après la section où le modèle pertinent est développé.

15.1 Concurrence monopolistique

Concurrence monopolistique (Dixit-Stiglitz). Une structure de marché où de nombreuses entreprises produisent des biens différenciés, chacune faisant face à une courbe de demande à pente négative d'élasticité $\varepsilon$. Contrairement à la concurrence parfaite, les entreprises fixent les prix au-dessus du coût marginal. C'est la condition préalable pour que la rigidité des prix ait des conséquences macroéconomiques.

En concurrence parfaite, les entreprises sont preneuses de prix — il n'y a pas de prix à « figer ». Pour que la rigidité des prix ait de l'importance, les entreprises doivent avoir un pouvoir de fixation des prix. Le cadre NK standard utilise la concurrence monopolistique de Dixit-Stiglitz :

$$Y = \left[\int_0^1 y_j^{(\varepsilon-1)/\varepsilon}\, dj\right]^{\varepsilon/(\varepsilon-1)}$$ (Eq. 15.1)

Chaque entreprise fait face à une courbe de demande décroissante : $y_j = (p_j / P)^{-\varepsilon} Y$.

15.2 Tarification de Calvo

Rigidité des prix (rigidité nominale). L'observation empirique selon laquelle les entreprises n'ajustent pas continuellement leurs prix en réponse aux changements des conditions de demande ou de coûts. Dans le modèle NK, la rigidité des prix est modélisée par la tarification de Calvo et constitue la friction essentielle qui confère à la politique monétaire des effets réels.
Tarification de Calvo. Chaque période, une fraction $(1-\theta)$ des entreprises ajuste aléatoirement son prix. La fraction $\theta$ conserve son prix inchangé. Durée moyenne du prix : $1/(1-\theta)$ périodes. Avec $\theta = 0.75$, l'entreprise moyenne ajuste son prix une fois par an.

Le prix de réajustement optimal est une moyenne pondérée des coûts marginaux courants et futurs anticipés :

$$p_t^* = (1-\beta\theta) \sum_{k=0}^\infty (\beta\theta)^k E_t[mc_{t+k} + \text{marge}]$$ (Eq. 15.3)
Courbe de Phillips néo-keynésienne (NKPC). L'équation $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t$ reliant l'inflation courante à l'inflation future anticipée et à l'écart de production courant. Contrairement à la courbe de Phillips traditionnelle, la NKPC est purement prospective et dérivée de la tarification optimale des entreprises sous les frictions de Calvo.
Écart de production. La différence entre la production effective et le niveau naturel (à prix flexibles) de la production : $x_t = y_t - y_t^n$. Un écart de production positif signifie que l'économie produit au-delà de son potentiel sans friction, exerçant une pression à la hausse sur l'inflation via la NKPC.

15.3 La courbe de Phillips néo-keynésienne

$$\pi_t = \beta E_t \pi_{t+1} + \kappa x_t$$ (Eq. 15.4)

où $\pi_t$ est l'inflation, $x_t$ est l'écart de production, et $\kappa = \frac{(1-\theta)(1-\beta\theta)}{\theta} \cdot \frac{\sigma + \varphi}{1 + \varphi\varepsilon}$. L'inflation courante dépend de l'inflation future anticipée (prospectif !) et du coût marginal courant (proportionnel à l'écart de production). Avec des chocs d'offre :

$$\pi_t = \beta E_t \pi_{t+1} + \kappa x_t + u_t$$ (Eq. 15.8)
Exemple 15.1 — Dérivation de la NKPC à partir de la tarification de Calvo

Étape 1 : Sous la tarification de Calvo avec paramètre $\theta$, une fraction $(1-\theta)$ des entreprises réajuste ses prix chaque période. Le niveau général des prix évolue selon : $P_t = [\theta P_{t-1}^{1-\varepsilon} + (1-\theta)(p_t^*)^{1-\varepsilon}]^{1/(1-\varepsilon)}$.

Étape 2 : Log-linéarisation : $\hat{p}_t = \theta\hat{p}_{t-1} + (1-\theta)\hat{p}_t^*$. Puisque $\pi_t = \hat{p}_t - \hat{p}_{t-1}$ : $\pi_t = (1-\theta)(\hat{p}_t^* - \hat{p}_{t-1})$.

Étape 3 : Le prix de réajustement optimal est une somme actualisée des coûts marginaux futurs anticipés : $\hat{p}_t^* = (1-\beta\theta)\sum_{k=0}^\infty(\beta\theta)^k E_t[\widehat{mc}_{t+k} + \hat{p}_{t+k}]$.

Étape 4 : La substitution récursive donne : $\pi_t = \beta E_t\pi_{t+1} + \frac{(1-\theta)(1-\beta\theta)}{\theta}\widehat{mc}_t$.

Étape 5 : Le coût marginal réel est proportionnel à l'écart de production : $\widehat{mc}_t = \frac{\sigma+\varphi}{1+\varphi\varepsilon}x_t$. En définissant $\kappa = \frac{(1-\theta)(1-\beta\theta)}{\theta}\cdot\frac{\sigma+\varphi}{1+\varphi\varepsilon}$, on obtient la NKPC : $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t$.

Exemple 15.2 — Résolution du modèle NK à 3 équations

Paramètres : $\beta = 0.99$, $\kappa = 0.3$, $\sigma = 1$, $\phi_\pi = 1.5$, $\phi_x = 0.5$, $r^* = 2\%$, $r^n = 2\%$, $u = 0$.

Étape 1 : De la NKPC (choc d'une période, $E_t\pi_{t+1} = 0$) : $\pi = \kappa x + u = 0.3x$.

Étape 2 : De l'IS (une période, $E_tx_{t+1} = 0$) : $x = -(1/\sigma)(i - r^n) = -(i - 2)$.

Étape 3 : Règle de Taylor : $i = 2 + 1.5\pi + 0.5x$.

Étape 4 : Substitution de Taylor dans IS : $x = -(2 + 1.5\pi + 0.5x - 2) = -1.5\pi - 0.5x$, donc \$1.5x = -1.5\pi$, d'où $x = -\pi$.

Étape 5 : Substitution dans la NKPC : $\pi = 0.3(-\pi) = -0.3\pi$, donc \$1.3\pi = 0$ et $\pi = 0$, $x = 0$, $i = 2\%$.

Résultat : Sans chocs, l'équilibre est $\pi = 0$, $x = 0$, $i = r^* = 2\%$. La coïncidence divine tient.

Exemple 15.3 — Coefficients optimaux de la règle de Taylor

La banque centrale minimise $L = E_0\sum\beta^t[x_t^2 + \alpha_\pi\pi_t^2]$ avec $\alpha_\pi = 0.5$, $\kappa = 0.3$.

Étape 1 : Sous discrétion, la banque centrale minimise la perte d'une période en prenant les anticipations comme données : $\min_{x_t}\{x_t^2 + \alpha_\pi(\kappa x_t + u_t)^2\}$.

Étape 2 : CPO : $1x_t + 2\alpha_\pi\kappa(\kappa x_t + u_t) = 0$. Résolution : $x_t = -\frac{\alpha_\pi\kappa}{1 + \alpha_\pi\kappa^2}u_t = -\frac{0.5 \times 0.3}{1 + 0.5 \times 0.09}u_t = -\frac{0.15}{1.045}u_t = -0.144u_t$.

Étape 3 : Inflation : $\pi_t = \kappa x_t + u_t = -0.3(0.144)u_t + u_t = 0.957u_t$.

Étape 4 : La règle de Taylor implicite atteint cet objectif en réagissant agressivement à l'inflation. Un $\alpha_\pi$ plus élevé (aversion à l'inflation) implique un $\phi_\pi$ plus grand, réduisant l'inflation au prix d'une plus grande volatilité de l'écart de production.

Choc d'offre. Une perturbation exogène $u_t$ qui modifie la NKPC : $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t + u_t$. Les chocs d'offre (par ex. flambée des prix du pétrole) brisent la coïncidence divine en créant un arbitrage entre la stabilisation de l'inflation et celle de l'écart de production.

15.4 La courbe IS dynamique

Taux d'intérêt naturel. Le taux d'intérêt réel qui prévaudrait dans l'équilibre à prix flexibles ($r_t^n$). Lorsque la banque centrale fixe le taux réel en dessous du taux naturel, elle stimule la demande (écart de production positif) ; au-dessus, elle la contracte. Le taux naturel est la référence pour déterminer si la politique monétaire est expansionniste ou restrictive.
$$x_t = E_t x_{t+1} - \frac{1}{\sigma}(i_t - E_t\pi_{t+1} - r_t^n)$$ (Eq. 15.5)

L'écart de production dépend de l'écart futur anticipé moins la différence entre le taux d'intérêt réel et le taux naturel. Lorsque la banque centrale fixe le taux réel en dessous du taux naturel, elle stimule la demande.

15.5 La règle de Taylor

Règle de Taylor. Une règle de politique monétaire $i_t = r^* + \phi_\pi\pi_t + \phi_x x_t$ prescrivant comment la banque centrale doit fixer le taux d'intérêt nominal en réponse à l'inflation et l'écart de production. John Taylor (1993) a montré que cette règle simple approxime remarquablement bien le comportement réel de la Fed.
$$i_t = r^* + \phi_\pi \pi_t + \phi_x x_t$$ (Eq. 15.6)
Principe de Taylor. L'exigence que $\phi_\pi > 1$ : la banque centrale doit relever le taux d'intérêt nominal de plus d'un pour un face à l'inflation. Cela garantit que le taux d'intérêt réel augmente avec l'inflation, stabilisant l'économie.
Détermination / indétermination. Lorsque $\phi_\pi > 1$ (principe de Taylor satisfait), le modèle NK a un unique équilibre borné (détermination). Lorsque $\phi_\pi < 1$, de multiples équilibres bornés existent (indétermination), permettant des fluctuations dues à des taches solaires sans rapport avec les fondamentaux.

15.6 Le modèle NK à 3 équations

Coïncidence divine. Dans le modèle NK de base sans chocs d'offre, stabiliser l'inflation stabilise automatiquement l'écart de production. Il n'y a pas d'arbitrage politique : inflation zéro et écart de production zéro sont simultanément réalisables. Les chocs d'offre brisent cette coïncidence.
Engagement vs discrétion (politique monétaire). Sous engagement, la banque centrale s'engage sur un sentier de politique future, améliorant les résultats en ancrant les anticipations. Sous discrétion, la banque centrale ré-optimise à chaque période, ce qui peut mener au problème d'incohérence temporelle (le biais inflationniste du chapitre 16) et à des réponses sous-optimales aux chocs d'offre.

Trois équations, trois inconnues ($\pi_t$, $x_t$, $i_t$) :

ÉquationNomRôle
$\pi_t = \beta E_t\pi_{t+1} + \kappa x_t + u_t$NKPCDétermination de l'inflation
$x_t = E_tx_{t+1} - \frac{1}{\sigma}(i_t - E_t\pi_{t+1} - r_t^n)$IS dynamiqueDemande
$i_t = r^* + \phi_\pi\pi_t + \phi_x x_t$Règle de TaylorPolitique monétaire

Interactif : modèle NK à 3 équations

Ajustez les chocs et l’agressivité de la règle de Taylor pour voir comment l’équilibre NK se déplace. Le panneau gauche montre la NKPC et la réaction monétaire dans l’espace $(\pi, x)$. Le panneau droit montre le taux d’intérêt implicite.

Négatif ($-3\%$)AucunPositif ($+3\%$)
Restrictif ($-3\%$)NeutreExpansionniste ($+3\%$)
Passif (0,5)Référence (1,5)Agressif (3,0)
Équilibre: $\pi$ = 0.00%  |  $x$ = 0.00%  |  $i$ = 2.00%

Figure 15.2. Le modèle NK à 3 équations. Panneau gauche : NKPC (bleu, pente ascendante) et fonction de réaction de politique monétaire (rouge, pente descendante) dans l'espace ($x$, $\pi$). Panneau droit : taux d'intérêt de la règle de Taylor. Ajustez les curseurs pour voir comment les chocs et l'agressivité de la politique déplacent l'équilibre. Survolez pour les valeurs.

Le principe de Taylor

Le principe de Taylor n'est pas une curiosité théorique abstraite — c'est la règle opérationnelle la plus importante de la banque centrale moderne. La Fed pré-Volcker (années 1960–70) avait $\phi_\pi \approx 0.83 < 1$, produisant la Grande Inflation. La Fed post-Volcker avait $\phi_\pi \approx 2.15 > 1$, produisant la Grande Modération.

Interactif : explorateur du principe de Taylor

Faites glisser $\phi_\pi$ au-delà du seuil critique de 1. En dessous de 1, l’économie est indéterminée : une hausse de l’inflation réduit le taux réel, alimentant davantage d’inflation. Au-dessus de 1, le taux réel augmente avec l’inflation, stabilisant l’économie.

Passif (0,5) Seuil : 1,0 Agressif (3,0)
DÉTERMINÉ ($\phi_\pi = 1,50 > 1$) : Équilibre stable unique. Une hausse de l'inflation déclenche une hausse plus forte du taux nominal, augmentant le taux réel et freinant la demande.

Figure 15.3. Visualisation du principe de Taylor. La ligne bleue est la règle de Taylor ($i$ en fonction de $\pi$). La ligne grise pointillée est $i = \pi$ (taux réel constant). Lorsque la règle de Taylor est plus pentue que la droite à 45 degrés ($\phi_\pi > 1$), les taux réels augmentent avec l'inflation (stable). Lorsqu'elle est plus plate ($\phi_\pi < 1$), les taux réels baissent avec l'inflation (instable).

Grande Question #6

Les banques centrales peuvent-elles contrôler l'économie ?

Vous disposez maintenant du modèle NK à 3 équations avec la règle de Taylor. C'est le cadre moderne qui confère aux banques centrales un mandat précis, un outil précis et une règle précise. Voici ce qu'il promet, et où il se brise.

Ce que dit le modèle

Le modèle NK à 3 équations (NKPC + IS dynamique + règle de Taylor) confère à la politique monétaire des effets réels grâce aux prix collants. Le principe de Taylor ($\phi_\pi > 1$) assure la détermination — la banque centrale doit relever les taux d'intérêt plus qu'une fois pour une avec l'inflation. Quand cela tient, le système a un équilibre stable unique : la Fed contrôle l'inflation en contrôlant le taux d'intérêt réel, et la coïncidence divine signifie que stabiliser l'inflation stabilise automatiquement l'écart de production (en l'absence de chocs de coûts). La règle de Taylor fournit un cadre politique systématique, transparent et efficace. Le verdict du modèle : oui, les banques centrales peuvent contrôler l'inflation et stabiliser la production, si elles suivent la bonne règle. La Grande Modération (1984–2007) — 23 ans de faible inflation et de volatilité réduite de la production sous Greenspan et le début de l'ère Bernanke — en est le soutien empirique le plus solide. Clarida, Gali et Gertler (2000) ont montré que la politique monétaire satisfaisait le principe de Taylor après Volcker mais le violait auparavant, expliquant le passage de l'instabilité à la stabilité.

La contre-argumentation la plus forte

La première faille vient de la ZLB. Quand le taux naturel $r^n$ devient négatif, la règle de Taylor prescrit un taux nominal négatif, ce qui est impossible. La banque centrale est bloquée à $i = 0$ alors que l'économie a besoin de relance. Le Japon depuis 1990, les États-Unis et l'Europe de 2009 à 2015 ont vécu cette contrainte, et elle pourrait se reproduire. Les politiques non conventionnelles (QE, forward guidance, taux réels négatifs) sont des substituts partiels mais plus faibles et plus incertains. La deuxième préoccupation est l'énigme du forward guidance. Le modèle NK implique des effets absurdement grands des baisses de taux futures anticipées (Del Negro, Giannoni, Patterson 2015), ce qui suggère qu'il surestime le pouvoir de la banque centrale même dans son cadre le plus optimiste. Si le modèle surestime le pouvoir des politiques fondées sur les anticipations, la boîte à outils de la Fed à la ZLB peut être plus faible que la théorie ne le prétend. La troisième est l'inflation post-COVID (2021–2023). La Fed a maintenu les taux à zéro tandis que l'inflation atteignait 9 %, la qualifiant de « transitoire ». Quand elle a finalement relevé les taux de manière agressive, l'inflation a baissé, mais de savoir si la Fed a causé la baisse ou si la normalisation de l'offre a fait le travail est véritablement incertain.

Comment le courant dominant a répondu

Après 2008, la profession a développé des cadres pour la politique à la ZLB : forward guidance, assouplissement quantitatif, contrôle de la courbe des taux et ciblage d'inflation moyenne (cadre de la Fed de 2020). Mais ces outils sont moins précis et moins bien compris que la politique conventionnelle de taux. Le courant dominant distingue maintenant entre « temps normaux » (où la règle de Taylor fonctionne bien) et « temps de crise » (où la banque centrale est considérablement contrainte). L'évaluation honnête : la Fed a surestimé son propre pouvoir avant 2008, et la profession a depuis recalibré les attentes à la baisse.

Le jugement (à ce niveau)

Les banques centrales sont puissantes mais pas omnipotentes. En temps normaux, le cadre de la règle de Taylor fonctionne bien — il explique la Grande Modération de manière convaincante. À la ZLB, les banques centrales sont considérablement contraintes, et la politique budgétaire devient l'outil de stabilisation principal (rejoignant directement la GQ01 dans la section suivante). La profession a surestimé le pouvoir de la banque centrale avant 2008 et a depuis recalibré. Le modèle NK reste le meilleur cadre disponible, mais sa promesse de contrôle par la banque centrale s'accompagne de conditions qui comptent énormément en pratique.

Ce que vous ne pouvez pas encore résoudre

La banque centrale contrôle-t-elle réellement l'inflation, ou est-ce la politique budgétaire ? La Théorie Fiscale du Niveau des Prix (chapitre 16, §16.5) défend l'idée radicale que la politique budgétaire détermine le niveau des prix indépendamment de ce que fait la banque centrale avec les taux d'intérêt. Et la dimension internationale compte : pour la plupart des pays, la trinité impossible contraint davantage la politique monétaire. Revenez au chapitre 16 (§16.2, §16.5) pour le problème d'incohérence temporelle et le défi de la TFNP, et au chapitre 17 (§17.4) pour les contraintes en économie ouverte.

Prises de position liées

Prise de position

« La Fed est-elle vraiment aux commandes ? »

La banque centrale est censée piloter l'économie. Mais quand les taux atteignent zéro, le volant se déconnecte. La crise de 2008 a révélé une limite fondamentale de la politique monétaire qui a remodelé tout le domaine.

Avancé
← Précédent : Ch 9 — Anticipations et Mundell-Fleming Étape 3 sur 5 Suivant : Ch 16 — Incohérence temporelle et TFNP →

15.7 Politique monétaire optimale

La section 15.6 a établi la coïncidence divine : sans chocs d'offre ($u_t = 0$), la banque centrale peut atteindre simultanément $\pi_t = 0$ et $x_t = 0$. Il n'y a pas d'arbitrage. Mais lorsque $u_t \neq 0$ — un choc pétrolier, une perturbation de l'offre, un choc salarial — la coïncidence divine est rompue. La banque centrale fait alors face à un véritable arbitrage de politique : elle ne peut réduire l'inflation qu'en acceptant un écart de production plus grand, ou combler l'écart de production qu'en tolérant une inflation plus élevée. Comment doit-elle choisir ?

La réponse dépend de la fonction de perte de la banque centrale — son objectif formel. La spécification standard pénalise quadratiquement les écarts de l'écart de production et de l'inflation :

$$\mathcal{L} = E_0 \sum_{t=0}^{\infty} \beta^t \left[ x_t^2 + \alpha_\pi \pi_t^2 \right]$$ (Eq. 15.9)

Le paramètre $\alpha_\pi > 0$ est le poids relatif de la stabilisation de l'inflation. Une banque centrale avec un $\alpha_\pi$ élevé (averse à l'inflation, comme la Bundesbank ou la BCE) privilégie la stabilité des prix ; une avec un $\alpha_\pi$ faible (centrée sur l'emploi) tolère davantage d'inflation pour stabiliser la production. Le « double mandat » de la Réserve fédérale correspond à un $\alpha_\pi$ modéré.

Sous discrétion, la banque centrale réoptimise chaque période, prenant les anticipations du secteur privé comme données. Elle minimise la perte sur une période $x_t^2 + \alpha_\pi \pi_t^2$ sous la contrainte de la CPNK $\pi_t = \beta E_t\pi_{t+1} + \kappa x_t + u_t$, en traitant $E_t\pi_{t+1}$ comme fixe. La condition du premier ordre donne :

$$x_t = -\frac{\alpha_\pi \kappa}{1 + \alpha_\pi \kappa^2} u_t, \qquad \pi_t = \frac{1}{1 + \alpha_\pi \kappa^2} u_t$$

La banque centrale accommode partiellement le choc d'offre. Avec un $\alpha_\pi$ plus élevé, elle tolère un écart de production plus grand pour maintenir l'inflation plus proche de zéro. Avec un $\alpha_\pi$ plus faible, elle accepte davantage d'inflation pour protéger la production. C'est la frontière de politique sous discrétion : l'ensemble des combinaisons atteignables de variance de l'écart de production et de variance de l'inflation lorsque $\alpha_\pi$ varie.

Sous engagement, la banque centrale se lie à un plan contingent à l'état à la date zéro. Parce qu'elle peut promettre une déflation future après un choc d'offre, elle manipule le terme $\beta E_t\pi_{t+1}$ dans la CPNK. Une promesse crédible d'inflation future plus basse réduit directement l'inflation courante — les agents privés anticipent la déflation et modèrent leur fixation des prix aujourd'hui. La règle de ciblage optimale sous engagement (Clarida, Gali et Gertler, 1999 ; Woodford, 2003) est :

$$\pi_t - \pi_{t-1} = -\frac{\kappa}{\alpha_\pi} x_t$$

C'est une règle dépendante de l'histoire : l'inflation dépend de son propre passé, pas seulement du choc courant. Sous discrétion, chaque période est une optimisation indépendante — la banque centrale ne peut pas s'engager de manière crédible à une déflation future, donc le canal des anticipations est indisponible. Sous engagement, elle le peut, et le résultat est strictement meilleur : pour tout $\alpha_\pi$, la frontière sous engagement se situe à l'intérieur (au sud-ouest) de la frontière sous discrétion dans l'espace (var($x$), var($\pi$)).

Le gain de l'engagement dépend de la persistance des chocs. Lorsque les chocs d'offre sont iid ($\rho_u = 0$), le futur est sans importance et l'engagement n'offre que peu d'avantage. Lorsque les chocs sont persistants ($\rho_u \to 1$), le canal des anticipations est puissant — la capacité de la banque centrale à promettre une déflation future réduit considérablement le coût courant de la désinflation. C'est la leçon de Volcker formalisée : un engagement crédible à combattre l'inflation réduit le ratio de sacrifice.

Interactif : frontière de politique — engagement vs discrétion

Ajustez le poids de l'inflation $\alpha_\pi$ pour tracer la frontière de politique, et la persistance des chocs $\rho_u$ pour voir comment la persistance amplifie l'avantage de l'engagement. La frontière sous engagement (bleue) se situe toujours au sud-ouest de la frontière sous discrétion (rouge) — l'engagement atteint une variance plus faible tant de l'inflation que de l'écart de production.

Centré sur la production (0,1) Équilibré (1,0) Faucon de l'inflation (5,0)
Chocs iid (0,0) Modérée (0,5) Persistant (0,95)
Paramètres fixes : $\kappa = 0,3$, $\beta = 0,99$, $\sigma = 1,0$.  |  Gain de l'engagement : —%

Figure 15.6. Frontière de politique sous discrétion (rouge pointillé) vs engagement (bleu plein) dans l'espace variance de l'écart de production–variance de l'inflation. Chaque courbe montre les paires (var($x$), var($\pi$)) atteignables lorsque $\alpha_\pi$ varie. Les points marquent le point de fonctionnement courant. La frontière sous engagement se situe strictement à l'intérieur : l'engagement atteint une variance plus faible des deux variables. Augmentez $\rho_u$ pour voir l'avantage de l'engagement croître.

Exemple 15.7 — Engagement vs discrétion avec des chocs persistants

Données : $\alpha_\pi = 0,5$, $\kappa = 0,3$, $\beta = 0,99$. Un choc d'offre persistant $u_t = 1\%$, $\rho_u = 0,8$.

Étape 1 (discrétion) : Chaque période, $x_t = -\frac{0,5 \times 0,3}{1 + 0,5 \times 0,09} u_t = -0,144 u_t$. Avec $u_0 = 1$ : $x_0 = -0,144\%$, $\pi_0 = 0,957\%$. Puisque $u_t = 0,8^t$ : $x_t = -0,144 \times 0,8^t$, $\pi_t = 0,957 \times 0,8^t$.

Étape 2 (perte sous discrétion) : $\mathcal{L}_D = \sum_{t=0}^{\infty} 0,99^t [(0,144 \times 0,8^t)^2 + 0,5 (0,957 \times 0,8^t)^2] = [0,0207 + 0,458] \times \frac{1}{1 - 0,99 \times 0,64} = 0,479 \times 2,78 = 1,33$.

Étape 3 (engagement) : Sous engagement, la banque centrale promet une déflation future. Le plan optimal réduit $\pi_0$ en dessous de \$1,957\%$ car $E_0 \pi_1 < 0$ rétroagit via la CPNK pour abaisser l'inflation courante. La règle dépendante de l'histoire produit $\pi_0 \approx 0,71\%$, $x_0 \approx -0,21\%$ — davantage de sacrifice de production à l'impact, mais moins d'inflation et une convergence plus rapide.

Étape 4 (comparaison) : $\mathcal{L}_C \approx 0,92$. Gain de l'engagement : $(1,33 - 0,92)/1,33 = 31\%$. L'avantage de l'engagement est substantiel avec des chocs persistants car le canal des anticipations a plusieurs périodes futures pour opérer.

L'analyse de la politique optimale suppose que la banque centrale peut fixer n'importe quel taux d'intérêt. En pratique, le taux d'intérêt nominal ne peut descendre en dessous de zéro : $i_t \geq 0$. Lorsque le taux naturel tombe en dessous de zéro, même la politique optimale est impuissante — la borne zéro est contraignante, et la politique monétaire conventionnelle est épuisée. La section 15.8 analyse cette contrainte.

15.8 La borne zéro des taux d'intérêt

Le taux d'intérêt nominal ne peut descendre en dessous de zéro : $i_t \geq 0$. Lorsque le taux naturel $r_t^n$ tombe en dessous de zéro lors d'une récession sévère, la règle de Taylor prescrit un taux nominal négatif — ce qui est irréalisable. La politique monétaire conventionnelle est impuissante.

Borne zéro des taux d'intérêt (ZLB). La contrainte $i_t \geq 0$ sur le taux d'intérêt nominal. Lorsque le taux naturel tombe en dessous de zéro lors d'une récession sévère, la règle de Taylor prescrit un taux nominal négatif, ce qui est irréalisable. La politique monétaire conventionnelle est impuissante à la borne zéro.
Trappe à liquidité. Une situation où le taux d'intérêt nominal est à zéro et une expansion monétaire supplémentaire ne peut réduire le taux réel car les agents sont indifférents entre monnaie et obligations à $i = 0$. La demande reste déprimée malgré une liquidité abondante.
Guidage prospectif. La communication de la banque centrale sur le sentier futur des taux d'intérêt, utilisée comme outil lorsque les taux courants sont à la borne zéro. En promettant de maintenir les taux bas même après la reprise, la banque centrale peut abaisser les taux longs et stimuler les dépenses courantes. L'efficacité dépend de la crédibilité de l'engagement.
Paradoxe du guidage prospectif. La prédiction théorique selon laquelle la guidance prospective sur des taux éloignés dans le futur a des effets implausiblement importants sur la production et l'inflation courantes. Dans le modèle NK standard, promettre des taux bas dans $k$ périodes a des effets qui croissent avec $k$, ce qui est irréaliste. Ce puzzle suggère que le modèle surestime la réactivité des agents aux engagements de politique lointains.

Interactif : piège de la borne zéro

Faites glisser le taux naturel du positif au négatif. Quand $r^n$ devient négatif, la règle de Taylor exige un taux nominal négatif, mais la ZLB le bloque à zéro. L’écart représente l’impuissance de la politique monétaire.

Récession profonde ($-4%$) Normal ($+2%$) Expansion ($+3%$)
Conditions normales: Taux règle de Taylor = 2.0%. Pas de contrainte ZLB. Écart de production = 0%.

Figure 15.4. Piège de la ZLB. Panneau gauche : taux prescrit par la règle de Taylor (bleu) vs taux effectif (rouge, plancher à 0). La zone rouge ombrée est le « déficit de politique monétaire » : le stimulus que la banque centrale ne peut pas fournir. Panneau droit : écart de production résultant. Faites glisser $r^n$ en dessous de zéro pour voir le piège s'activer.

Prise de position

« La Fed est-elle vraiment aux commandes ? »

Ron Paul a passé des décennies à cuisiner les présidents de la Fed sur C-SPAN, et les extraits sont devenus de l'or sur YouTube pour le mouvement « End the Fed ». Peter Schiff a transformé « la Fed dégrade la monnaie » en empire médiatique. Pendant 2020–2023, lorsque le bilan de la Fed a gonflé de \$4 billions à \$9 billions et que l'inflation a atteint 9 %, « ils impriment de l'argent » est passé d'un argument libertarien marginal à un consensus de table de dîner. Le modèle néo-keynésien que vous venez d'apprendre dit que la Fed contrôle l'économie par les taux d'intérêt, les anticipations et la règle de Taylor. Les partisans du « End the Fed » disent que la Fed est le problème. Qui a raison ?

Avancé
Grande Question #1

Les dépenses publiques aident-elles l'économie ?

La GQ n°1 bascule à la ZLB : la politique budgétaire devient le seul levier disponible. Quand la banque centrale est bloquée à zéro, le multiplicateur peut dépasser la valeur du manuel.

Explorer cette question →
Grande Question #1

Les dépenses publiques aident-elles l'économie ?

Vous venez de voir la borne zéro des taux, où la politique monétaire conventionnelle est impuissante. Cela change tout le débat sur la politique budgétaire. Quand la banque centrale est bloquée à zéro, la politique budgétaire devient le seul levier disponible.

Ce que dit le modèle

Dans le modèle NK, quand le taux d'intérêt naturel est négatif et que le taux nominal est bloqué à zéro, une augmentation des dépenses publiques $G$ augmente la production sans effet d'éviction. Le mécanisme est l'inverse des temps normaux : avec le taux d'intérêt fixé à zéro, un $G$ plus élevé augmente la demande, ce qui augmente la production, ce qui augmente l'inflation, ce qui abaisse le taux d'intérêt réel (puisque le taux nominal ne peut pas s'ajuster), ce qui stimule encore plus la demande. Le multiplicateur à la ZLB peut être de 1,5 à 2,0+ dans les calibrations standard (Christiano, Eichenbaum et Rebelo 2011). Les dépenses publiques sont sans ambiguïté expansionnistes — le canal de l'effet d'éviction qui affaiblit la politique budgétaire en temps normaux est complètement coupé.

La contre-argumentation la plus forte

Le multiplicateur à la ZLB est un résultat de modèle qui dépend fortement de la façon dont les anticipations sont modélisées. La littérature sur l'énigme du forward guidance montre que les modèles NK génèrent des effets implausiblement grands des politiques futures anticipées — et si le modèle surestime le pouvoir des canaux fondés sur les anticipations, il peut aussi surestimer le multiplicateur budgétaire à la ZLB. De plus, la ZLB est une condition spécifique, pas l'état normal — fonder la doctrine budgétaire sur les résultats de la ZLB, c'est comme concevoir une voiture uniquement pour les routes verglacées. Empiriquement, estimer le multiplicateur budgétaire pendant les récessions fait face à de sévères problèmes d'identification : les dépenses publiques augmentent à cause des récessions, ce qui rend difficile l'isolement de l'effet causal. Et même à la ZLB, les consommateurs ricardiens peuvent épargner plutôt que dépenser s'ils anticipent de futures hausses d'impôts pour payer la relance.

Comment le courant dominant a répondu

La littérature post-2008 a été un va-et-vient. Les estimations empiriques des multiplicateurs budgétaires pendant les récessions se regroupent autour de 1,5 (synthèse de Ramey 2019), plus élevées que les estimations en temps normaux de 0,6 à 1,0. Le courant dominant distingue maintenant les « multiplicateurs dépendant de l'état » — la réponse change véritablement selon les conditions économiques. Les modèles TANK et HANK (NK à deux agents et à agents hétérogènes) montrent que la fraction de ménages contraints en liquidité est le paramètre clé : plus il y a de ménages contraints, plus le multiplicateur est grand. La vision de la profession a convergé vers une position nuancée qui aurait semblé inhabituelle en 2005 : la politique budgétaire importe beaucoup parfois et moins à d'autres moments.

Le jugement (à ce niveau)

La ZLB importe énormément, et la politique budgétaire y est véritablement plus puissante. Ce n'est pas une curiosité théorique — cela décrit les États-Unis de 2009 à 2015, la zone euro pendant encore plus longtemps, et le Japon depuis des décennies. Mais le courant dominant reconnaît que la ZLB est (habituellement) temporaire et que la politique budgétaire hors de la ZLB fait face à de véritables contraintes d'éviction. La bonne réponse à « les dépenses publiques aident-elles ? » est véritablement « cela dépend de l'état de l'économie » — et ce n'est pas une dérobade, c'est le résultat réel d'une analyse rigoureuse à travers de multiples cadres théoriques et approches empiriques.

Ce que vous ne pouvez pas encore résoudre

Nous n'avons pas encore demandé : comment les dépenses sont-elles financées ? Si la dette s'accumule, qu'est-ce qui détermine si elle est soutenable ? La théorie fiscale du niveau des prix (chapitre 16, §16.5) remet en question toute la séparation monétaire-budgétaire. Et le résultat formel de l'équivalence ricardienne (Ch 16, §16.4) dit que sous certaines conditions, la dette publique n'est pas de la richesse nette — donc les dépenses financées par déficit peuvent n'avoir aucun effet du tout. Revenez au chapitre 16 (§16.3 à §16.8) pour le tableau complet : la contrainte budgétaire du gouvernement, l'équivalence ricardienne, la TFNP et les preuves empiriques sur les multiplicateurs.

Prises de position liées

Prise de position

« La relance de 2009 était-elle trop petite ? »

Christina Romer a dit à Obama qu'il fallait 1 200 milliards \$. Le Congrès a voté 787 milliards \$. La reprise lente qui a suivi est devenue la pièce à conviction centrale du plus grand débat de politique budgétaire du siècle, et le récit keynésien de la demande est le cadre dont vous avez besoin pour l'évaluer.

Intermédiaire
Prise de position

« La TMM a-t-elle raison sur les déficits ? »

La Théorie Monétaire Moderne est passée de niche universitaire à best-seller puis à argument de tribune politique en cinq ans. Son affirmation centrale, que les déficits n'ont pas l'importance qu'on leur prête, est soit la plus importante avancée d'une génération, soit la plus dangereuse.

Avancé
← Précédent : Ch 9 — Consommation micro-fondée Étape 3 sur 4 Suivant : Ch 16 — Équivalence ricardienne et TFNP →

15.9 NK vs RBC : réponses impulsionnelles comparées

ChocRéponse RBCRéponse NK
Technologie +Production en hausse, heures ambiguësProduction en hausse plus lente, heures peuvent baisser
Expansion monétaireAucun effet (neutre)Production en hausse, inflation en hausse, taux en baisse
Choc d'offreCorrespond au choc technologiqueInflation en hausse, production en baisse (stagflation)

Interactif : réponses impulsionnelles NK vs RBC

Comparez les réponses impulsionnelles côte à côte. Basculez entre un choc technologique et un choc de politique monétaire pour voir ce que les rigidités nominales ajoutent.

Choc technologique: Les deux modèles montrent une hausse de la production. RBC: ajustement complet immédiat. NK: ajustement lent dû aux prix rigides. La réponse des heures diffère.

Figure 15.5. Réponses impulsionnelles côte à côte. Colonne gauche : RBC (prix flexibles). Colonne droite : NK (prix rigides). Rangée supérieure : production. Rangée inférieure : inflation. Basculez entre les types de chocs. Le choc monétaire n'a aucun effet en RBC mais des effets réels en NK. C'est ce qu'apporte la rigidité des prix.

Grande Question #8

Qu'est-ce qui cause les récessions ?

La GQ n°8 atteint sa synthèse : le NK englobe le RBC et y ajoute la demande. C'est l'étape finale, la meilleure réponse de la profession à la question des récessions.

Explorer cette question →
Grande Question #8

Qu'est-ce qui cause les récessions ?

Étape finale

Vous avez maintenant vu le modèle NK aux côtés du modèle RBC. Le cadre NK englobe le RBC comme cas particulier et y ajoute les chocs de demande, les prix collants et la non-neutralité monétaire. C'est la synthèse, et l'étape finale pour cette Grande Question.

Ce que dit le modèle

Le modèle NK englobe le RBC comme cas particulier ($\theta \to 0$, tous les prix flexibles). Avec des prix collants, trois types de chocs causent des récessions : (a) chocs de demande — les changements de $r^n$, de confiance ou de politique budgétaire déplacent la production parce que les entreprises ne peuvent pas ajuster les prix immédiatement ; (b) chocs de politique monétaire — les changements de taux ont des effets réels puisque les prix sont collants ; (c) chocs de coûts créant de la stagflation (inflation en hausse, production en baisse). Le modèle génère des fonctions de réponse aux impulsions réalistes et correspond aux moments clés du cycle des affaires. Surtout, la politique monétaire importe — une baisse de taux stimule la demande quand les prix sont collants, contrairement au RBC où la monnaie est neutre. La synthèse répond à la question centrale : les récessions sont causées par une combinaison de chocs de demande et d'offre interagissant avec les rigidités nominales, et l'économie peut rester bloquée sous son potentiel quand les prix ne s'ajustent pas assez rapidement.

La contre-argumentation la plus forte

Les frictions financières sont absentes du cadre de base. La crise de 2008 a été causée par l'effet de levier financier, la panique et la contraction du crédit, rien de tout cela n'apparaît dans le modèle NK tel qu'il est formulé. Bernanke, Gertler et Gilchrist (1999) ont ajouté un accélérateur financier, mais la profession a été lente à le prendre au sérieux avant 2008. La Grande Récession n'était pas un choc technologique ni un choc de demande standard ; c'était une crise financière qui s'est propagée en cascade à travers les marchés du crédit. L'hétérogénéité est également absente. Les modèles à agent représentatif manquent les effets distributifs des récessions : le chômage frappe des travailleurs spécifiques, pas l'agent « moyen ». Les modèles HANK (Kaplan, Molin, Violante 2018) y remédient mais relèvent de la recherche à la frontière. Une préoccupation distincte est le problème de persistance autrichien. Ni le RBC ni le NK n'expliquent pourquoi les booms de crédit précèdent systématiquement les effondrements. La théorie autrichienne du malinvestissement (selon laquelle des taux d'intérêt artificiellement bas provoquent des schémas d'investissement insoutenables) décrit un schéma récurrent que les modèles dominants ne capturent pas.

Comment le courant dominant a répondu

Après 2008, le cadre NK s'est considérablement élargi : frictions financières (Christiano, Motto et Rostagno 2014), agents hétérogènes (HANK) et contraintes occasionnellement contraignantes (ZLB). La frontière est constituée des modèles « DSGE à échelle moyenne » avec de nombreux chocs et frictions — Smets et Wouters (2007) utilisent sept chocs et de multiples frictions pour correspondre à un large ensemble de moments macroéconomiques. Les banques centrales font maintenant tourner ces modèles de manière opérationnelle. La profession est aussi devenue plus honnête sur l'incertitude : aucun modèle unique n'explique toutes les récessions, et la contribution relative des chocs de demande, d'offre et financiers varie selon les épisodes.

Le jugement (à ce niveau)

La synthèse NK est le meilleur cadre disponible pour comprendre les récessions : les chocs de demande et d'offre comptent tous deux, la politique monétaire a des effets réels, et l'économie peut rester bloquée sous son potentiel quand les prix sont collants. L'affirmation du RBC selon laquelle les récessions sont efficientes a été rejetée, mais son insistance méthodologique sur les micro-fondements a été absorbée. La réponse à « qu'est-ce qui cause les récessions ? » est véritablement plurielle — les chocs de demande (canal keynésien), les chocs d'offre (canal RBC), l'instabilité financière (canal Minsky-Bernanke) et les erreurs de politique (canal Friedman-Volcker) contribuent tous. La position honnête est qu'aucune théorie unique n'explique toutes les récessions, et la profession devrait être plus franche à ce sujet.

Ce que vous ne pouvez pas encore résoudre

C'est l'étape finale pour la GQ08, mais la question n'est pas complètement close. Manquons-nous un mécanisme fondamental ? Les crises financières, les pandémies et les chocs géopolitiques causent tous des récessions par des canaux que les modèles DSGE standard peinent à capturer. Les modèles à base d'agents et les approches par réseaux qui capturent les défaillances en cascade constituent une frontière active. Et la question la plus profonde peut être épistémologique : un seul modèle macro peut-il capturer la diversité des causes des récessions, ou avons-nous besoin d'une boîte à outils de modèles adaptés aux circonstances ? La réponse de la profession, de plus en plus, est cette dernière — et cette humilité peut être la leçon la plus importante des deux dernières décennies de macroéconomie.

Prises de position liées

Prise de position

Une récession est-elle toujours au coin de la rue ?

Les expansions ne meurent pas de vieillesse — elles sont tuées par des erreurs de politique, des déséquilibres financiers ou des chocs externes. Mais plus une expansion dure, plus les fragilités s'accumulent. Les faits stylisés vous disent à quoi ressemblent les récessions. Ils ne vous disent pas quand la prochaine frappera.

Intermédiaire
Prise de position

« La relance de 2009 était-elle trop petite ? »

Christina Romer a dit à Obama qu'il fallait 1 200 milliards \$. Le Congrès a voté 787 milliards \$. La reprise lente qui a suivi est devenue la pièce à conviction centrale du plus grand débat de politique budgétaire du siècle, et le récit keynésien de la demande est le cadre dont vous avez besoin pour l'évaluer.

Intermédiaire
← Précédent : Ch 14 — L'histoire de l'offre (RBC) Étape 5 sur 5 — Finale C'est l'étape finale. La synthèse est complète.

15.10 Visualisation de la tarification de Calvo

Interactif : animation de la tarification de Calvo

Une grille de 100 entreprises. Chaque période, une fraction aléatoire $(1-\theta)$ peut réajuster son prix (vert). Les autres gardent leur ancien prix (rouge). Ajustez $\theta$ et avancez pour voir la rigidité des prix.

Flexible (0,00) Référence (0,75) Très rigide (0,95)
Période 0  |  Réinitialisées cette période : 100 / 100  |  Bloquées : 0 / 100  |  Âge moyen des prix : 0.0 périodes

Figure 15.1. Tarification de Calvo visualisée. Cellules vertes = entreprises qui réajustent leur prix cette période. Cellules rouges = entreprises bloquées à un ancien prix. Avec $\theta = 0.75$, seules 25% des entreprises ajustent chaque trimestre, de sorte que les prix agrégés sont inertes. C'est le mécanisme microéconomique derrière la NKPC. Cliquez sur « Avancer » ou « Lecture automatique » pour progresser.

Exemple 15.4 — Indétermination lorsque le principe de Taylor est violé

Posons $\phi_\pi = 0.8 < 1$. Montrer que des équilibres à taches solaires sont possibles.

Étape 1 : Supposons que les agents croient soudainement que l'inflation sera de 2% la période suivante (tache solaire). De la courbe IS : $x = E_tx_{t+1} - (1/\sigma)(i - E_t\pi_{t+1} - r^n)$.

Étape 2 : Règle de Taylor : $i = r^* + 0.8\pi + 0.5x$. Avec $\phi_\pi = 0.8$, une hausse de 1% de l'inflation n'augmente $i$ que de 0,8%. Le taux réel $r = i - E\pi$ baisse de 0,2%.

Étape 3 : Un taux réel plus bas stimule la demande : $x$ augmente. Un écart de production plus élevé fait monter l'inflation via la NKPC : $\pi = \kappa x > 0$. Cela valide la croyance initiale.

Étape 4 : La tache solaire est autoréalisatrice : la croyance en une inflation plus élevée provoque des taux réels plus bas, une demande plus forte et une inflation réelle plus élevée. Avec $\phi_\pi > 1$, cette boucle est brisée : le taux réel augmente avec l'inflation, freinant la demande.

Exemple 15.5 — Scénario de borne zéro

Une récession sévère pousse le taux naturel à $r^n = -3\%$. Paramètres : $\phi_\pi = 1.5$, $\phi_x = 0.5$, $\sigma = 1$, $\kappa = 0.3$.

Étape 1 : Sans ZLB, règle de Taylor : $i = 2 + 1.5(0) + 0.5(0) - 3 = -1\%$ (en supposant que $r^n$ entre dans l'équation). Un taux négatif est irréalisable.

Étape 2 : La ZLB s'impose : $i = 0$. Taux réel : $r = 0 - E\pi \approx 0\%$ (si l'inflation est proche de zéro). Mais le taux naturel est de $-3\%$. Écart de politique monétaire : $r - r^n = 0 - (-3) = 3\%$ trop restrictif.

Étape 3 : De la courbe IS : $x \approx -(1/\sigma)(r - r^n) = -3\%$. L'écart de production est sévèrement négatif.

Étape 4 : De la NKPC : $\pi = \kappa x = 0.3(-3) = -0.9\%$. La déflation s'installe, faisant monter le taux réel et approfondissant la récession — la spirale déflationniste.

Options de politique : Guidage prospectif (promettre des taux bas après la reprise), relance budgétaire (multiplicateur des dépenses publiques $> 1$ à la ZLB), ou politique monétaire non conventionnelle (assouplissement quantitatif).

Exemple 15.6 — Réponses impulsionnelles NK vs RBC à un choc monétaire

Comparer les réponses à une baisse surprise de 1% du taux d'intérêt.

Modèle RBC : La monnaie est neutre. La baisse du taux nominal n'a aucun effet sur les variables réelles. Production, consommation, investissement et heures travaillées sont inchangés. $\Delta y = \Delta c = \Delta i = \Delta h = 0$.

Modèle NK : Avec $\theta = 0.75$ (les prix sont réajustés en moyenne une fois par an) :

Étape 1 : Le taux réel baisse d'environ 1% (les prix sont rigides, donc la baisse de $i$ se transmet à $r$).

Étape 2 : De la courbe IS, l'écart de production augmente : $\Delta x \approx (1/\sigma)\Delta r = 1\%$.

Étape 3 : De la NKPC, l'inflation augmente : $\Delta\pi = \kappa\Delta x = 0.3\%$.

Étape 4 : Au fil du temps, les prix s'ajustent. À mesure que davantage d'entreprises réajustent à des prix plus élevés, le niveau des prix rattrape son retard, le taux réel revient à la normale et l'effet sur la production se dissipe. Demi-vie : environ $1/(1-\theta) = 4$ trimestres.

Enseignement clé : Les rigidités nominales convertissent un choc nominal en choc réel. Quand $\theta \to 0$, la réponse NK converge vers la réponse RBC (pas d'effets réels).

La perspective historique

La désinflation Volcker (1979–82) : relever les taux à 20% pour briser l'inflation.

Lorsque Paul Volcker est devenu président de la Fed en août 1979, l'inflation américaine était de 13% et s'accélérait. Les anticipations d'inflation s'étaient désancrées : les travailleurs exigeaient des salaires plus élevés, les entreprises augmentaient les prix et la courbe de Phillips s'était déplacée vers le haut à plusieurs reprises. La Fed pré-Volcker sous Arthur Burns avait répondu à l'inflation par des hausses de taux modérées ($\phi_\pi \approx 0.83 < 1$), violant le principe de Taylor et permettant à l'inflation de devenir autoréalisatrice.

La stratégie de Volcker était radicale : il a relevé le taux des fonds fédéraux à un pic de 20% en juin 1981. Le taux d'intérêt réel dépassait 8% — la politique monétaire la plus restrictive de l'histoire moderne des États-Unis. L'économie a plongé en récession : le chômage a culminé à 10,8% en novembre 1982, et le PIB a chuté de 2,7%.

Le résultat : L'inflation est passée de 13% à 3% en 1983. Plus important encore, les anticipations d'inflation ont été brisées. Le ratio de sacrifice — la perte cumulée de production par point de pourcentage de désinflation — était d'environ 2,3, dans la fourchette prédite par les modèles NK avec une rigidité des prix modérée ($\theta \approx 0.75$).

Interprétation NK : La politique de Volcker a mis en œuvre le principe de Taylor avec une force considérable ($\phi_\pi \gg 1$). En démontrant que la Fed tolérerait une récession sévère pour réduire l'inflation, il est passé d'un régime indéterminé à un régime déterminé. Après Volcker, la Fed a maintenu $\phi_\pi > 1$, produisant la Grande Modération (1984–2007) — la plus longue période de stabilité macroéconomique de l'histoire américaine.

Fil conducteur : La République de Kaelani

Analyse NK de la politique monétaire de Kaelani

La banque centrale de Kaelani adopte un régime de ciblage d'inflation avec un objectif $\pi^* = 3\%$ et une règle de Taylor : $i_t = 0.04 + 1.5(\pi_t - 0.03) + 0.5x_t$.

Scénario 1 (choc de demande) : Un boom des matières premières fait monter l'inflation à 5%. Règle de Taylor : $i = 0.04 + 1.5(0.02) + 0.5(0.02) = 8\%$. Le taux réel augmente, refroidissant la demande.

Scénario 2 (ZLB) : Une récession mondiale porte $r^n = -2\%$. La règle de Taylor prescrit $i = -1\%$, mais la ZLB impose 0%. L'économie reste en récession. Options : relance budgétaire, guidage prospectif ou politique monétaire non conventionnelle.

Grande Question #1

Les dépenses publiques aident-elles l'économie ?

Du multiplicateur à la borne zéro : comment une question simple est devenue le problème le plus difficile en macroéconomie

Explorer cette question →
Grande Question #6

Les banques centrales peuvent-elles contrôler l'économie ?

De « End the Fed » à « whatever it takes » — un voyage à travers l'institution la plus puissante et la plus contestée de l'économie

Explorer cette question →
Grande Question #8

Qu'est-ce qui cause les récessions ?

Chocs de demande ? Chocs d'offre ? Paniques financières ? Les écoles de pensée sont encore en désaccord sur les fondamentaux.

Explorer cette question →

Résumé

Équations clés

LibelléÉquationDescription
Éq. 15.1–15.2Agrégation Dixit-StiglitzConcurrence monopolistique
Éq. 15.4$\pi_t = \beta E_t\pi_{t+1} + \kappa x_t$Courbe de Phillips néo-keynésienne
Éq. 15.5$x_t = E_tx_{t+1} - \frac{1}{\sigma}(i_t - E_t\pi_{t+1} - r_t^n)$Courbe IS dynamique
Éq. 15.6$i_t = r^* + \phi_\pi\pi_t + \phi_x x_t$Règle de Taylor
Éq. 15.7$\phi_\pi > 1$Principe de Taylor
Éq. 15.8NKPC avec choc d'offre $u_t$Brise la coïncidence divine
Eq. 15.9$\mathcal{L} = E_0 \sum \beta^t [x_t^2 + \alpha_\pi \pi_t^2]$Fonction de perte de la banque centrale
Éq. 15.10$i_t \geq 0$Borne zéro des taux

Pratique

  1. Dans le modèle NK à 3 équations avec $\beta = 0.99$, $\kappa = 0.1$, $\sigma = 1$, $\phi_\pi = 1.5$, $\phi_x = 0.5$, $r^* = 0.02$ : vérifiez que $\pi_t = 0$, $x_t = 0$, $i_t = 0.02$ est un équilibre lorsque $r_t^n = 0.02$.
  2. Un choc d'offre $u_t = 0.01$ frappe pour une période. Résolvez pour $\pi_t$, $x_t$, $i_t$. La coïncidence divine a-t-elle cessé de tenir ?
  3. Dérivez la pente de la NKPC $\kappa$ en fonction de $\theta$. Que se passe-t-il quand $\theta \to 0$ ?

Application

  1. Expliquez intuitivement pourquoi $\phi_\pi < 1$ conduit à l'indétermination. Construisez un scénario de tache solaire.
  2. Comparez IS-LM (chapitre 8) avec le modèle NK à 3 équations sur la courbe IS, le rôle de la courbe LM et ce qui est gagné.
  3. En utilisant le cadre ZLB, expliquez les « décennies perdues » du Japon avec des taux proches de zéro et la déflation.
  4. Comparez le modèle Smets-Wouters (2007) avec les modèles IS-LM qu'il a remplacés. La critique de Lucas a-t-elle été résolue ?

Défi

  1. Dérivez la NKPC à partir du cadre de tarification de Calvo (Éq. 15.3 à Éq. 15.4).
  2. Prouvez la coïncidence divine lorsque $u_t = 0$, puis dérivez la politique d'engagement optimale avec $u_t > 0$.
  3. Montrez que le paradoxe du guidage prospectif croît avec l'horizon $k$. Discutez des modifications de modèle pour le résoudre.
  4. Comparez les réponses impulsionnelles NK et RBC à un choc monétaire. Expliquez le mécanisme par lequel les prix rigides convertissent un choc nominal en effet réel.