Chaque modèle de ce livre a supposé des agents rationnels — des consommateurs qui maximisent l'utilité espérée, des entreprises qui minimisent les coûts, des traders avec des préférences temporelles cohérentes et des croyances correctes. Ces hypothèses sont puissantes : elles produisent des prédictions nettes, des théorèmes du bien-être élégants et des mathématiques raffinées. Mais sont-elles vraies ?
Ce chapitre confronte les preuves. L'économie comportementale documente des écarts prévisibles et systématiques par rapport au modèle rationnel standard. Ce ne sont pas des erreurs aléatoires qui se compensent dans l'agrégation — ce sont des biais structurés qui persistent avec la répétition, les incitations et même l'expertise.
Nous commençons par les fissures dans la théorie de l'utilité espérée — les paradoxes d'Allais et d'Ellsberg — et progressons vers la théorie des perspectives, la principale alternative descriptive. Nous examinons ensuite le choix intertemporel sous biais du présent, les préférences sociales qui violent le pur intérêt personnel, la rationalité limitée et les heuristiques, la méthodologie expérimentale, la théorie du nudge et la finance comportementale. Tout au long, l'approche est formelle : nous écrivons des fonctions d'utilité, dérivons des prédictions et les testons contre les données.
Prérequis : Théorie de l'utilité espérée (Ch. 6), théorie des jeux (Ch. 7), théorie du consommateur (Ch. 6/10), bases d'économétrie (Ch. 9), familiarité avec la conception de mécanismes (Ch. 11).
Littérature citée : Kahneman & Tversky (1979) ; Tversky & Kahneman (1992) ; Thaler (1980, 2015) ; Laibson (1997) ; Fehr & Schmidt (1999) ; Gabaix (2014) ; Shleifer & Vishny (1997) ; DeLong, Shleifer, Summers & Waldmann (1990).
Rappelons du chapitre 6 que sous les axiomes de complétude, de transitivité, de continuité et de l'axiome d'indépendance, les préférences sur les loteries peuvent être représentées par l'utilité espérée :
L'indépendance est élégante et normativement séduisante. Elle dit que votre préférence entre deux loteries ne devrait pas être influencée par une composante commune non pertinente. Mais comme Maurice Allais l'a démontré en 1953, la plupart des êtres humains la violent de manière cohérente.
Considérez deux paires de loteries :
Paire 1 : Loterie 1A : \$1M avec certitude. Loterie 1B : \$5M avec prob 0,10, \$1M avec prob 0,89, \$0 avec prob 0,01.
Paire 2 : Loterie 2A : \$1M avec prob 0,11, \$0 avec prob 0,89. Loterie 2B : \$5M avec prob 0,10, \$0 avec prob 0,90.
Le schéma modal : la plupart des gens choisissent 1A plutôt que 1B et 2B plutôt que 2A. Ce choix conjoint $\{1A, 2B\}$ viole l'axiome d'indépendance.
Par indépendance, remplacer la conséquence commune (\$1M dans la Paire 1, \$0 dans la Paire 2) ne devrait pas changer le classement. Si $1A \succ 1B$, alors $1A \succ 2B$. L'inversion révèle un effet de certitude.
Considérez une urne avec 30 boules rouges et 60 boules noires ou jaunes en proportions inconnues. Loterie A : gagner \$100 si rouge (prob 1/3, connue). Loterie B : gagner \$100 si noire (prob inconnue). La plupart choisissent A.
Mais ensuite : Loterie C : gagner \$100 si rouge ou jaune. Loterie D : gagner \$100 si noire ou jaune. La plupart choisissent D. Sous l'utilité espérée, $A \succ B$ exige $C \succ D$. Le choix conjoint $\{A, D\}$ viole le Principe de la chose sûre.
Ces paradoxes révèlent que l'axiome d'indépendance échoue de manière descriptive. Nous avons besoin d'une théorie qui intègre ces violations.
Figure 19.3. Détecteur du paradoxe d'Allais. Sélectionnez votre loterie préférée dans chaque paire, puis vérifiez si vos choix violent l'axiome d'indépendance.
Paire 1
Paire 2
Problème. Deux paires de loteries. Supposons une utilité CRRA u(x) = x^{0,5} (x en millions). (a) Calculer l'EU de chaque loterie. (b) Laquelle l'EU recommande-t-elle ? (c) Montrer que {1A, 2B} viole l'indépendance.
Solution.
(a) EU(1A) = 1,0 × 1^{0,5} = 1,000. EU(1B) = 0,89(1) + 0,10(2,236) + 0,01(0) = 1,1136. EU(2A) = 0,11(1) = 0,11. EU(2B) = 0,10(2,236) = 0,2236.
(b) L'EU recommande 1B (1,114 > 1,000) et 2B (0,224 > 0,110). Paires cohérentes avec l'EU : {1A, 2A} ou {1B, 2B}.
(c) 1A ≻ 1B exige 1,11 u(1) > 0,10 u(5) + 0,01 u(0). 1B ≻ 2A exige 1,10 u(5) + 0,01 u(0) > 0,11 u(1). Ces conditions sont directement contradictoires. Aucune u(·) ne peut satisfaire les deux.
Kahneman et Tversky (1979) ont proposé la théorie des perspectives comme alternative descriptive, affinée par la suite en théorie des perspectives cumulative (1992). Elle modifie l'utilité espérée de quatre façons : dépendance à la référence, aversion aux pertes, sensibilité décroissante et pondération des probabilités.
La fonction de valeur remplace $u(x)$ définie sur la richesse finale par $v(x)$ définie sur les gains et les pertes par rapport à un point de référence :
Les paramètres estimés par Tversky et Kahneman (1992) sont $\alpha = \beta = 0{,}88$ et $\lambda = 2{,}25$.
Trois propriétés : (1) Dépendance à la référence — les résultats sont codés comme gains ou pertes par rapport à $r$. (2) Sensibilité décroissante — $\alpha, \beta < 1$ donne la concavité pour les gains et la convexité pour les pertes. (3) Aversion aux pertes — $\lambda > 1$ rend la fonction de valeur plus pentue pour les pertes.
Figure 19.1. Fonction de valeur de la théorie des perspectives. La courbe en S est concave pour les gains et convexe pour les pertes, avec une pente plus raide pour les pertes (aversion aux pertes). À $\alpha = \beta = \lambda = 1$, elle se réduit à une droite (utilité espérée). Déplacez les curseurs pour explorer.
Le paramètre de Tversky-Kahneman (1992) $\delta \approx 0{,}65$. Lorsque $\delta = 1$, $w(p) = p$ (utilité espérée). Lorsque $\delta < 1$, la fonction surpondère les petites probabilités et sous-pondère les grandes. Croisement à $p \approx 0{,}37$.
Figure 19.2. Fonction de pondération des probabilités de Tversky-Kahneman (1992). La courbe en S inversé surpondère les petites probabilités et sous-pondère les grandes. À $\delta = 1$, elle se réduit à la droite à 45 degrés (utilité espérée). Déplacez le curseur.
Note : Ceci est la formulation originale de la théorie des perspectives (Kahneman & Tversky, 1979), qui applique les poids de décision aux probabilités individuelles. La théorie des perspectives cumulative (Tversky & Kahneman, 1992) applique les poids de décision aux probabilités cumulées des résultats classés, résolvant certaines anomalies telles que les violations de la dominance stochastique.
Le schéma quadruple : petite $p$ + gains = recherche du risque (loteries) ; petite $p$ + pertes = aversion au risque (assurance) ; grande $p$ + gains = aversion au risque (effet de certitude) ; grande $p$ + pertes = recherche du risque (jeu désespéré).
Problème. Un jeu offre +\$1 000 avec prob. 0,5 et −\$800 avec prob. 0,5. Point de référence r = 0. (a) Équivalent certain sous EU avec CRRA u(x) = x^{0,5}, W = \$10 000. (b) Évaluation sous PT avec paramètres standard. (c) Pourquoi l'aversion aux pertes inverse-t-elle l'évaluation ?
Solution.
(a) EU = 0,5(11 000)^{0,5} + 0,5(9 200)^{0,5} = 0,5(104,88) + 0,5(95,92) = 100,40. EC : \$100,40^2 = 10 080$. Variation de l'EC = +80,2. L'agent accepte.
(b) v(+1000) = 1000^{0,88} = 436,5. v(−800) = −2,25 × 800^{0,88} = −2,25 × 358,7 = −807,1. Avec w(0,5) ≈ 0,439 : V = 0,439(436,5) + 0,439(−807,1) = −162,6. L'agent rejette.
(c) L'aversion aux pertes (λ = 2,25) fait peser la perte de \$800 bien plus lourd que le gain de \$1 000, inversant l'évaluation.
La théorie standard suppose une actualisation exponentielle avec facteur d'escompte $\delta \in (0,1)$. La propriété clé est la cohérence temporelle : un plan élaboré à $t=0$ reste optimal à chaque date future.
Les preuves expérimentales rejettent massivement l'actualisation constante. Les individus font preuve d'une impatience décroissante : le taux d'escompte entre aujourd'hui et demain est bien supérieur à celui entre le jour 100 et le jour 101.
Les facteurs d'escompte quasi-hyperboliques sont $\{1, \beta\delta, \beta\delta^2, \ldots\}$. La période immédiate reçoit le poids 1, mais toutes les périodes futures sont en outre escomptées par $\beta$. Lorsque $\beta < 1$, il y a une chute discrète entre « maintenant » et « le futur ».
À $t=0$, la CPO pour $c_1$ est $\beta\delta u'(c_1) = u'(c_0)$. À $t=1$, la réoptimisation donne $u'(c_1) = \beta\delta u'(c_2)$. Le $\beta$ s'est déplacé — le plan est temporellement incohérent.
Un agent naïf procrastine indéfiniment. Un agent sophistiqué utilise l'induction à rebours et peut recourir à des dispositifs d'engagement.
Figure 19.4. Explorateur de l'actualisation bêta-delta. L'agent naïf reporte perpétuellement ; l'agent sophistiqué utilise l'induction à rebours. À $\beta = 1$, toutes les lignes se confondent (pas de biais du présent). Déplacez les curseurs.
Problème. Un étudiant doit réaliser un projet. Coût aujourd'hui = 6 utils, bénéfice dans 2 périodes = 10 utils. β = 0,7, δ = 0,95, 5 périodes. (a) Quand un agent naïf agit-il ? (b) Un agent sophistiqué ?
Solution.
(a) Naïf : À chaque t, utilité nette d'agir maintenant = −6 + 0,7 × 0,95² × 10 = −6 + 6,32 = +0,32. Utilité nette perçue d'attendre = 0,7 × 0,95 × (−6) + 0,7 × 0,95³ × 10 = −3,99 + 6,00 = +2,01. Comme 2,01 > 0,32, il reporte toujours. Il procrastine jusqu'à la date limite.
(b) Sophistiqué : Induction rétrograde. À t = 2 (dernière période faisable), utilité nette = +0,32 > 0, donc le moi de t=2 agit. À t = 1 : utilité nette maintenant = +0,32, utilité nette d'attendre que t=2 agisse = +2,01 > 0,32, donc attend. À t = 0 : idem, attend. L'agent sophistiqué agit à t = 2 — plus tôt que la date limite du naïf.
Problème. Agent avec β = 0,7, δ = 0,95, utilité logarithmique, revenu Y = 100 sur 3 périodes. (a) Épargne sans engagement. (b) Avec engagement. (c) Gain de bien-être.
Solution.
(a) Sans engagement : t=0 alloue c₀ = 100/(1+0,665+0,632) = 43,54, reste 56,46. À t=1 réoptimisation : c₁ = 56,46/1,665 = 33,91, c₂ = 22,55.
(b) Avec engagement : c₁ = 0,665 × 100/2,297 = 28,95, c₂ = 0,632 × 100/2,297 = 27,51.
(c) Sans : U = 3,774 + 2,344 + 1,967 = 8,085. Avec : U = 3,774 + 2,237 + 2,095 = 8,106. Gain = 0,020 utils. L'agent avec engagement obtient un profil de consommation plus lisse.
Des décennies de preuves expérimentales montrent que les individus s'écartent systématiquement du pur intérêt personnel : ils rejettent des offres injustes, donnent à des inconnus, coopèrent dans des jeux à un tour et punissent les passagers clandestins.
Les contraintes $\alpha_i \geq \beta_i$ et $\beta_i < 1$ sont motivées empiriquement : l'envie fait plus mal que la culpabilité, et personne ne détruit de l'argent uniquement pour égaliser.
Dans le jeu de l'ultimatum, l'offre minimale acceptable $s^*$ vérifie $s - \alpha_R(100-2s) \geq 0$, soit $s^* = 100\alpha_R / (1+2\alpha_R)$. Pour $\alpha_R = 2$ : $s^* = 40$.
Figure 19.6. Aversion aux inégalités de Fehr-Schmidt. Un $\alpha$ (envie) plus élevé relève l'offre minimale acceptable. À $\alpha = \beta = 0$, théorie standard : toute offre positive est acceptée. Déplacez les curseurs.
Figure 19.5. Simulateur du jeu de l'ultimatum. Jouez le rôle du proposeur face à différentes stratégies du répondeur. Suivez vos gains au fil des tours.
Dans les jeux du dictateur, l'allocation moyenne est de 20-30 %. Dans les jeux de biens publics, l'ajout de sanctions maintient la coopération.
Problème. Jeu de l'ultimatum avec \$100. Proposant : α_P = 0,5, β_P = 0,3. Répondeur : α_R = 2,0, β_R = 0,6. (a) Offre minimale acceptable. (b) Offre optimale. (c) Comparer au Nash standard.
Solution.
(a) U_R = s − 2,0(100−2s) = 5s − 200 ≥ 0 ⇒ s* = 40.
(b) U_P = (100−s) − 0,3(100−2s) = 70 − 0,4s, décroissant en s. Minimiser s sous s ≥ 40 : offre optimale s* = 40. U_P = 54, U_R = 0.
(c) Préférences standard (α = β = 0) : offre \$1, acceptée. Fehr-Schmidt : offre \$40. Bien plus proche des offres modales expérimentales de 40-50 %.
Herbert Simon (1955) a soutenu que les agents pratiquent la satisficing plutôt que l'optimisation : ils cherchent jusqu'à trouver une option acceptable, puis s'arrêtent.
Tversky et Kahneman (1974) ont identifié trois heuristiques fondamentales : la représentativité (juger la probabilité par la ressemblance), la disponibilité (estimer la fréquence par la facilité de rappel), et l'ancrage (ajuster insuffisamment à partir d'une valeur initiale).
Gabaix (2014) a formalisé la rationalité limitée comme un problème d'optimisation : les agents maximisent l'utilité sous contrainte d'un coût d'attention $\theta$ par dimension. L'agent perçoit $\hat{p}_k = \bar{p}_k + m_k(p_k - \bar{p}_k)$.
Les expériences en laboratoire comportent des incitations monétaires réelles, la randomisation et le contrôle. Force : validité interne. Faiblesse : validité externe.
Les expériences de terrain intègrent des manipulations dans des contextes réels : comportement naturel, absence de conscience d'être observé, grande échelle. Compromis : moins de contrôle pour plus de réalisme.
Effets de demande : les sujets peuvent modifier leur comportement parce qu'ils savent être observés ou déduisent l'intention de l'expérimentateur. Le débat sur la tromperie : l'économie a une forte norme contre la tromperie, contrairement à la psychologie.
La crise de la réplication : seules 36 % des études de psychologie ont été répliquées (Open Science Collaboration, 2015) ; l'économie fait mieux (~60 %) mais reste préoccupante. Le pré-enregistrement répond au p-hacking et au biais de publication.
Si les choix dépendent du cadrage et des défauts, alors l'architecture du choix — la manière dont les choix sont présentés — compte.
Le nudge le plus puissant est le défaut. Don d'organes : 15-20 % dans les pays à adhésion, 85-99 % dans les pays à désinscription. L'inscription à la retraite passe d'environ 50 % à plus de 90 % avec la désinscription.
Sous adhésion ($d=0$) : $P = \Phi((v-k)/\sigma)$. Sous désinscription ($d=1$) : $P = \Phi(v/\sigma)$. L'écart est maximal lorsque $v$ est positif mais modéré et $k/\sigma$ est non négligeable.
Figure 19.7. Simulateur de l'effet de défaut. Des coûts de changement plus élevés élargissent l'écart entre l'inscription par adhésion et par désinscription. À $k = 0$, le défaut n'a pas d'importance. Déplacez le curseur.
Le cadre EAST : Facile (Easy, réduire les frictions), Attractif (Attractive, rendre saillant), Social (Social, exploiter les normes), Opportun (Timely, inciter au bon moment).
Le sludge est une friction qui décourage un comportement souhaitable. Réduire le sludge est souvent aussi efficace qu'introduire de nouveaux nudges.
Bernheim et Rangel (2009) : évaluer le bien-être sur la base des choix libres de distorsions comportementales — lorsque les agents sont bien informés, attentifs et non biaisés.
Si Kahneman a raison que nos décisions sont systématiquement biaisées, quelqu'un structure toujours les choix auxquels nous faisons face. Ce quelqu'un devrait-il être le gouvernement — délibérément ?
AvancéL'hypothèse d'efficience des marchés soutient que les prix reflètent pleinement toute l'information. La finance comportementale conteste cela : de nombreux traders ne sont pas rationnels, et les arbitragistes rationnels font face à des limites.
L'excès de confiance génère des transactions excessives. Barber et Odean (2000) : les traders les plus actifs ont gagné 6,5 points de pourcentage de moins par an que les moins actifs.
Le point de référence est le prix d'achat. Les gains dans la zone concave (aversion au risque, vente précoce) ; les pertes dans la zone convexe (recherche du risque, conservation).
Les actions surperforment sur 3-12 mois (momentum, Jegadeesh-Titman 1993) et sous-performent sur 3-5 ans (retournement, DeBondt-Thaler 1985).
Même les traders rationnels peuvent ne pas corriger les erreurs de prix : risque des noise traders, coûts de mise en œuvre et problèmes d'agence les contraignent.
DeLong, Shleifer, Summers et Waldmann (1990) : un $\mu$ plus élevé éloigne le prix des fondamentaux ; un $\rho$ plus élevé amplifie la déviation ; un $\gamma$ plus élevé (aversion au risque des arbitragistes) signifie des positions moins agressives contre l'erreur de prix, augmentant ainsi la déviation.
Le paradoxe : les noise traders peuvent obtenir des rendements espérés supérieurs en supportant le risque qu'ils ont eux-mêmes créé.
Figure 19.8. Modèle de noise traders de DSSW. Le sentiment des noise traders éloigne les prix des fondamentaux. Les arbitragistes averses au risque ne peuvent pas corriger entièrement l'erreur de prix. Déplacez les curseurs.
Problème. f = 100, ρ = 0,30, μ = 20 (haussier), r = 0,05, γ = 2. (a) Calculer le prix d'équilibre. (b) Déviation du prix. (c) Que se passe-t-il si γ = 0 ?
Solution.
(a) p = 100 + (2 × 0,30 × 20)/1,05 = 100 + 12/1,05 = 100 + 11,43 = 111,43.
(b) Déviation : p − f = 11,43. L'actif est surévalué car les traders bruit poussent les prix au-dessus des fondamentaux et les arbitragistes averses au risque ne les contrecarrent pas pleinement.
(c) Avec γ = 0 : p = 100 + 0 = 100. Les arbitragistes neutres au risque négocient assez agressivement pour éliminer entièrement l'erreur de prix. L'idée clé du DSSW : c'est l'aversion au risque des arbitragistes (γ > 0) qui permet aux déviations causées par les traders bruit de persister.
Vous avez maintenant la théorie des perspectives, le biais du présent, les préférences sociales, la rationalité bornée et le modèle de traders de bruit DSSW. C'est l'étape finale — la question obtient sa résolution.
Le cas comportemental est maintenant pleinement assemblé. La théorie des perspectives (Kahneman & Tversky 1979) fournit une alternative formelle, testable à l'utilité espérée : les gens évaluent les résultats relativement à un point de référence, sont averses aux pertes ($\lambda \approx 2,25$), et surpondèrent les petites probabilités. Le biais du présent (actualisation $\beta\delta$, Laibson 1997) explique la procrastination, le sous-épargne et l'incohérence temporelle — les gens actualisent l'avenir immédiat bien plus lourdement que l'avenir lointain. Les préférences sociales (aversion à l'inégalité de Fehr-Schmidt) expliquent coopération et punition dans des contextes où le pur intérêt personnel prédit la défection. La rationalité bornée (maximisation parcimonieuse de Gabaix) formalise l'idée que l'attention est rare et les gens optimisent sur un modèle simplifié du monde. Ce ne sont pas des anecdotes isolées — elles sont systématiques, réplicables et survivent aux enjeux élevés. Les violations des axiomes de rationalité documentées à l'Étape 2 (chapitre 11) ont maintenant des modèles alternatifs formels qui correspondent mieux aux données que la théorie de l'utilité espérée.
Deux contre-arguments puissants survivent à l'assaut comportemental. Premièrement, la rationalité écologique (Gigerenzer) : les heuristiques ne sont pas des biais — ce sont des adaptations efficaces à des environnements réels avec temps et information limités. Les heuristiques « rapides et frugales » surpassent souvent l'optimisation complète dans des contextes réalistes avec données bruitées. Les résultats de labo qui documentent des « biais » peuvent être des artefacts d'environnements artificiels qui dépouillent le contexte écologique dans lequel la cognition humaine a évolué pour bien performer. Si l'environnement est assez incertain, ignorer de l'information peut être optimal, non irrationnel. Deuxièmement, la discipline de marché : même si les individus sont biaisés, les marchés concurrentiels peuvent agréger les erreurs individuelles. Les firmes dirigées par des managers irrationnels sont sur-concurrencées. Les consommateurs qui surpaient systématiquement sont éduqués par l'expérience. La défense « comme si » — les marchés se comportent comme si les agents étaient rationnels, quel que soit ce qui se passe dans leurs têtes — reste une position sérieuse, particulièrement pour les marchés concurrentiels de produits où l'entrée est facile et le feedback rapide.
La finance comportementale a fourni le test critique — et la défense « comme si » a échoué sur le marché unique où elle aurait dû être la plus forte. Le modèle de traders de bruit DSSW (1990) a montré que les traders irrationnels peuvent survivre et bouger les prix parce que l'arbitrage est risqué et limité. Shleifer et Vishny (1997) ont établi les « limites à l'arbitrage » : même les arbitragistes sophistiqués font face aux coûts de vente à découvert, appels de marge et risque de carrière — ils ne peuvent pleinement corriger les mauvaises évaluations causées par les traders de bruit. Le puzzle de la prime d'actions, la volatilité excessive et les anomalies de momentum persistent tous malgré des décennies d'arbitrage sophistiqué. Si les biais survivent sur les marchés financiers — où l'information voyage le plus vite, les enjeux sont les plus élevés et le capital le plus intelligent concurrence — la défense « comme si » ne peut être un principe général. Le courant dominant a absorbé l'économie comportementale non en rejetant le choix rationnel mais en l'enrichissant : la théorie des perspectives est maintenant standard en finance, les préférences $\beta\delta$ sont standard en macro, et la théorie des mécanismes intègre de plus en plus les agents comportementaux.
Les gens ne sont pas pleinement rationnels de la manière que les axiomes exigent — les preuves sont écrasantes et ne sont plus sérieusement contestées. La question plus importante est si cela importe pour les résultats agrégés, et la réponse est spécifique au domaine. Sur les marchés financiers : oui, les biais survivent et bougent les prix, parce que les limites à l'arbitrage sont réelles et persistantes. Sur les marchés consommateurs : parfois — défauts et cadrage ont de grands effets durables sur l'épargne retraite, le don d'organes et l'usage d'énergie. Sur les marchés concurrentiels de produits : moins clair — concurrence, entrée et expérience peuvent discipliner beaucoup de biais au fil du temps. La résolution honnête est que « les gens sont-ils rationnels ? » était la mauvaise question tout du long. La rationalité n'est pas binaire. La bonne question est : quand l'irrationalité importe-t-elle pour les résultats agrégés, et quand la machinerie du marché la lessive-t-elle ? La réponse dépend du marché spécifique, du biais spécifique et du contexte institutionnel spécifique. L'économie comportementale n'a pas renversé le choix rationnel — elle a dessiné la carte de où le choix rationnel fonctionne, où il se brise, et quoi utiliser à la place.
C'est l'étape finale sur la GQ #4. L'arc est allé de l'hypothèse de rationalité comme outil de modélisation (Ch 1), à travers sa formalisation et ses axiomes testables (Ch 11), au défi comportemental complet et à son test de marché (ici). La question non résolue la plus difficile porte sur la politique : si les gens sont biaisés, le gouvernement devrait-il corriger leurs choix ? La théorie du nudge dit oui, gentiment — paternalisme libertarien. Mais la prémisse (irrationalité systématique) peut saper la conclusion (on peut faire confiance aux gens pour opt-out). Le problème « qui nudge les nudgeurs ? » n'a pas de réponse propre — les régulateurs gouvernementaux sont eux-mêmes sujets aux mêmes biais qu'ils cherchent à corriger. Et la frontière continue de bouger : neuroéconomie, modèles computationnels de rationalité bornée, et approches d'apprentissage automatique de l'estimation des préférences remodèlent ce que « rationalité » signifie même au 21e siècle.
Les nudges fonctionnent. Mais qui décide ce que « meilleur » signifie, et où s'arrête l'intervention ? La logique interne de l'économie comportementale pointe vers le paternalisme dur, non le gentil.
AvancéDan Riffle a popularisé le slogan en 2019. Les théorèmes du bien-être disent que les équilibres concurrentiels sont efficaces — mais beaucoup de fortunes de milliardaires proviennent du pouvoir de marché, non de la concurrence. L'économie comportementale ajoute une autre couche : les normes d'équité façonnent ce que les gens tolèrent.
AvancéMaya a offert un cookie gratuit avec chaque achat de limonade comme promotion estivale. Les ventes ont augmenté modestement — de 8 %. Lorsque Maya retire le cookie gratuit (revenant au prix d'origine), la réaction des clients est disproportionnée : plaintes, avis négatifs, perte de clients fidèles. Les ventes chutent de 15 % — en dessous du niveau d'avant la promotion.
Analyse par la théorie des perspectives. Pendant la promotion, le point de référence des clients est passé de « limonade » à « limonade + cookie ». Le gain de l'ajout du cookie était $v(+\text{cookie}) = (\text{valeur\_cookie})^{0,88}$. Mais la perte de son retrait est $v(-\text{cookie}) = -2{,}25 \times (\text{valeur\_cookie})^{0,88}$. La perte perçue est 2,25 fois le gain initial. La promotion était un cliquet unidirectionnel : facile à donner, douloureux à retirer.
Maya conçoit une expérience de nudge. Pour son programme de fidélité, Maya teste deux designs d'inscription comme expérience de terrain : Traitement A (adhésion) : les clients peuvent s'inscrire au comptoir. Traitement B (désinscription) : chaque client reçoit automatiquement une carte ; il peut se désinscrire. En utilisant l'Eq. 19.9 avec $v = 3$, $\sigma = 2$, $k = 2$ : adhésion $P = \Phi(0{,}5) = 0{,}69$ ; désinscription $P = \Phi(1{,}5) = 0{,}93$. L'expérience de terrain de Maya confirme la prédiction. Elle passe à la désinscription pour le déploiement complet.
Kahneman et Tversky (1979). « Prospect Theory: An Analysis of Decision under Risk » est l'un des articles les plus cités en économie. Publié dans Econometrica, il a formalisé les résultats expérimentaux en un cadre mathématique cohérent. Kahneman a reçu le prix Nobel en 2002 ; Tversky était décédé en 1996.
Maurice Allais (1953). L'économiste français a présenté son paradoxe directement à Leonard Savage. La légende veut que Savage lui-même soit tombé dans le schéma d'Allais. Allais a reçu le prix Nobel en 1988.
Richard Thaler (Nobel 2017). La chronique « Anomalies » de Thaler a systématiquement catalogué les écarts comportementaux. Son livre de 2008 Nudge (avec Sunstein) a amené les insights comportementaux dans la politique publique, conduisant à la création d'« unités nudge » dans le monde entier.
David Laibson (1997). « Golden Eggs and Hyperbolic Discounting » a formalisé le modèle bêta-delta et expliqué pourquoi les gens détiennent simultanément une dette de carte de crédit à 18 % d'intérêt et une épargne illiquide à 5 %.
Shleifer et Vishny (1997). « The Limits of Arbitrage » a montré pourquoi les traders rationnels ne peuvent pas éliminer les erreurs de prix lorsqu'ils gèrent l'argent d'autrui et font face à des contraintes de capital.
| Libellé | Équation | Description |
|---|---|---|
| Eq. 19.1 | $EU(L) = \sum p_i u(x_i)$ | Utilité espérée |
| Eq. 19.2 | $v(x) = x^\alpha$ (gains), $-\lambda(-x)^\beta$ (pertes) | Fonction de valeur de la théorie des perspectives |
| Eq. 19.3 | $w(p) = p^\delta / (p^\delta + (1-p)^\delta)^{1/\delta}$ | Pondération des probabilités de Tversky-Kahneman |
| Eq. 19.4 | $V(L) = \sum w(p_i) v(x_i - r)$ | Évaluation par la théorie des perspectives |
| Eq. 19.5 | $U_0 = u(c_0) + \beta \sum \delta^t u(c_t)$ | Actualisation quasi-hyperbolique |
| Eq. 19.6 | $\beta\delta u'(c_1) = u'(c_0) \neq \delta u'(c_1)$ | Incohérence temporelle |
| Eq. 19.7 | $U_i = x_i - \alpha_i \max(x_j-x_i,0) - \beta_i \max(x_i-x_j,0)$ | Aversion aux inégalités de Fehr-Schmidt |
| Eq. 19.8 | $\max u(c) - \theta\|m\|_1$ s.t. $p \cdot c \leq w$ | Maximisation parcimonieuse de Gabaix |
| Eq. 19.9 | $P_{\text{enroll}} = \Phi((v - k(1-d))/\sigma)$ | Inscription sensible au défaut |
| Eq. 19.10 | $p_t = f_t + \gamma \rho_t \mu_t / (1+r)$ | Tarification par les noise traders (DSSW) |