Jedes Modell in diesem Buch hat rationale Akteure angenommen — Konsumenten, die den Erwartungsnutzen maximieren, Unternehmen, die Kosten minimieren, Händler mit konsistenten Zeitpräferenzen und korrekten Überzeugungen. Diese Annahmen sind mächtig: Sie liefern scharfe Vorhersagen, elegante Wohlfahrtstheoreme und elegante Mathematik. Aber stimmen sie?
Dieses Kapitel konfrontiert die Evidenz. Die Verhaltensökonomik dokumentiert vorhersagbare, systematische Abweichungen vom rationalen Standardmodell. Dies sind keine zufälligen Fehler, die sich in der Aggregation aufheben — es sind gemusterte Verzerrungen, die Wiederholung, Anreize und sogar Expertise überleben.
Wir beginnen mit den Rissen in der Erwartungsnutzentheorie — dem Allais- und dem Ellsberg-Paradoxon — und arbeiten uns zur Prospect Theory vor, der führenden deskriptiven Alternative. Dann untersuchen wir intertemporale Entscheidungen unter Gegenwartspräferenz, soziale Präferenzen, die reines Eigeninteresse verletzen, begrenzte Rationalität und Heuristiken, experimentelle Methodik, Nudge-Theorie und Behavioral Finance. Durchgehend ist der Ansatz formal: Wir stellen Nutzenfunktionen auf, leiten Vorhersagen ab und testen sie an Daten.
Voraussetzungen: Erwartungsnutzentheorie (Kap. 6), Spieltheorie (Kap. 7), Konsumtheorie (Kap. 6/10), Ökonometrie-Grundlagen (Kap. 9), Vertrautheit mit Mechanismusdesign (Kap. 11).
Genannte Literatur: Kahneman & Tversky (1979); Tversky & Kahneman (1992); Thaler (1980, 2015); Laibson (1997); Fehr & Schmidt (1999); Gabaix (2014); Shleifer & Vishny (1997); DeLong, Shleifer, Summers & Waldmann (1990).
Erinnern Sie sich aus Kapitel 6, dass unter den Axiomen der Vollständigkeit, Transitivität, Stetigkeit und dem Unabhängigkeitsaxiom Präferenzen über Lotterien durch den Erwartungsnutzen dargestellt werden können:
Unabhängigkeit ist elegant und normativ ansprechend. Sie besagt, dass Ihre Präferenz zwischen zwei Glücksspielen nicht durch eine irrelevante gemeinsame Komponente beeinflusst werden sollte. Aber wie Maurice Allais 1953 zeigte, verletzen die meisten Menschen sie konsistent.
Betrachten Sie zwei Lotteriepaare:
Paar 1: Glücksspiel 1A: \$1M mit Sicherheit. Glücksspiel 1B: \$5M mit Wahrsch. 0,10, \$1M mit Wahrsch. 0,89, \$0 mit Wahrsch. 0,01.
Paar 2: Glücksspiel 2A: \$1M mit Wahrsch. 0,11, \$0 mit Wahrsch. 0,89. Glücksspiel 2B: \$5M mit Wahrsch. 0,10, \$0 mit Wahrsch. 0,90.
Das modale Muster: Die meisten Menschen wählen 1A gegenüber 1B und 2B gegenüber 2A. Diese gemeinsame Wahl $\{1A, 2B\}$ verletzt das Unabhängigkeitsaxiom.
Nach dem Unabhängigkeitsaxiom sollte das Ersetzen der gemeinsamen Konsequenz (\$1M in Paar 1, \$0 in Paar 2) die Rangordnung nicht ändern. Wenn $1A \succ 1B$, dann $1A \succ 2B$. Die Umkehr enthüllt einen Sicherheitseffekt.
Betrachten Sie eine Urne mit 30 roten Kugeln und 60 Kugeln, die schwarz oder gelb sind in unbekannten Proportionen. Glücksspiel A: Gewinn \$100 bei Rot (Wahrsch. 1/3, bekannt). Glücksspiel B: Gewinn \$100 bei Schwarz (Wahrsch. unbekannt). Die meisten wählen A.
Aber dann: Glücksspiel C: Gewinn \$100 bei Rot oder Gelb. Glücksspiel D: Gewinn \$100 bei Schwarz oder Gelb. Die meisten wählen D. Unter EU erfordert $A \succ B$, dass $C \succ D$. Die gemeinsame Wahl $\{A, D\}$ verletzt das Sure-Thing-Prinzip.
Diese Paradoxien enthüllen, dass das Unabhängigkeitsaxiom deskriptiv versagt. Wir brauchen eine Theorie, die diese Verletzungen berücksichtigt.
Abbildung 19.3. Allais-Paradoxon-Detektor. Wählen Sie Ihr bevorzugtes Glücksspiel in jedem Paar und prüfen Sie dann, ob Ihre Entscheidungen das Unabhängigkeitsaxiom verletzen.
Paar 1
Paar 2
Aufgabe. Zwei Lotteriepaare. Annahme: CRRA-Nutzenfunktion u(x) = x^{0,5} (x in Millionen). (a) Berechnen Sie den EU jeder Lotterie. (b) Welche empfiehlt EU? (c) Zeigen Sie, dass {1A, 2B} die Unabhängigkeit verletzt.
Lösung.
(a) EU(1A) = 1,0 × 1^{0,5} = 1,000. EU(1B) = 0,89(1) + 0,10(2,236) + 0,01(0) = 1,1136. EU(2A) = 0,11(1) = 0,11. EU(2B) = 0,10(2,236) = 0,2236.
(b) EU empfiehlt 1B (1,114 > 1,000) und 2B (0,224 > 0,110). EU-konsistente Paare: {1A, 2A} oder {1B, 2B}.
(c) 1A ≻ 1B erfordert 1,11 u(1) > 0,10 u(5) + 0,01 u(0). 1B ≻ 2A erfordert 1,10 u(5) + 0,01 u(0) > 0,11 u(1). Diese stehen im direkten Widerspruch. Keine u(·) kann beide gleichzeitig erfüllen.
Kahneman und Tversky (1979) schlugen die Prospect Theory als deskriptive Alternative vor, später verfeinert als kumulative Prospect Theory (1992). Sie modifiziert EU in vier Weisen: Referenzpunktabhängigkeit, Verlustaversion, abnehmende Sensitivität und Wahrscheinlichkeitsgewichtung.
Die Wertfunktion ersetzt $u(x)$, definiert über Endvermögen, durch $v(x)$, definiert über Gewinne und Verluste relativ zu einem Referenzpunkt:
Die von Tversky und Kahneman (1992) geschätzten Parameter sind $\alpha = \beta = 0{,}88$ und $\lambda = 2{,}25$.
Drei Eigenschaften: (1) Referenzpunktabhängigkeit — Ergebnisse werden als Gewinne oder Verluste relativ zu $r$ kodiert. (2) Abnehmende Sensitivität — $\alpha, \beta < 1$ ergibt Konkavität für Gewinne und Konvexität für Verluste. (3) Verlustaversion — $\lambda > 1$ macht die Wertfunktion für Verluste steiler.
Abbildung 19.1. Prospect-Theory-Wertfunktion. Die S-förmige Kurve ist konkav für Gewinne und konvex für Verluste, mit steilerer Steigung für Verluste (Verlustaversion). Bei $\alpha = \beta = \lambda = 1$ kollabiert sie zur Linearen (EU). Ziehen Sie die Schieberegler zum Erkunden.
Der Tversky-Kahneman (1992) Parameter $\delta \approx 0{,}65$. Wenn $\delta = 1$, $w(p) = p$ (EU). Wenn $\delta < 1$, übergewichtet die Funktion kleine Wahrscheinlichkeiten und untergewichtet große. Kreuzungspunkt bei $p \approx 0{,}37$.
Abbildung 19.2. Tversky-Kahneman (1992) Wahrscheinlichkeitsgewichtungsfunktion. Die inverse S-Kurve übergewichtet kleine Wahrscheinlichkeiten und untergewichtet große. Bei $\delta = 1$ kollabiert sie zur 45-Grad-Linie (EU). Ziehen Sie den Schieberegler.
Hinweis: Dies ist die ursprüngliche Prospect-Theory-Formulierung (Kahneman & Tversky, 1979), die Entscheidungsgewichte auf einzelne Wahrscheinlichkeiten anwendet. Die kumulative Prospect Theory (Tversky & Kahneman, 1992) wendet Entscheidungsgewichte auf kumulative Wahrscheinlichkeiten geordneter Ergebnisse an und behebt bestimmte Anomalien wie Verletzungen der stochastischen Dominanz.
Das vierfache Muster: kleines $p$ + Gewinne = Risikofreude (Lotterien); kleines $p$ + Verluste = Risikoaversion (Versicherungen); großes $p$ + Gewinne = Risikoaversion (Sicherheitseffekt); großes $p$ + Verluste = Risikofreude (verzweifeltes Spielen).
Aufgabe. Ein Spiel bietet +\$1.000 mit Wahrsch. 0,5 und −\$800 mit Wahrsch. 0,5. Referenzpunkt r = 0. (a) Sicherheitsäquivalent unter EU mit CRRA u(x) = x^{0,5}, W = \$10.000. (b) PT-Bewertung mit Standardparametern. (c) Warum kehrt die Verlustaversion die Bewertung um?
Lösung.
(a) EU = 0,5(11.000)^{0,5} + 0,5(9.200)^{0,5} = 0,5(104,88) + 0,5(95,92) = 100,40. SÄ: \$100,40^2 = 10.080$. SÄ-Änderung = +80,2. Agent akzeptiert.
(b) v(+1000) = 1000^{0,88} = 436,5. v(−800) = −2,25 × 800^{0,88} = −2,25 × 358,7 = −807,1. Mit w(0,5) ≈ 0,439: V = 0,439(436,5) + 0,439(−807,1) = −162,6. Agent lehnt ab.
(c) Die Verlustaversion (λ = 2,25) lässt den \$800-Verlust weitaus schwerer wiegen als den \$1.000-Gewinn und kehrt so die Bewertung um.
Die Standardtheorie nimmt exponentielles Diskontieren mit Diskontfaktor $\delta \in (0,1)$ an. Die Schlüsseleigenschaft ist Zeitkonsistenz: Ein bei $t=0$ gemachter Plan bleibt zu jedem zukünftigen Zeitpunkt optimal.
Experimentelle Evidenz lehnt konstantes Diskontieren überwältigend ab. Menschen zeigen abnehmende Ungeduld: Die Diskontrate zwischen heute und morgen ist viel höher als zwischen Tag 100 und Tag 101.
Die quasi-hyperbolischen Diskontfaktoren sind $\{1, \beta\delta, \beta\delta^2, \ldots\}$. Die unmittelbare Periode erhält Gewicht 1, aber alle zukünftigen Perioden werden zusätzlich mit $\beta$ diskontiert. Wenn $\beta < 1$, gibt es einen diskreten Abfall zwischen “jetzt” und “der Zukunft”.
Bei $t=0$ ist die Bedingung erster Ordnung für $c_1$: $\beta\delta u'(c_1) = u'(c_0)$. Bei $t=1$ ergibt die Neuoptimierung $u'(c_1) = \beta\delta u'(c_2)$. Das $\beta$ hat sich verschoben — der Plan ist zeitinkonsistent.
Ein naiver Akteur schiebt unbegrenzt auf. Ein sophistizierter Akteur verwendet Rückwärtsinduktion und kann Selbstbindungsinstrumente einsetzen.
Abbildung 19.4. Beta-Delta-Diskontierungs-Explorer. Der naive Akteur verschiebt ständig; der sophistizierte Akteur verwendet Rückwärtsinduktion. Bei $\beta = 1$ kollabieren alle Linien (keine Gegenwartspräferenz). Ziehen Sie die Schieberegler.
Aufgabe. Ein Student muss ein Projekt fertigstellen. Kosten heute = 6 Nutzeneinheiten, Nutzen in 2 Perioden = 10 Nutzeneinheiten. β = 0,7, δ = 0,95, 5 Perioden. (a) Wann handelt ein naiver Agent? (b) Ein sophistizierter Agent?
Lösung.
(a) Naiv: In jeder Periode t, Nettonutzen des sofortigen Handelns = −6 + 0,7 × 0,95² × 10 = −6 + 6,32 = +0,32. Wahrgenommener Nettonutzen des Wartens = 0,7 × 0,95 × (−6) + 0,7 × 0,95³ × 10 = −3,99 + 6,00 = +2,01. Da 2,01 > 0,32, verschiebt er immer. Prokrastiniert bis zur Frist.
(b) Sophistiziert: Rückwärtsinduktion. Bei t = 2 (letzte mögliche Periode), Nettonutzen = +0,32 > 0, also handelt das Selbst bei t=2. Bei t = 1: Nettonutzen jetzt = +0,32, Nettonutzen des Wartens auf t=2 = +2,01 > 0,32, also wartet. Bei t = 0: ebenso, wartet. Der sophistizierte Agent handelt bei t = 2 — früher als die Frist des naiven Agenten.
Aufgabe. Agent mit β = 0,7, δ = 0,95, logarithmischem Nutzen, Einkommen Y = 100 über 3 Perioden. (a) Sparen ohne Bindung. (b) Mit Bindung. (c) Wohlfahrtsgewinn.
Lösung.
(a) Ohne Bindung: t=0 teilt c₀ = 100/(1+0,665+0,632) = 43,54, verbleibend 56,46. Bei t=1 Re-Optimierung: c₁ = 56,46/1,665 = 33,91, c₂ = 22,55.
(b) Mit Bindung: c₁ = 0,665 × 100/2,297 = 28,95, c₂ = 0,632 × 100/2,297 = 27,51.
(c) Ohne: U = 3,774 + 2,344 + 1,967 = 8,085. Mit: U = 3,774 + 2,237 + 2,095 = 8,106. Gewinn = 0,020 Nutzeneinheiten. Der gebundene Agent erreicht einen glatteren Konsumpfad.
Jahrzehnte experimenteller Evidenz zeigen, dass Menschen systematisch vom reinen Eigeninteresse abweichen: Sie lehnen unfaire Angebote ab, geben an Fremde, kooperieren in Einmalspielen und bestrafen Trittbrettfahrer.
Die Beschränkungen $\alpha_i \geq \beta_i$ und $\beta_i < 1$ sind empirisch motiviert: Neid schmerzt mehr als Schuld, und niemand vernichtet Geld nur zur Gleichstellung.
Im Ultimatumspiel erfüllt das minimal akzeptable Angebot $s^*$ die Bedingung $s - \alpha_R(100-2s) \geq 0$, was $s^* = 100\alpha_R / (1+2\alpha_R)$ ergibt. Für $\alpha_R = 2$: $s^* = 40$.
Abbildung 19.6. Fehr-Schmidt-Ungleichheitsaversion. Höheres $\alpha$ (Neid) erhöht das minimal akzeptable Angebot. Bei $\alpha = \beta = 0$ gilt die Standardtheorie: Jedes positive Angebot wird akzeptiert. Ziehen Sie die Schieberegler.
Abbildung 19.5. Ultimatumspiel-Simulator. Spielen Sie als Antragsteller gegen verschiedene Antwortstrategien. Verfolgen Sie Ihre Erträge über die Runden.
In Diktatorspielen beträgt die durchschnittliche Zuteilung 20–30 %. In öffentlichen-Güter-Spielen hält die Einführung von Bestrafung die Kooperation aufrecht.
Aufgabe. Ultimatumspiel mit \$100. Anbieter: α_P = 0,5, β_P = 0,3. Antwortender: α_R = 2,0, β_R = 0,6. (a) Minimales akzeptables Angebot. (b) Optimales Angebot. (c) Vergleich mit Standard-Nash.
Lösung.
(a) U_R = s − 2,0(100−2s) = 5s − 200 ≥ 0 ⇒ s* = 40.
(b) U_P = (100−s) − 0,3(100−2s) = 70 − 0,4s, fallend in s. Minimiere s unter s ≥ 40: optimales Angebot s* = 40. U_P = 54, U_R = 0.
(c) Standardpräferenzen (α = β = 0): Angebot \$1, akzeptiert. Fehr-Schmidt: Angebot \$40. Viel näher an den experimentellen Modalangeboten von 40-50 %.
Herbert Simon (1955) argumentierte, dass Akteure satisfizieren statt optimieren: Sie suchen, bis sie eine akzeptable Option finden, und hören dann auf.
Tversky und Kahneman (1974) identifizierten drei Kernheuristiken: Repräsentativität (Wahrscheinlichkeit nach Ähnlichkeit beurteilen), Verfügbarkeit (Häufigkeit nach Leichtigkeit des Erinnerns schätzen) und Verankerung (unzureichende Anpassung von einem Anfangswert).
Gabaix (2014) formalisierte begrenzte Rationalität als Optimierungsproblem: Akteure maximieren den Nutzen abzüglich Aufmerksamkeitskosten $\theta$ pro Dimension. Der Akteur nimmt wahr $\hat{p}_k = \bar{p}_k + m_k(p_k - \bar{p}_k)$.
Laborexperimente bieten reale monetäre Anreize, Randomisierung und Kontrolle. Stärke: interne Validität. Schwäche: externe Validität.
Feldexperimente betten Manipulationen in reale Umgebungen ein: natürliches Verhalten, kein Bewusstsein, große Skala. Zielkonflikt: weniger Kontrolle für mehr Realismus.
Nachfrageeffekte: Probanden können ihr Verhalten ändern, weil sie wissen, dass sie beobachtet werden, oder die Absicht des Experimentators erraten. Die Täuschungsdebatte: Die Ökonomik hat eine starke Norm gegen Täuschung, anders als die Psychologie.
Die Replikationskrise: Nur 36 % der Psychologiestudien replizierten (Open Science Collaboration, 2015); die Ökonomik liegt höher (~60 %), ist aber dennoch besorgniserregend. Vorregistrierung adressiert P-Hacking und Publikationsverzerrung.
Wenn Entscheidungen von Framing und Defaults abhängen, dann ist Entscheidungsarchitektur — die Art, wie Entscheidungen präsentiert werden — relevant.
Der mächtigste Nudge ist der Default. Organspende: 15–20 % in Opt-in-Ländern, 85–99 % in Opt-out-Ländern. Altersvorsorge-Teilnahme springt von ~50 % auf über 90 % mit Opt-out.
Bei Opt-in ($d=0$): $P = \Phi((v-k)/\sigma)$. Bei Opt-out ($d=1$): $P = \Phi(v/\sigma)$. Die Lücke ist am größten, wenn $v$ positiv, aber moderat ist und $k/\sigma$ nicht trivial.
Abbildung 19.7. Default-Effekt-Simulator. Höhere Wechselkosten vergrößern die Lücke zwischen Opt-in- und Opt-out-Teilnahme. Bei $k = 0$ spielt der Default keine Rolle. Ziehen Sie den Schieberegler.
Das EAST-Rahmenwerk: Easy (Reibung reduzieren), Attractive (auffällig machen), Social (Normen nutzen), Timely (zum richtigen Zeitpunkt anstoßen).
Sludge ist Reibung, die erwünschtes Verhalten entmutigt. Sludge zu reduzieren ist oft so wirksam wie neue Nudges einzuführen.
Bernheim und Rangel (2009): Wohlfahrt anhand von Entscheidungen bewerten, die frei von Verhaltensverzerrungen sind — wenn Akteure gut informiert, aufmerksam und unverzerrt sind.
Wenn Kahneman recht hat, dass unsere Entscheidungen systematisch verzerrt sind, strukturiert immer jemand die Wahlmöglichkeiten, vor denen wir stehen. Sollte dieser Jemand der Staat sein — absichtlich?
FortgeschrittenDie Effizienzmarkthypothese besagt, dass Preise alle verfügbaren Informationen vollständig widerspiegeln. Behavioral Finance stellt dies in Frage: Viele Händler sind nicht rational, und rationale Arbitrageure unterliegen Grenzen.
Selbstüberschätzung erzeugt exzessiven Handel. Barber und Odean (2000): Die aktivsten Händler erzielten 6,5 Prozentpunkte weniger pro Jahr als die am wenigsten aktiven.
Der Referenzpunkt ist der Kaufpreis. Gewinne im konkaven Bereich (risikoavers, frühzeitig verkaufen); Verluste im konvexen Bereich (risikofreudig, halten).
Aktien performen über 3–12 Monate überdurchschnittlich (Momentum, Jegadeesh-Titman 1993) und über 3–5 Jahre unterdurchschnittlich (Umkehr, DeBondt-Thaler 1985).
Selbst rationale Händler können Fehlbewertungen möglicherweise nicht korrigieren: Noise-Trader-Risiko, Umsetzungskosten und Agency-Probleme schränken sie ein.
DeLong, Shleifer, Summers und Waldmann (1990): Höheres $\mu$ drückt den Preis von den Fundamentaldaten weg; höheres $\rho$ verstärkt die Abweichung; höheres $\gamma$ (Risikoaversion der Arbitrageure) bedeutet weniger aggressiven Handel gegen die Fehlbewertung, sodass die Abweichung zunimmt.
Das Paradoxon: Noise Trader können höhere erwartete Renditen erzielen, indem sie das Risiko tragen, das sie selbst geschaffen haben.
Abbildung 19.8. DSSW-Noise-Trader-Modell. Noise-Trader-Stimmung drückt Preise von den Fundamentaldaten weg. Risikoaverse Arbitrageure können die Fehlbewertung nicht vollständig korrigieren. Ziehen Sie die Schieberegler.
Aufgabe. f = 100, ρ = 0,30, μ = 20 (bullisch), r = 0,05, γ = 2. (a) Gleichgewichtspreis berechnen. (b) Preisabweichung. (c) Was wenn γ = 0?
Lösung.
(a) p = 100 + (2 × 0,30 × 20)/1,05 = 100 + 12/1,05 = 100 + 11,43 = 111,43.
(b) Abweichung: p − f = 11,43. Der Vermögenswert ist überbewertet, da Noise Trader die Preise über die Fundamentaldaten treiben und risikoaverse Arbitrageure sie nicht vollständig ausgleichen.
(c) Mit γ = 0: p = 100 + 0 = 100. Risikoneutrale Arbitrageure handeln aggressiv genug, um die Fehlbewertung vollständig zu beseitigen. Die zentrale DSSW-Erkenntnis: Es ist die Risikoaversion der Arbitrageure (γ > 0), die es den durch Noise Trader verursachten Abweichungen ermöglicht, fortzubestehen.
Sie haben nun Prospect Theory, Gegenwartspräferenz, soziale Präferenzen, begrenzte Rationalität und das DSSW-Rauschhändlermodell. Das ist die letzte Station — die Frage bekommt ihre Auflösung.
Der verhaltensökonomische Fall ist nun vollständig zusammengesetzt. Prospect Theory (Kahneman & Tversky 1979) liefert eine formale, testbare Alternative zum Erwartungsnutzen: Menschen bewerten Ergebnisse relativ zu einem Referenzpunkt, sind verlustavers ($\lambda \approx 2{,}25$) und übergewichten kleine Wahrscheinlichkeiten. Gegenwartspräferenz ($\beta\delta$-Diskontierung, Laibson 1997) erklärt Aufschieberitis, Untersparen und Zeitinkonsistenz — Menschen diskontieren die unmittelbare Zukunft weit stärker als die ferne Zukunft. Soziale Präferenzen (Fehr-Schmidt-Ungleichheitsaversion) erklären Kooperation und Bestrafung in Situationen, in denen reines Eigeninteresse Defektion vorhersagt. Begrenzte Rationalität (Gabaix' Sparse Maximization) formalisiert die Idee, dass Aufmerksamkeit knapp ist und Menschen über ein vereinfachtes Weltmodell optimieren. Das sind keine isolierten Anekdoten — sie sind systematisch, replizierbar und überleben hohe Einsätze. Die Verletzungen der Rationalitätsaxiome, die in Station 2 (Kapitel 11) dokumentiert wurden, haben nun formale Alternativmodelle, die die Daten besser passen als die Erwartungsnutzentheorie.
Zwei mächtige Gegenargumente überleben den verhaltensökonomischen Angriff. Erstens, ökologische Rationalität (Gigerenzer): Heuristiken sind keine Verzerrungen — sie sind effiziente Anpassungen an reale Umgebungen mit begrenzter Zeit und Information. „Schnelle und sparsame“ Heuristiken übertreffen oft vollständige Optimierung in realistischen Situationen mit verrauschten Daten. Die Laborergebnisse, die „Verzerrungen“ dokumentieren, mögen Artefakte künstlicher Umgebungen sein, die den ökologischen Kontext abstreifen, in dem menschliche Kognition sich entwickelte, um gut zu performen. Wenn die Umgebung unsicher genug ist, kann Information zu ignorieren optimal sein, nicht irrational. Zweitens, Marktdisziplin: Selbst wenn Individuen verzerrt sind, können wettbewerbliche Märkte individuelle Fehler herausaggregieren. Firmen, die von irrationalen Managern geführt werden, werden ausgestochen. Verbraucher, die systematisch zu viel zahlen, werden durch Erfahrung gebildet. Die „Als-ob“-Verteidigung — Märkte verhalten sich, als wären Akteure rational, ungeachtet dessen, was in ihren Köpfen vorgeht — bleibt eine ernsthafte Position, besonders für wettbewerbliche Produktmärkte, in denen Eintritt leicht und Feedback schnell ist.
Behavioral Finance lieferte den kritischen Test — und die „Als-ob“-Verteidigung versagte in dem einen Markt, in dem sie am stärksten hätte sein sollen. Das DSSW-Rauschhändlermodell (1990) zeigte, dass irrationale Händler überleben und Preise bewegen können, weil Arbitrage riskant und begrenzt ist. Shleifer und Vishny (1997) etablierten die „Grenzen der Arbitrage“: Selbst ausgeklügelte Arbitrageure sehen sich Leerverkaufskosten, Margin Calls und Karriererisiko gegenüber — sie können durch Rauschhändler verursachte Fehlbewertungen nicht vollständig korrigieren. Das Aktienprämien-Puzzle, Überschussvolatilität und Momentum-Anomalien bestehen alle trotz jahrzehntelanger ausgefeilter Arbitrage fort. Wenn Verzerrungen in Finanzmärkten überleben — wo Information am schnellsten reist, Einsätze am höchsten sind und das klügste Kapital konkurriert —, kann die „Als-ob“-Verteidigung kein allgemeines Prinzip sein. Der Mainstream absorbierte Verhaltensökonomik nicht durch Ablehnung der rationalen Wahl, sondern durch ihre Anreicherung: Prospect Theory ist jetzt Standard in der Finanzwelt, $\beta\delta$-Präferenzen sind Standard in der Makroökonomik, und Mechanismusdesign integriert zunehmend Verhaltensakteure.
Menschen sind nicht vollständig rational in der Weise, die die Axiome verlangen — die Evidenz ist überwältigend und nicht mehr ernsthaft umstritten. Die wichtigere Frage ist, ob es für aggregierte Ergebnisse zählt, und die Antwort ist bereichsspezifisch. In Finanzmärkten: ja, Verzerrungen überleben und bewegen Preise, weil die Grenzen der Arbitrage real und persistent sind. In Verbrauchermärkten: manchmal — Standardeinstellungen und Framing haben große, dauerhafte Effekte auf Altersvorsorge, Organspende und Energieverbrauch. In wettbewerblichen Produktmärkten: weniger klar — Wettbewerb, Eintritt und Erfahrung können viele Verzerrungen mit der Zeit disziplinieren. Die ehrliche Auflösung ist, dass „Sind Menschen rational?“ die ganze Zeit die falsche Frage war. Rationalität ist nicht binär. Die richtige Frage lautet: Wann zählt Irrationalität für aggregierte Ergebnisse, und wann wäscht die Marktmaschinerie sie aus? Die Antwort hängt vom spezifischen Markt, der spezifischen Verzerrung und dem spezifischen institutionellen Kontext ab. Verhaltensökonomik stürzte nicht die rationale Wahl — sie zeichnete die Karte, wo rationale Wahl funktioniert, wo sie bricht und was stattdessen zu nutzen ist.
Das ist die letzte Station der GF Nr. 4. Der Bogen verlief von der Rationalitätsannahme als Modellierungswerkzeug (Kap. 1) über ihre Formalisierung und testbaren Axiome (Kap. 11) bis zur vollen verhaltensökonomischen Herausforderung und ihrem Markttest (hier). Die schwierigste ungelöste Frage betrifft die Politik: Wenn Menschen verzerrt sind, sollte der Staat ihre Entscheidungen korrigieren? Die Nudge-Theorie sagt ja, sanft — libertärer Paternalismus. Aber die Prämisse (systematische Irrationalität) mag die Schlussfolgerung untergraben (man kann Menschen vertrauen, sich abzumelden). Das „Wer stupst die Anstupser?“-Problem hat keine saubere Antwort — Regierungsregulierer unterliegen selbst denselben Verzerrungen, die sie zu korrigieren suchen. Und die Grenze bewegt sich weiter: Neuroökonomik, rechnerische Modelle begrenzter Rationalität und Machine-Learning-Ansätze zur Präferenzschätzung gestalten um, was „Rationalität“ im 21. Jahrhundert überhaupt bedeutet.
Nudges funktionieren. Aber wer entscheidet, was „besser“ bedeutet, und wo hört Intervention auf? Die interne Logik der Verhaltensökonomik weist auf harten Paternalismus, nicht auf den sanften.
FortgeschrittenDan Riffle popularisierte den Slogan 2019. Die Wohlfahrtstheoreme sagen, Wettbewerbsgleichgewichte seien effizient — aber viele Milliardärsvermögen entstehen aus Marktmacht, nicht aus Wettbewerb. Verhaltensökonomik fügt eine weitere Schicht hinzu: Fairnessnormen formen, was Menschen tolerieren.
FortgeschrittenMaya legte als Sommeraktion zu jedem Limonadenverkauf einen kostenlosen Keks bei. Der Umsatz stieg moderat — um 8 %. Als Maya den kostenlosen Keks wieder streicht (Rückkehr zum ursprünglichen Preis), ist die Gegenreaktion der Kunden unverhältnismäßig: Beschwerden, negative Bewertungen, verlorene Stammkunden. Der Umsatz sinkt um 15 % — unter das Ausgangsniveau vor der Aktion.
Prospect-Theory-Analyse. Während der Aktion hat sich der Referenzpunkt der Kunden von “Limonade” zu “Limonade + Keks” verschoben. Der Gewinn durch den Keks betrug $v(+\text{Keks}) = (\text{Kekswert})^{0{,}88}$. Aber der Verlust durch das Entfernen beträgt $v(-\text{Keks}) = -2{,}25 \times (\text{Kekswert})^{0{,}88}$. Der empfundene Verlust ist 2,25-mal so groß wie der ursprüngliche Gewinn. Die Aktion war eine Einbahnstraße: leicht zu geben, schmerzhaft wegzunehmen.
Maya entwirft ein Nudge-Experiment. Für ihr Treueprogramm testet Maya zwei Anmeldedesigns als Feldexperiment: Behandlung A (Opt-in): Kunden können sich an der Theke anmelden. Behandlung B (Opt-out): Jeder Kunde bekommt automatisch eine Karte; er kann ablehnen. Mit Gl. 19.9 und $v = 3$, $\sigma = 2$, $k = 2$: Opt-in $P = \Phi(0{,}5) = 0{,}69$; Opt-out $P = \Phi(1{,}5) = 0{,}93$. Mayas Feldexperiment bestätigt die Vorhersage. Sie wechselt für den vollständigen Rollout zu Opt-out.
Kahneman und Tversky (1979). “Prospect Theory: An Analysis of Decision under Risk” ist einer der meistzitierten Aufsätze in der Ökonomik. Veröffentlicht in Econometrica, formalisierte er experimentelle Befunde zu einem kohärenten mathematischen Rahmenwerk. Kahneman erhielt 2002 den Nobelpreis; Tversky war 1996 verstorben.
Maurice Allais (1953). Der französische Ökonom präsentierte sein Paradoxon direkt Leonard Savage. Der Legende nach fiel Savage selbst in das Allais-Muster. Allais erhielt 1988 den Nobelpreis.
Richard Thaler (Nobelpreis 2017). Thalers “Anomalies”-Kolumne katalogisierte systematisch Verhaltensabweichungen. Sein 2008 erschienenes Buch Nudge (mit Sunstein) brachte verhaltensökonomische Erkenntnisse in die Politik und führte weltweit zu “Nudge Units”.
David Laibson (1997). “Golden Eggs and Hyperbolic Discounting” formalisierte das Beta-Delta-Modell und erklärte, warum Menschen gleichzeitig Kreditkartenschulden bei 18 % Zinsen und illiquide Ersparnisse bei 5 % halten.
Shleifer und Vishny (1997). “The Limits of Arbitrage” zeigte, warum rationale Händler Fehlbewertungen nicht beseitigen können, wenn sie fremdes Geld verwalten und Kapitalbeschränkungen unterliegen.
| Bezeichnung | Gleichung | Beschreibung |
|---|---|---|
| Gl. 19.1 | $EU(L) = \sum p_i u(x_i)$ | Erwartungsnutzen |
| Gl. 19.2 | $v(x) = x^\alpha$ (Gewinne), $-\lambda(-x)^\beta$ (Verluste) | Prospect-Theory-Wertfunktion |
| Gl. 19.3 | $w(p) = p^\delta / (p^\delta + (1-p)^\delta)^{1/\delta}$ | Tversky-Kahneman-Wahrscheinlichkeitsgewichtung |
| Gl. 19.4 | $V(L) = \sum w(p_i) v(x_i - r)$ | Prospect-Theory-Bewertung |
| Gl. 19.5 | $U_0 = u(c_0) + \beta \sum \delta^t u(c_t)$ | Quasi-hyperbolisches Diskontieren |
| Gl. 19.6 | $\beta\delta u'(c_1) = u'(c_0) \neq \delta u'(c_1)$ | Zeitinkonsistenz |
| Gl. 19.7 | $U_i = x_i - \alpha_i \max(x_j-x_i,0) - \beta_i \max(x_i-x_j,0)$ | Fehr-Schmidt-Ungleichheitsaversion |
| Gl. 19.8 | $\max u(c) - \theta\|m\|_1$ s.t. $p \cdot c \leq w$ | Gabaix — sparsame Maximierung |
| Gl. 19.9 | $P_{\text{enroll}} = \Phi((v - k(1-d))/\sigma)$ | Default-sensitive Teilnahme |
| Gl. 19.10 | $p_t = f_t + \gamma \rho_t \mu_t / (1+r)$ | DSSW-Noise-Trader-Preisbildung |