Die Volkswirtschaftslehre erhebt kausale Ansprüche — Mindestlöhne beeinflussen die Beschäftigung, Bildung erhöht das Einkommen, Institutionen bestimmen das Wachstum. Die Überprüfung dieser Ansprüche erfordert Daten und eine Methode zur Unterscheidung von Kausalität und Korrelation. Ökonometrie ist diese Methode.
Dieses Kapitel ist kein Statistikkurs. Wir setzen Vertrautheit mit grundlegender Wahrscheinlichkeitsrechnung und Regression voraus. Wir konzentrieren uns auf das zentrale Problem der empirischen Ökonomie: Identifikation, das Finden glaubwürdiger Quellen exogener Variation, die es uns ermöglichen, kausale Effekte zu schätzen. Jedes Werkzeug in diesem Kapitel (OLS, Instrumentalvariablen, Differenz-von-Differenzen, Regressionsdiskontinuität) ist eine Strategie zur Lösung des Identifikationsproblems.
Voraussetzungen: Kapitel 2 und 5 (ökonomischer Kontext für Beispiele). Mathematische Voraussetzungen: Lineare Algebra, Wahrscheinlichkeitsrechnung und Statistik.
Betrachten Sie die Frage: Erhöht ein zusätzliches Jahr Bildung das Einkommen? Wir beobachten, dass besser gebildete Menschen mehr verdienen. Aber liegt das daran, dass:
Beides ist mit der beobachteten Korrelation vereinbar. Das Identifikationsproblem besteht darin, dass wir dieselbe Person nicht direkt mit und ohne Bildung vergleichen können — das Kontrafaktische ist unbeobachtet.
Die grundlegende Gleichung:
wobei $Y_i$ das Ergebnis (Einkommen) ist, $X_i$ die Behandlung (Bildungsjahre), $\beta$ der kausale Parameter von Interesse und $\varepsilon_i$ alles andere erfasst, was $Y_i$ beeinflusst: Fähigkeit, familiärer Hintergrund, Motivation, Glück, Gesundheit und Tausende anderer Faktoren.
Das Identifikationsproblem entsteht, wenn $X_i$ mit $\varepsilon_i$ korreliert ist, also wenn die „Behandlung“ nicht zufällig zugewiesen wird. In der Statistik wird dies als Endogenität bezeichnet. In der Ökonomie ist es die Norm, nicht die Ausnahme: Menschen wählen ihre Bildung (und die Wahl korreliert mit der Fähigkeit), Länder wählen ihre Politiken (und die Wahl korreliert mit ihren wirtschaftlichen Bedingungen), Unternehmen wählen ihre Preise (und die Wahl korreliert mit den Nachfragebedingungen).
In einem randomisierten Experiment wird die Behandlung $X_i$ per Münzwurf zugewiesen; sie ist konstruktionsbedingt unabhängig von $\varepsilon_i$. Aber Ökonomen haben selten den Luxus der Randomisierung bei den großen Fragen. Die Methoden in diesem Kapitel (OLS, IV, DiD, RD) sind Strategien, um „natürliche Experimente” zu finden, die die Randomisierung in Beobachtungsdaten approximieren.
Für das multivariate Modell $Y = X\beta + \varepsilon$ (Matrixnotation):
Unter den Gauss-Markov-Annahmen hat OLS wünschenswerte Eigenschaften:
Unter diesen Annahmen ist OLS BLUE — der beste lineare unverzerrte Schätzer. „Best“ bedeutet niedrigste Varianz unter allen linearen unverzerrten Schätzern. „Unverzerrt“ bedeutet $E[\hat{\beta}] = \beta$.
Die kritische Annahme ist Nr. 4: $E[\varepsilon|X] = 0$. Wenn diese versagt — aufgrund ausgelassener Variablen, Simultanität oder Messfehler in $X$ — ist OLS verzerrt. Die Schätzung $\hat{\beta}$ konvergiert selbst bei unendlich vielen Daten nicht mehr zum wahren $\beta$. Dies ist kein Kleinproben-Problem — es ist ein grundlegender Designfehler, den mehr Daten nicht beheben können.
Ein Streudiagramm mit einer angepassten OLS-Regressionslinie. Ziehen Sie den Schieberegler, um einen Ausreißer an verschiedenen vertikalen Positionen hinzuzufügen, und beobachten Sie, wie die Regressionslinie kippt. Beobachten Sie, wie ein einzelner Punkt mit hohem Hebeleffekt die Steigung, $R^2$ und Koeffizienten dramatisch verändern kann.
Abbildung 10.1. OLS-Regression mit einem einstellbaren Ausreißer. Der Ausreißer befindet sich bei $X=14$ (hoher Hebeleffekt). Ziehen Sie den Schieberegler über „Kein Ausreißer“, um ihn einzuführen, und beobachten Sie, wie die Linie kippt. Hover für Werte.
Angenommen, das wahre Modell ist $Y = \beta_0 + \beta_1 X + \beta_2 Z + u$, aber wir lassen $Z$ aus und schätzen $Y = \alpha_0 + \alpha_1 X + e$. Dann:
Die Verzerrung entspricht dem Effekt der ausgelassenen Variablen ($\beta_2$) multipliziert mit der Assoziation zwischen der ausgelassenen Variablen und dem eingeschlossenen Regressor.
Vorzeichen der Verzerrung:
| $Cov(X, Z) > 0$ | $Cov(X, Z) < 0$ | |
|---|---|---|
| $\beta_2 > 0$ | Aufwärtsverzerrung (Überschätzung von $\beta_1$) | Abwärtsverzerrung |
| $\beta_2 < 0$ | Abwärtsverzerrung | Aufwärtsverzerrung |
Angenommen, die Fähigkeit ($Z$) ist sowohl mit Bildung ($X$) als auch mit Einkommen ($Y$) positiv korreliert. Dann ist $\beta_2 > 0$ (Fähigkeit erhöht das Einkommen) und $Cov(X,Z) > 0$ (fähigere Menschen erhalten mehr Bildung). Die OLS-Schätzung der Bildungsrendite ist nach oben verzerrt — sie schreibt einen Teil des Fähigkeitseffekts der Bildung zu.
Zwei Panels zeigen dieselben Daten. Links: die wahre Beziehung mit dem Störfaktor (Fähigkeit), dargestellt als Punktfarbe. Rechts: die naive OLS-Regression ohne Fähigkeit. Ziehen Sie den Schieberegler, um die Stärke des Störfaktors zu ändern, und beobachten Sie, wie die Verzerrung wächst.
Links: Wahres Modell mit dem Störfaktor (Fähigkeit), dargestellt als Farbe. Dunkler = höhere Fähigkeit.
Rechts: Naive OLS-Regression ohne Berücksichtigung der Fähigkeit. Die verzerrte Linie (rot gestrichelt) ist steiler als der wahre kausale Effekt (blau).
Wenn OLS verzerrt ist, weil $X$ endogen ist ($Cov(X, \varepsilon) \neq 0$), kann eine Instrumentalvariable die Schätzung retten.
Zweistufige Methode der kleinsten Quadrate (2SLS):
Erste Stufe: Regression von $X$ auf $Z$ (und etwaige Kontrollvariablen):
Dies isoliert den Teil von $X$, der vom Instrument angetrieben wird, also den exogenen Teil. Die angepassten Werte $\hat{X}_i$ repräsentieren die „saubere” Variation in $X$.
Zweite Stufe: Regression von $Y$ auf $\hat{X}$. In Matrixform:
Im einfachen Fall mit einem Instrument und einem endogenen Regressor:
Die IV-Schätzung ist das Verhältnis der reduzierten Form (Effekt von $Z$ auf $Y$) zur ersten Stufe (Effekt von $Z$ auf $X$). Die Intuition: $Z$ beeinflusst $Y$ nur über $X$ (Ausschlussrestriktion), daher isoliert die Division durch die erste Stufe den kausalen Effekt von $X$ auf $Y$.
Was IV schätzt. Bei heterogenen Behandlungseffekten identifiziert IV den lokalen durchschnittlichen Behandlungseffekt (LATE): den kausalen Effekt für die Teilpopulation, deren Verhalten durch das Instrument verändert wird (die „Complier”).
Wenn $Z$ schwach mit $X$ korreliert ist, ist die erste Stufe schwach und die IV-Schätzung unzuverlässig (verzerrt in Richtung OLS, breite Konfidenzintervalle). Faustregel: F-Statistik der ersten Stufe > 10.
Das Geburtsquartal wurde als Instrument für die Schuljahre verwendet. Schulpflichtgesetze bedeuten, dass früher im Jahr geborene Schüler mit etwas weniger Bildung die Schule verlassen können. Das Geburtsquartal ist plausiblerweise: (a) mit der Schulbildung korreliert (Relevanz), und (b) nicht direkt mit dem Einkommen verbunden (Ausschluss). Die IV-Schätzung der Bildungsrendite betrug etwa 7–8 % pro Jahr.
Dieser gerichtete azyklische Graph zeigt die Kausalstruktur eines IV-Designs. Wechseln Sie zwischen Ansichten, um zu sehen, wie ein Instrument Z den Konfundierungspfad unterbricht.
Abbildung 10.2. DAG für das Instrumentalvariablen-Design. Z ist das Instrument, X ist der endogene Regressor, Y ist das Ergebnis und U ist der unbeobachtete Störfaktor. Die IV-Strategie nutzt nur die Variation in X, die von Z angetrieben wird, und umgeht den Störpfad durch U.
Die erste Differenz beseitigt zeitinvariante Gruppenmerkmale. Die zweite Differenz beseitigt gemeinsame Zeittrends.
Schlüsselannahme: Parallele Trends. In Abwesenheit der Behandlung hätten Behandlungs- und Kontrollgruppe demselben Trend gefolgt. Dies ist für die Nachbehandlungsperiode nicht testbar, aber für die Vorbehandlungsperiode beurteilbar.
New Jersey erhöhte seinen Mindestlohn im April 1992 von 4,25 $ auf 5,05 $; Pennsylvania nicht. Die DiD-Schätzung des Beschäftigungseffekts war positiv (+2,7 VZÄ), was der Vorhersage des einfachen Wettbewerbsmodells widersprach. Diese Studie löste eine Revolution in der empirischen Arbeitsmarktökonomie aus.
Regressionsformulierung:
Zwei Zeitreihen zeigen eine Behandlungs- und eine Kontrollgruppe. Die Behandlung erfolgt bei $t = 5$. Ziehen Sie den Schieberegler, um die Größe des Behandlungseffekts zu ändern, und beobachten Sie, wie sich die DiD-Schätzung aktualisiert. Parallele Trends vor der Behandlung sind sichtbar.
Abbildung 10.3. Differenz-von-Differenzen-Design. Die gestrichelte Linie zeigt das Kontrafaktische — was mit der Behandlungsgruppe ohne Behandlung passiert wäre (parallel zur Kontrolle). Die Lücke zwischen den tatsächlichen und kontrafaktischen Ergebnissen am Ende ist der Behandlungseffekt.
Sie verfügen nun über Differenz-von-Differenzen, Instrumentalvariablen und die Werkzeuge der kausalen Identifikation. Hier wird die Mindestlohn-Debatte durch Evidenz statt durch Theorie entschieden.
Card und Krueger (1994) wandten Differenz-von-Differenzen, die Methode, die Sie gerade gelernt haben, auf ein natürliches Experiment an. Als New Jersey 1992 seinen Mindestlohn von \$4,25 auf \$5,05 anhob, tat das benachbarte Pennsylvania das nicht. Indem sie Fast-Food-Restaurants auf beiden Seiten der Grenze vor und nach der Erhöhung befragten, konstruierten sie eine saubere DiD-Schätzung: die Behandlungsgruppe (NJ) gegen die Kontrollgruppe (PA), wobei gemeinsame Trends herausdifferenziert wurden. Das Ergebnis verblüffte die Profession: Die Beschäftigung in New Jerseys Fast-Food-Restaurants fiel nicht. Wenn überhaupt, stieg sie leicht. Die Vorhersage des Wettbewerbsmodells — dass eine bindende Preisuntergrenze die nachgefragte Menge reduziert — scheiterte an ihrem direktesten empirischen Test. Nachfolgende Studien mit County-Grenzdesigns (Dube, Lester & Reich, 2010) bestätigten das Muster: Wenn man benachbarte Countys über Staatsgrenzen hinweg verglich, bei denen eine Seite den Mindestlohn anhob und die andere nicht, waren die Beschäftigungseffekte bei moderaten Erhöhungen klein bis vernachlässigbar.
Neumark und Wascher stellten die nachhaltigste Herausforderung dar. Mithilfe von Gehaltsabrechnungsdaten des Bureau of Labor Statistics statt Card und Kruegers Telefonumfragen fanden sie, dass die Beschäftigung in New Jersey doch zurückging; das ursprüngliche Ergebnis, argumentierten sie, sei ein Artefakt verrauschter Umfragedaten. Jenseits der Datenqualität hat die Kritik strukturelle Kraft: DiD erfasst kurzfristige Effekte, aber Unternehmen passen sich im Laufe der Zeit an mehreren Rändern an. Stunden werden gekürzt, auch wenn die Kopfzahl es nicht wird (Jardim et al., 2022, zu Seattles \$15-Mindestlohn). Leistungen erodieren. Automatisierung beschleunigt sich; Selbstbestellterminals und Dienstplansoftware sind nicht zufällig. Und die Grenzdesign-Studien können Effekte systematisch unterschätzen, indem sie Gebiete vergleichen, die gerade deshalb ökonomisch ähnlich sind, weil sie Arbeiter über die Grenze austauschen, was die Kontrollgruppe kontaminiert. Die Metaanalyse ist wirklich gemischt: Welche Studien man gewichtet und wie, bestimmt, ob man kleine negative Effekte oder keine Effekte findet.
Die Reaktion des Feldes illustriert, was Ökonomen die „Glaubwürdigkeitsrevolution” nennen: die Verschiebung von der Schätzung struktureller Modelle zum Entwurf von Identifikationsstrategien. Card und Krueger stellten nicht nur eine Vorhersage infrage; sie veränderten, wie empirische Ökonomik betrieben wird. Die Frage verschob sich von „Was sagt das Modell voraus?” zu „Können wir ein glaubwürdiges Forschungsdesign finden, das den kausalen Effekt isoliert?” Cengiz, Dube, Lindner und Zipperer (2019) lieferten die bisher umfassendste Antwort und analysierten 138 Mindestlohnänderungen auf Bundesstaatsebene mit einem Bunching-Schätzer. Sie betrachteten die gesamte Lohnverteilung: Jobs, die knapp unter dem neuen Minimum bezahlt wurden, verschwanden; Jobs, die auf oder knapp über ihm bezahlt wurden, erschienen; und — entscheidend — die Gesamtbeschäftigung im betroffenen Bereich veränderte sich kaum. Die Jobs verschwanden nicht; sie rückten die Lohnleiter hinauf. Das ist genau das, was das Monopsonmodell aus Kapitel 6 vorhersagt, und genau das, was das Wettbewerbsmodell besagt, dass es nicht passieren dürfte.
Die Lehrbuchvorhersage — dass Mindestlöhne Arbeitslosigkeit verursachen — ist als allgemeine empirische Behauptung falsch. Moderate Mindestlohnerhöhungen, bis zu etwa 50–60 % des lokalen Medianlohns, produzieren in den meisten glaubwürdigen Studien minimale nachweisbare Beschäftigungseffekte. Das ist konsistent mit Monopsonmacht in Niedriglohn-Arbeitsmärkten: Wenn Arbeitgeber Lohnsetzungsmacht haben, drückt ein moderater Mindestlohn sie zum Wettbewerbsergebnis hin statt davon weg. Aber „moderat“ ist das entscheidende Wort. Das Wettbewerbsmodell ist nicht falsch — es ist unvollständig. Heben Sie den Mindestlohn relativ zu den lokalen Bedingungen hoch genug an (über 60 % des Medians, wie ein bundesweiter \$15-Lohn in Niedriglohnregionen), und die Standardvorhersage setzt sich wieder durch. Die tiefere Lektion ist methodologisch: Eine theoretische Vorhersage, die jahrzehntelang wasserdicht schien, wurde nicht durch bessere Theorie, sondern durch bessere Identifikation umgestürzt. Das Modell war logisch korrekt; seine empirische Relevanz war die ganze Zeit die Frage.
Diese Große Frage ist auf diesem Niveau im Wesentlichen geklärt: Moderate Mindestlöhne verursachen keine signifikante Arbeitslosigkeit, konsistent mit Monopson. Die verbleibende Grenze ist Kalibrierung, nicht Richtung. Wie hoch kann man gehen, bevor Arbeitsplatzverlust auftritt? Die Antwort variiert nach Region, Sektor und Zeithorizont — und der Automatisierungsrand (Terminals, KI-Dienstplanung, Selbstbedienungskassen) kann langfristige Effekte größer machen, als kurzfristige DiD-Schätzungen erfassen. Die Debatte hat sich von „Verursacht er Arbeitslosigkeit?“ zu „Was ist die richtige Zahl für diesen Arbeitsmarkt?“ verschoben — das ist eine Frage der Politikgestaltung, keine der ökonomischen Theorie. Die Werkzeuge, die Sie in diesem Kapitel gelernt haben — DiD, IV, Identifikationsstrategie — sind genau, wie diese Kalibrierungsfrage beantwortet wird.
Die erfolgreichste Lohnkampagne einer Generation machte aus einer Zahl eine Bewegung. Aber 15 \$ bedeuten sehr unterschiedliche Dinge in San Francisco und im ländlichen Mississippi. Die Ökonomie des „Wie viel“ erweist sich als untrennbar vom „Wo“.
EinführungSelbst wenn moderate Mindestlohnerhöhungen keine Arbeitslosigkeit verursachen — reduzieren sie tatsächlich die Armut? Der Mindestlohn ist ein grobes Instrument — viele Mindestlohnarbeiter leben nicht in armen Haushalten (denken Sie an Teenager wohlhabender Eltern). Der EITC (Steuergutschrift für Niedrigverdiener) zielt präziser auf einkommensschwache Familien. Kämpfen wir um die falsche Politik?
MittelstufeSchlüsselannahme: Stetigkeit. Alle Faktoren, die $Y$ beeinflussen (außer der Behandlung), variieren stetig am Schwellenwert, ohne Sortierung oder Manipulation um den Schwellenwert.
Ein Stipendium wird an Studierende vergeben, die bei einer Prüfung über 80 Punkte erzielen. Studierende mit 79 und 81 Punkten sind in ihren Fähigkeiten ähnlich, aber einer erhält das Stipendium und der andere nicht. Die Diskontinuität der Ergebnisse (z. B. Studienabschlussquoten) an der 80-Punkte-Schwelle schätzt den kausalen Effekt des Stipendiums.
Ein Streudiagramm mit einer Laufvariablen (Testergebnis). Studierende oberhalb des Schwellenwerts erhalten die Behandlung (Stipendium). Polynom-Anpassungen auf jeder Seite zeigen den Sprung am Schwellenwert. Passen Sie die Position des Schwellenwerts und die Bandbreite an, um zu sehen, wie sich der geschätzte Behandlungseffekt ändert.
Abbildung 10.4. Regressionsdiskontinuität. Die vertikale gestrichelte Linie markiert den Schwellenwert. Punkte links des Schwellenwerts sind unbehandelt (grau); rechts sind behandelt (grün). Der Sprung am Schwellenwert ist die Schätzung des Behandlungseffekts. Passen Sie die Bandbreite an, um sich auf Beobachtungen nahe dem Schwellenwert zu konzentrieren.
RCTs sind der „Goldstandard“ für interne Validität, da die Randomisierung konstruktionsbedingt $E[\varepsilon|X] = 0$ garantiert. Banerjee, Duflo und Kremer erhielten 2019 den Nobelpreis für ihren experimentellen Ansatz zur Bekämpfung globaler Armut.
Ein Berufsausbildungsprogramm weist 500 Personen zufällig der Behandlungsgruppe und 500 der Kontrollgruppe zu. Nur 60 % der zur Behandlung Zugewiesenen nehmen tatsächlich am Programm teil (Compliance-Rate = 0,6).
Ergebnisse: Durchschnittliches Einkommen: Behandlungsgruppe = 25.000 $, Kontrollgruppe = 23.000 $.
ITT: $\hat{\tau}_{ITT} = 25{,}000 - 23{,}000 = \\$1{,}000$. Dies ist der Effekt des Angebots des Programms.
TOT: $\hat{\tau}_{TOT} = 2{,}000 / 0.6 = \\$1{,}333$. Dies schätzt den Effekt der tatsächlichen Teilnahme am Programm (für Complier). Der TOT ist größer, da der ITT durch Nicht-Complier verdünnt wird.
Teststärke-Prüfung: Mit $n = 500$ pro Gruppe, $\sigma = \\$1{,}000$ und einem wahren Effekt von $\\$1{,}000$ beträgt die Teststärke $\approx 0.80$. Die Studie ist ausreichend gepowert, um den ITT zu erkennen.
Statistische Teststärke ist die Wahrscheinlichkeit, einen wahren Behandlungseffekt zu erkennen. Verwenden Sie die Schieberegler, um zu erkunden, wie Effektgröße, Stichprobengröße und Varianz die Teststärke beeinflussen. Die Teststärkekurve aktualisiert sich in Echtzeit, und der minimale erkennbare Effekt (MDE) bei 80 % Teststärke wird hervorgehoben.
Abbildung 10.5. Teststärkekurve: Wahrscheinlichkeit, den Effekt zu erkennen, als Funktion der Effektgröße. Die rote gestrichelte Linie markiert 80 % Teststärke. Die grüne Raute markiert die aktuelle Parameterkombination. Der MDE ist der kleinste erkennbare Effekt bei 80 % Teststärke bei gegebener Stichprobengröße und Varianz.
Eine Punktschätzung ohne Maß der Unsicherheit ist nahezu nutzlos.
Standardfehler (SE) sind die Quadratwurzeln der Diagonalelemente. Ein 95%-Konfidenzintervall beträgt ungefähr $\hat{\beta} \pm 1.96 \cdot SE(\hat{\beta})$.
Statistische Signifikanz: Wir lehnen $H_0: \beta = 0$ auf dem 5%-Niveau ab, wenn $|t| = |\hat{\beta}/SE(\hat{\beta})| > 1.96$.
Ökonomische Signifikanz vs. statistische Signifikanz: Ein Koeffizient kann statistisch signifikant, aber ökonomisch trivial sein. Umgekehrt kann eine unpräzise Schätzung ökonomisch groß, aber statistisch insignifikant sein. Gute empirische Arbeit diskutiert beides.
Eine praktische Regel: In der modernen angewandten Ökonomie sollten Sie immer robuste oder geclusterte Standardfehler verwenden.
Jede empirische Strategie hat Annahmen, die versagen können:
| Strategie | Schlüsselannahme | Bedrohung | Diagnostik |
|---|---|---|---|
| OLS | Keine ausgelassenen Variablen ($E[\varepsilon|X]=0$) | Konfundierung | Theorie + Sensitivitätsanalyse |
| IV | Ausschlussrestriktion | Direkter Effekt von $Z$ auf $Y$ | Nicht direkt testbar; theoretisch argumentieren |
| IV | Relevanz | Schwache Instrumente | F der ersten Stufe > 10 |
| DiD | Parallele Trends | Unterschiedliche Vorbehandlungstrends | Vorbehandlungstrends grafisch darstellen |
| RD | Keine Manipulation am Schwellenwert | Sortierung um den Schwellenwert | McCrary-Dichtetest |
| RCT | Keine Attrition, keine Spillover | Differenzieller Abbruch; Kontamination | Balance-Checks, Attritionsanalyse |
Ein Ökonom möchte den Effekt von Kaelanis neuer Bildungspolitik (kostenlose Schulbücher für die Klassen 1–6) auf die Testergebnisse schätzen. Die Politik wurde 2024 in den östlichen Provinzen eingeführt, aber nicht in den westlichen.
Design: Differenz-von-Differenzen.
| Vor der Politik (2023) | Nach der Politik (2025) | Veränderung | |
|---|---|---|---|
| Osten (Behandlung) | 55 | 63 | +8 |
| Westen (Kontrolle) | 52 | 56 | +4 |
| DiD-Schätzung | +4 |
Die DiD-Schätzung beträgt 4 Punkte. Kostenlose Schulbücher haben die Testergebnisse um 4 Punkte erhöht, nach Kontrolle des gemeinsamen Aufwärtstrends.
Bedrohungen: (1) Parallele Trends: Verbesserten sich die östlichen Provinzen bereits schneller? (2) Spillover-Effekte: Schickten Familien nahe der Grenze ihre Kinder in östliche Schulen? (3) Zusammensetzungsänderungen: Veränderten kostenlose Schulbücher die Einschreibungen?
Ein ergänzender Ansatz: Regressionsdiskontinuität an der Provinzgrenze, mit Vergleich von Dörfern direkt auf beiden Seiten.
| Bezeichnung | Gleichung | Beschreibung |
|---|---|---|
| Gl. 10.1 | $Y_i = \alpha + \beta X_i + \varepsilon_i$ | Strukturgleichung |
| Gl. 10.2 | $\hat{\beta}_{OLS} = (X'X)^{-1}X'Y$ | OLS-Schätzer |
| Gl. 10.3 | $E[\hat{\alpha}_1] = \beta_1 + \beta_2 \cdot Cov(X,Z)/Var(X)$ | Formel der Verzerrung durch ausgelassene Variablen |
| Gl. 10.5 | $\hat{\beta}_{IV} = Cov(Z,Y)/Cov(Z,X)$ | IV-Schätzer (einfach) |
| Gl. 10.6 | $\hat{\tau}_{DiD}$ = (treat change) − (control change) | DiD-Schätzer |
| Gl. 10.7 | $Y_{it} = \alpha + \beta_1 Treat + \beta_2 Post + \tau(Treat \times Post) + \varepsilon$ | DiD-Regression |
| Gl. 10.8 | $\hat{\tau}_{RD} = \lim_{x \downarrow c} E[Y|X=x] - \lim_{x \uparrow c} E[Y|X=x]$ | RD-Schätzer |
| Gl. 10.9 | $\hat{\tau}_{RCT} = \bar{Y}_{treat} - \bar{Y}_{control}$ | RCT-Schätzer |
| Gl. 10.10 | $Var(\hat{\beta}) = \sigma^2(X'X)^{-1}$ | OLS-Varianz |