Unsere Abi-Tour ab März 2025 – Nachhilfe fürs Mathe-Abi

Für Psychologie-Studenten im Master: Statistik-Nachhilfe für die Freie Universität Berlin

Dir fällt Statistik schwer und du hast Sorge, dass du deine Klausur nicht gut bestehst? Ich helfe dir! Ich kenne die Besonderheiten und Schwierigkeiten der Klausuren und weiß, was nötig ist, um sie sicher zu bestehen.

2-stündige Seminare

Maximal 5 Lernende

Flexibel und individuell

Hallo, Ich bin Tilo 👋️

Mein Ziel ist es, dass es schnell klick macht und du Statistik wirklich verstehst. Ich zeige dir genau das, was dein Dozent von dir erwartet, damit du deine Prüfung sicher bestehst!

„Ich hatte Statistik-Nachhilfe bei Ludi für meine Bachelorarbeit und kann es nur wärmstens empfehlen. Ludi hat mir anfangs bei der Auswahl der geeigneten Verfahren für meine Hypothesen geholfen und mich geduldig bei der Auswertung mit SPSS unterstützt. Dank seiner Hilfe verlief die Auswertung nicht nur schnell, sondern war für mich auch gut verständlich. Ich kann es nur jedem empfehlen 🥰“
— I. , MSB Bachelor 2024

„Ich hatte nun ein paar Stunden bei Ludi & kann ihn nur wärmstens empfehlen! Er hat eine sehr geduldige, sympathische Art & mir mit seiner Kompetenz stark weitergeholfen Dankeschön!“
— Lisa-Marie H., HS Aalen Bachelor 2024

„Ludwig war eine wertvolle Hilfe bei meiner Bachelorarbeit! Die Terminvereinbarung war sehr flexibel und unkompliziert, und seine Erklärungen waren klar und verständlich. Ich fühlte mich rundum gut betreut. Sehr empfehlenswert!“
— N. , FOM Bachelor 2024

„Ludi hat mir sehr weiterhelfen können! Mit seiner lockeren und netten Art hatte ich bei meiner Statistik-Nachhilfe eine angenehme und produktive Zeit :)“
— Luisa, PHB Master 2024

Sicher durch deine Statistik-Klausur

Genau für deine Uni. Genau für deine Dozent*in. Genau für deine Klausur.

Multivariate Datenanalyse

Klausurvorbereitung

Die Inhalte der Vorlesungen bauen auf die Themen von Statistik I und II aus dem Bachelorstudium auf. Da bei den meisten Student*innen dieses Wissen wieder ein bisschen in den Hintergrund gerutscht ist, lassen wir uns ganz besonders für die ersten Themen soviel Zeit, dass ihr ein tiefes Verständnis für die Logik der Regression aufbaut und genau versteht , warum wann welche Interpretation angebracht ist.

Sehr ausführlich erarbeiten wir uns die R-Outputs, so, dass du wirklich jedes Wort und jede Zahl verstehst und merkst, dass diesen Output interpretieren dem gleichkommt, als würdest du eine Geschichte mit vielen Details erzählen.

Wir erarbeiten uns die Grundlogik am Sonderfall der multiplen Regression mit dem Sonderfall: 2 Prädiktoren, metrische Prädiktoren und metrisches Kriterium, ohne Interaktion, linearer Zusammenhang , unabhängige Residuen. Du wirst dann verstehen, dass jedes weitere Modell als eine Erweiterung dieses Sonderfalles verstanden werden kann und an einem dieser Punkte anknüpft. Und so wird der Stoff, obwohl immer komplexer werdend für dich immer eine Mischung von Wiederholung, Erweiterung und verständlicher Vertiefung sein und dir nicht schwer fallen.

Im zweiten Teil des Kurses lernst du mit uns Umgang und Interpretation der hierarchischen Modelle. Aus der Perspektive von praktischen Forschungsfragen erarbeiten wir uns eine Übersicht der 5 Modelle, die du kennen musst. Viel Zeit lassen wir uns, bis ihr den zuerst unübersichtlichen „Buchstaben- und Zahlensalat“ geschafft habt. Wenn ihr das geknackt habt, dann schafft ihr den Rest mit Links :).

Themenübersicht

  • Bivariate Regression
    Korrelation, Schätzung der Regressionskoeffizienten, t- und F-Test, Determinationskoeffizient, Zentrierung, Standardisierung
  • Multiple Regression I
    Additives Modell, Moderatoreffekt, Moderatorvariable, Modellvergleich, Nützlichkeit eines Prädiktors
  • Multiple Regression II
    Multikollinearität, Redundanz und Suppression, visuelle Modelldiagnostik, non-lineare Regression
  • Ancova
    Dummykodierung, Interpretation mit kategorialen Prädiktor, Kovariate, generalisierte Ancova
  • logistische Regression bedingte Wahrscheinlichkeit, logit link Inverse, Odds Ratio, multiple logistische Regression mit Interaktion und kategorialem Prädiktor, Wald Test, maximum likelihood Methode
  • Clusteranlalyse (nicht klausurrelevant)
  • Hierarchische Modelle
    Intraklassenkorrelation, Intercept only, Random slopes, Kontextmodell, Cross-Level-Interaction, Modellvergleiche, Längsschnittmodelle, Modellvergleiche, Pseudo-R²
  • Klausurtraining

Evaluationsforschung

Klausurvorbereitung

In der Klausur bekommst du als die beiden größten Aufgaben jeweils eine zur Ancova und eine Aufgabe zum Matchen. Außerdem musst du „per Hand“ einen geschätzten kausalen Effekt berechnen. Als kleine Aufgaben bekommst du jeweils zu den PS- Methoden, zur Regression discontinuity und zum Non compliance-Ansatz eine Teilaufgabe mit einem Output.

Die Ancova war schon Thema von Statistik 1, deshalb setzen wir genau da an. Das ist auch die technisch anspruchvollste Aufgabe. Wir lernen das Aufstellen der Effektfunktion aus den verschieden Outputs zur Ancova kennen, schätzen damit die kausalen Effekte und interpretieren diese. Alle späteren Interpretationen bauen auf diesen auf. Hauptschwerpunkt liegt auf dem sehr komplexen Output zum effectLite()- Befehl.

Das Schlimmste ist geschafft! Wir gehen in die Theorie (Vorlesung 3,4) und Klären das Problem von Selektionseffekten, die Idee der Adjustierung der Kovariaten und das Konzept der unverfälschten Schätzung von kausalen Effekten. Das theoretische Wissen wenden wir beim Matchen an und bei den PS – Methoden an.

Nach den PS – Methoden gehen gibt es die beiden Themen der discontinuity regression und des non compliance- Ansatz, die dir nicht mehr schwerfallen werden, sie bauen auf den vorherigen Methoden auf und sind jeweils für sich logisch und übersichtlich, also gute Themen für die Klausur.

Wenn du die Vorlesungen von Frau Professor Pohl anschaust, wirst du über alle Vorlesungen hinweg verschiedene Formeln und Verfahren finden, wie du kausale Effekte „per Hand“ schätzen kannst. Du bekommst bei uns einen Überblick über diese Verfahren und lernst, wann du sie auf einfache Weise anwenden kannst.

Themenübersicht

  • Evaluation Einführung
    Korrelation, Schätzung der Regressionskoeffizienten, t- und F-Test, Determinationskoeffizient, Zentrierung, Standardisierung
  • Kausale Effekte und Treatmenteffekte
    Definition und Berechnung kausaler Effekte, Wahrscheinlichkeit der Treatmentzuweisung, Schätzung der Effekte aus empirischen Daten
  • Ancova
    Idee Ancova, traditionelle Ancova, generalisierte Ancova, bedingte Regressionsgleichungen, Effektschätzung, lm()- Befehl, effectLite()- Befehl
  • Kovariatenmatching
    Balancieren als Möglichkeit der Kovariatenkontrolle, machit()- Befehl, Mahalanobis Distanz,exaktes Matchen, SMD und Varianzenverhältnis, Verteilungsfunktionen, ATE of matched sample
  • PS – Methoden
    logistische Regression, PS Schätzung, PS Matching, overlap, Respezifikation, Ps- Stratifizierung, PS- Gewichtung, PS – Regression
  • Praktische Überlegungen
    Methodenvergleich, Methodenkombination, Sensitivitätsanalyse, Wahl der Kovariaten, Messfehler,
  • Diskontinuierliche Regression
    forcing covariate, Schätzung vom LATE, Modellspezifikationen, optimaler Tolleranzbereich, RDestimate()- Befehl, Interpretationsvarianten
  • Non Compliance
    As-treaded- Analyse, Per-Protocol- Analyse, Intention-to-Treat-Analyse, IV- Ansatz, Effektschätzung mit Intrumental-Variable