Warum wird eine einfache lineare Regression berechnet? - Für die Voraussage über die Ausprägung von Variablen. Um den Zusammenhang zu sehen. Damit man auch die Ursache-Wirkung-Beziehung abbilden kann, Welche Informationen werden für eine Gerade benötigt? - Zu r hinreichenden Bestimmung benötigt man die Lage und die Steigung einer Geraden., Welche Maßzahl der Regressionsgleichung bildet den Kausalzusammenhang ab? - Der Steigungskoeffizient., Finden sie ein Beispiel, das gut mit einer einfachen linearen Regression untersucht werden könnte. - Hat die Körpergröße einen Einfluss auf das Gewicht einer Person, Finden sie ein Beispiel, das gut mit einer multiplen linearen Regression untersucht werden könnte. - Haben die Körpergröße und das Geschlecht einen Einfluss auf das Gewicht einer Person?, Werden bei einer multiplen linearen Regression mehrere unabhängige Variablen aufgenommen, interessiert man sich für den Vergleich der Einzeleinflüsse. Warum ist es hierzu keine gute Idee, die Regressionskoeffizienten zu betrachten? - Regressionskoeffizienten sind abhängig von ihren Einheiten, sie sind also nicht vergleichbar., Was gibt der Determinationskoeffizient R2 an? - Der Determinationskoeffizient R2 gibt den Anteil der erklärten Varianz an der Gesamtvarianz an; ist somit das Gütemaß der linearen Regression., Worin unterscheidet sich der Determinationskoeffizient R2 vom korrigierten Koeffizient R2? - Korrigiert wird um die Anzahl der unabhängigen Variablen und den Stichprobenumfang., Warum können extreme „Ausreißer“ ein Problem der linearen Regression sein? - Sie können eventuell die Geradengleichung bzw. die Parameter verzerren., Ein recht häufig angewandtes Verfahren der multivariaten Statistik ist die multiple lineare Regression. Welche Arten von Variablen können als unabhängige Prädiktoren in ein solches Modell aufgenommen werden? - Skalenniveau metrisch oder dichotom-kategorial. Variablen müssen zumindest grob linear zusammenhängen (sonst macht die gewählte mathematische Funktion keinen Sinn), Wozu dienen bei diesem Verfahren die sogenannten Beta-Gewichte bzw. Beta- Koeffizienten? - Beta-Koeffizienten sind Regressionskoeffizienten. Sie geben den anteiligen (relativen) Einfluss jeder unabhängigen Variable zur abhängigen Variablen im Modell wieder (erlauben Vorhersage), deswegen interpretiert man sie immer, Wie kann überprüft werden, wie gut ein erstelltes Modell ist? - mit Multiplem Korrelationskoeffizienten (R). Dieser kann interpretiert werden wie der einfache Korrelationskoeffizient von Pearson, Was ist mit dem linearen Zusammenhang gemeint? - Wenn beide Variablen gleichmäßig und mit einer konstanten Rate steigen oder fallen (beide Variablen verändern sich proportional). Jede Veränderung von y resultiert aus Veränderung von x. Kann man im Koordinatensystem gut mit Linie darstellen - der Graph verläuft dann wie ein gerader Strich und nicht gebogen , Woran lässt sich erkennen, wie stark der Zusammenhang ist? - Dafür wird ein standardisiertes Zusammenhangsmaß benötigt, z.B. Korrelationskoeffizient Pearson’s r (bester zum interpretieren!) oder Cohen’s d (am besten in r umwandeln), Woran erkennt man einen perfekten linearen Zusammenhang? - alle Punkte liegen auf einer Gerade, Was bedeutete Multikollinearität? - Wechselseitige Beeinflussung/ der Zusammenhang mehrerer unabhängiger Variablen bei der (multiplen) Regressionsanalyse. Wenn zwei oder mehr Prädiktoren miteinander korrelieren. , Was ist der Unterschied zwischen r (Korrelationskoeffizient) und R-Quadrat (Determinationskoeffizient)? - NUR in der einfachen linearen Regression gilt die Beziehung r = R, also r-Quadrat = R-Quadrat. R-Quadrat ist das Gütemaß der linearen Regression: Welcher Anteil der Gesamtvarianz kann durch das Modell erklärt werden?, Was sagt ein R-Quadrat Wert von 0,36 aus? - 36% (also mehr als 1/3) können durch das Modell erklärt werden, Eine Lehrende interessiert sich für die Frage, wie a) der Besuch der Seminare und b) die Vorbereitungszeit sich auf das Bestehen der Prüfung ausüben. Mit welchem Verfahren könnte man dies untersuchen? - mit der linearen Regression → mit der einen Variabel, kann die Andere vorhergesagt werden, Angenommen, das Modell erzielt ein korrigiertes R(Quadrat) von 0.32. Was bedeutet dieser Wert ? - 32% (also mehr als 1/3) können durch das Modell erklärt werden, Was gibt bei einem SPSS-Output die „Kollinearitätsstatistik“ an? - prüft ob Prädiktoren korrelieren (Multikollinearität)- je näher an 1, desto besser (aber ganz ohne Multikollinearität geht es nicht), Was sagt Residuenstatistik in einem SPSS-Output aus? - Extremwerte und deren Einfluss, Womit können Extremwerte interpretiert werden? - Cook-Distance - sollte kleiner als 1 sein, dann ist alles ok (ExtremWerte), Was sagt das Histogramm in einem SPSS-Output aus? - ob die Residuen normalverteilt sind, Was überprüft man mit Streudiagramm in einem SPSS-Output? - Linearität (bananenförmig ist schlecht, es muss durcheinander sein), Wozu gibt es das korrigiertes R-Quadrat? - weil normales R-Quadrat Zusammenhänge auch überschätzt (durch Aufnahme zu vieler unabhängiger Variablen), Was verändert sich in einem Regressionmodell, wenn man mehrere unabhängige Variablen hat? - es wird komplexer und fehlerhafter!, Wie lässt sich die Modelgüte bestimmen? - mit dem korrigierten R-Quadrat, Wie lässt sich die Signifikanz des Modells prüfen? - anhand des F-Tests, Wie lassen sich die Einzeleinflüsse bestimmen? - Regressionskoeffizienten und Beta-Gewichte zum Vergleich der Einzeleinflüsse, Wie lässt sich die Signifikanz der Einzeleinflüsse überprüfen? - T-Verteilung, Was sind die Modellannahmen/ -voraussetzungen der linearen Regression? - Autokorrelation: Durbin-Watson sollte zwischen 1 und 3 liegen, Multikollinearität: Toleranz größer 0,1 und VIF kleiner 10; Normalverteilung der Residuen: am besten visuelle Prüfung; Keine einflussreichen Extremwerte: Cook-Distance kleiner 1; Linearität und Homoskedastizität: visuelle Prüfung (keine Trichter- und Sichelform), Unterschied linearer und multiple Regressionsanlyse - multiple Regressionsanalyse hat zum Ziel, den Einfluss mehrerer unabhängiger Variablen X auf eine abhängige Variable Y zu bestimmen. Sie stellt also eine Erweiterung der linearen Regressionsanalyse dar, da sie nicht nur eine, sondern beliebig viele unabhängige Variablen einbeziehen kann., Was ist Autokorrelation? - Die Korrelation mit sich selbst. Ist gegeben, wenn Beobachtungen in einer Zeitreihe nicht unabhängig voneinander sind. Passiert besonders dann, wenn man versucht Zeitverläufe (Messwiederholungen) in lineares Regressionsmodell dazustellen. Liegt vor, wenn Teil einer Zeitreihe mit sich selbst zu einem anderen Zeitpunkt korreliert (dieser Zeitpunkt kann sowohl in der Vergangenheit, als auch der Zukunft liegen). Man könnte Autokorrelation deshalb auch „verzögerte Korrelation“ nennen, Wie kann man Autokorrelation bei SPSS ausschließen? - unter Durbin-Watson. Nimmt Werte von 0-4 an; alles, was zwischen 1-3 liegt, ist in Ordnung, Was ist Homoskedastizität? - Bedeutet, dass die Varianz der Residuen in einer Regressionsanalyse für alle Werte des Prädiktors konstant ist = Streuung um die Gerade soll homogen sein - heißt, die Abweichungen der vorhergesagten Werte von den wahren Werten sind in etwa immer gleich groß. unabhängig wie hoch oder niedrig der Wert des Prädiktors ist . Um Regressionsanalyse sinnvoll interpretieren zu können, ist es wichtig, dass Homoskedastizität vorliegt., Was ist Heteroskedastizität? - Punkte haben einen unregelmäßigen großen Abstand zur Geraden, Was bedeutet "Normalverteilung der Residuen"? - Residuen sollten weder systematisch hohe oder niedrige Werte annehmen und sich gleichmäßig um den Wert Null und über die gesamte Spannweite der unabhänigen Variable verteilen - wenn wir ein Regressionsmodell verwenden, sollten die Residuen auch normalverteilt sein, Berechnet wird eine lineare Regression von Stress (abhängige Variable) auf Empowerment (unabhängige Variable). Welches Skalenniveau müssen die unabhängige und die abhängige Variable aufweisen? - Die abhängige Variable muss metrisch sein, die unabhängige entweder metrisch oder dichotom., Berechnet wird eine lineare Regression von Stress (abhängige Variable) auf Empowerment (unabhängige Variable). Die Auswertung führt zur Regressionsgleichung: Y = 14 – 0.2 * X. Interpretieren sie die Koeffizienten der Gleichung. - 14 als Konstante ist derjenige Wert, den Y annimmt, wenn x (Empowerment) = 0 ist. Graphisch entspricht dies dem Schnittpunkt der Geraden mit der Y-Achse. – 0,2 als Steigung gibt die Variation der abhängigen Variablen (Stress) an, wenn sich die unabhängige Variable um eine Einheit verändert. Für jede Einheit Empowerment sinkt also Stress um -0,2., Berechnet wird eine lineare Regression von Stress (abhängige Variable) auf Empowerment (unabhängige Variable). Die Auswertung führt zur Regressionsgleichung: Y = 14 – 0.2 * X. - 10., Gegeben sei die Regressionsgleichung Y = 9 + 0.3*x1 + 12*x2. Gemessen wird mit y die Wahrscheinlichkeit in Prozent, mindestens einmal im Leben eine beliebige psychiatrische Erkrankung zu erleiden. X1 ist das Lebensalter in Jahren, X2 nimmt den Wert 1 an, wenn ein Elternteil bereits eine psychiatrische Erkrankung hatte und 0 für alle anderen. Interpretieren sie die beiden Steigungskoeffizienten. - Steigt das Lebensalter um eine Einheit, steigt die Wahrscheinlichkeit der Erkrankung um 0.3 Prozentpunkte. Ist ein Elternteil erkrankt, steigt die Wahrscheinlichkeit um 12 Prozentpunkte., Gegeben sei die Regressionsgleichung Y = 9 + 0.3*x1 + 12*x2. Gemessen wird mit y die Wahrscheinlichkeit in Prozent, mindestens einmal im Leben eine beliebige psychiatrische Erkrankung zu erleiden. X1 ist das Lebensalter in Jahren, X2 nimmt den Wert 1 an, wenn ein Elternteil bereits eine psychiatrische Erkrankung hatte und 0 für alle anderen. Interpretieren sie die Konstante 9. - 9% beträgt die Wahrscheinlichkeit, erkrankt zu sein oder gewesen zu sein, für einen Menschen mit 0 Jahren und ohne vorerkranktes Elternteil., Gegeben sei die Regressionsgleichung Y = 9 + 0.3*x1 + 12*x2. Gemessen wird mit y die Wahrscheinlichkeit in Prozent, mindestens einmal im Leben eine beliebige psychiatrische Erkrankung zu erleiden. X1 ist das Lebensalter in Jahren, X2 nimmt den Wert 1 an, wenn ein Elternteil bereits eine psychiatrische Erkrankung hatte und 0 für alle anderen. Welche Wahrscheinlichkeit schätzt das Modell für einen 50 – jährigen Menschen, dessen Mutter an einer Depression litt? - rund 38 %., Gegeben sei die Regressionsgleichung Y = 9 + 0.3*x1 + 12*x2. Gemessen wird mit y die Wahrscheinlichkeit in Prozent, mindestens einmal im Leben eine beliebige psychiatrische Erkrankung zu erleiden. X1 ist das Lebensalter in Jahren, X2 nimmt den Wert 1 an, wenn ein Elternteil bereits eine psychiatrische Erkrankung hatte und 0 für alle anderen. Angenommen, das Modell erzielt ein korrigiertes R2 von 0.32. Was bedeutet dieser Wert? - Dies bedeutet, dass das Regressionsmodell bereinigt um den Stichprobenumfang und die Anzahl der unabhängigen Variablen 32% der Wahrscheinlichkeit erklärt.,
0%
Lineare Regression
Share
Share
Share
by
Spiele
Edit Content
Print
Embed
More
Assignments
Leaderboard
Flash cards
is an open-ended template. It does not generate scores for a leaderboard.
Log in required
Visual style
Fonts
Subscription required
Options
Switch template
Show all
More formats will appear as you play the activity.
Open results
Copy link
QR code
Delete
Continue editing:
?