Das Akaike-Informationskriterium (AIC) ist eine Metrik, die verwendet wird, um die Anpassung verschiedener Regressionsmodelle zu vergleichen.
Es wird berechnet als:
AIC = 2K – 2ln (L)
wo:
- K: Die Anzahl der Modellparameter …
Multikollinearität in der Regressionsanalyse tritt auf, wenn zwei oder mehr erklärende Variablen stark miteinander korreliert sind, sodass sie keine eindeutigen oder unabhängigen Informationen im Regressionsmodell liefern. Wenn der Korrelationsgrad zwischen den Variablen hoch genug ist, kann dies zu Problemen bei der Anpassung und Interpretation des Regressionsmodells führen.
Glücklicherweise ist es möglich, Multikollinearität mithilfe einer als Varianzinflationsfaktor (VIF) bekannten Metrik zu erkennen, die die Korrelation und Stärke der Korrelation zwischen den erklärenden Variablen in einem Regressionsmodell misst.
Dieses Tutorial erklärt, wie man VIF in Excel berechnet.
Für dieses Beispiel führen wir eine multiple lineare Regression mit dem folgenden Datensatz durch, der die Attribute von 10 Basketballspielern beschreibt. Wir werden ein Regressionsmodell anpassen, das Rating als Antwortvariable und Punkte, Assists und Rebounds als erklärende Variablen verwendet. Dann identifizieren wir die VIF-Werte für jede erklärende Variable.
Schritt 1: Führen Sie eine multiple lineare Regression durch.
Gehen Sie im oberen Menüband zur Registerkarte Daten und klicken Sie auf Datenanalyse. Wenn diese Option nicht angezeigt wird, müssen Sie zuerst das kostenlose Analysis ToolPak installieren.
Sobald Sie auf Datenanalyse klicken, öffnet sich ein neues Fenster. Wählen Sie Regression und klicken Sie auf OK.
Füllen Sie die erforderlichen Arrays für die Antwortvariablen und die erklärenden Variablen aus und klicken Sie dann auf OK.
Dies erzeugt die folgende Ausgabe:
Schritt 2: Berechnen Sie den VIF für jede erklärende Variable.
Als nächstes können wir den VIF für jede der drei erklärenden Variablen berechnen, indem wir individuelle Regressionen mit einer erklärenden Variablen als Antwortvariable und den anderen beiden als erklärenden Variablen durchführen.
Beispielsweise können wir den VIF für die variablen Punkte berechnen, indem wir eine multiple lineare Regression mit Punkten als Antwortvariable und Assists und Rebounds als erklärende Variablen durchführen.
Dies erzeugt die folgende Ausgabe:
Der VIF für Punkte wird berechnet als 1 / (1 – R Square) = 1 / (1 – .433099) = 1,76.
Wir können diesen Vorgang dann für die anderen beiden Variablen Assists und Rebounds wiederholen.
Es stellt sich heraus, dass die VIF für die drei erklärenden Variablen wie folgt sind:
Rebounds: 1,76
Supports: 1,96
Rebounds: 1.18
Der Wert für VIF beginnt bei 1 und hat keine Obergrenze. Eine allgemeine Faustregel für die Interpretation von VIFs lautet wie folgt:
Da jeder der VIF-Werte für die erklärenden Variablen in unserem Regressionsmodell nahe 1 liegt, ist Multikollinearität in unserem Beispiel kein Problem.
Das Akaike-Informationskriterium (AIC) ist eine Metrik, die verwendet wird, um die Anpassung verschiedener Regressionsmodelle zu vergleichen.
Es wird berechnet als:
AIC = 2K – 2ln (L)
wo:
Die logistische Regression ist eine statistische Methode, die wir verwenden, um ein Regressionsmodell anzupassen, wenn die Antwortvariable binär ist.
Um zu beurteilen, wie gut ein logistisches Regressionsmodell zu einem Datensatz …