Tabelle mit der Zusammenfassung des Modells für Cox-Modell nur mit festen Prädiktoren anpassen

Hier finden Sie Definitionen und Anleitungen zur Interpretation für alle Statistiken in der Tabelle mit der Zusammenfassung des Modells.

Die Tabelle Modellzusammenfassung enthält zwei Zeilen. Eine Zeile ist für eine Zeile für ein Modell ohne Begriffe. Die andere Zeile ist für ein Modell mit den Begriffen in der Analyse. Vergleichen Sie die beiden Zeilen, um die Verbesserung des Modells mit Begriffen gegenüber dem Modell ohne Begriffe zu bewerten. Verwenden Sie die Zeile für das Modell mit Begriffen, um die Leistung des Modells zu beschreiben. Verwenden Sie AIC, AICc und BIC, um Modelle mit unterschiedlichen Begriffen von einer Analyse zur anderen zu vergleichen.

Log-Likelihood

Verwenden Sie die Log-Likelihood, um zwei Modelle zu vergleichen, bei denen zum Schätzen der Koeffizienten dieselben Daten genutzt werden. Da die Werte negativ sind, ist das Modell umso besser an die Daten angepasst, je näher der Wert an 0 liegt.

Die Log-Likelihood kann nicht abnehmen, wenn Sie einem Modell Terme hinzufügen. Beispielsweise hat ein Modell mit Begriffen eine höhere Log-Wahrscheinlichkeit als ein Modell ohne Begriffe. Ein größerer Unterschied in den Log-Likelihood-Werten zwischen den beiden Modellen weist auf einen größeren Beitrag des Modells zur Anpassung der Daten hin.

Wenn Sie zwei Modelle mit Begriffen vergleichen, ist der Leistungsunterschied am deutlichsten, wenn die Modelle die gleiche Anzahl von Begriffen haben. Verwenden Sie die p-Werte für die Begriffe in der Tabelle Koeffizienten, um zu entscheiden, welche Begriffe in das Modell aufgenommen werden sollen.

R-Qd

R2 ist der Prozentsatz der Streuung in der Antwortvariablen, der durch das Modell erklärt wird.

Interpretation

Verwenden Sie das R2, um zu bestimmen, wie gut das Modell für Ihre Daten passend ist. Je höher das R2, desto besser ist das Modell für Ihre Daten passend. R2 liegt immer zwischen 0 % und 100 %.

Beachten Sie beim Interpretieren des R2-Werts Folgendes:
  • Der Wert von R2 nimmt beim Einbinden zusätzlicher Prädiktoren in das Modell stets zu. Das beste Modell mit fünf Prädiktoren weist beispielsweise immer ein R2 auf, das mindestens so hoch wie das des besten Modells mit vier Prädiktoren ist. Daher ist R2 am nützlichsten, wenn Sie Modelle derselben Größe vergleichen.
  • Kleine Stichproben ermöglichen keinen genauen Schätzwert für die Stärke der Beziehung zwischen der Antwortvariablen und den Prädiktoren. Wenn Sie beispielsweise R2 genauer benötigen, sollten Sie eine größere Stichprobe verwenden.
  • Statistiken für die Güte der Anpassung sind nur eines der Maße für die Güte der Anpassung des Modells an die Daten. Selbst wenn ein Modell einen erwünschten Wert aufweist, sollten Sie die Residuendiagramme untersuchen, um sich zu vergewissern, dass das Modell die Modellannahmen erfüllt.

AIC, AICc und BIC

Akaikes Informationskriterium (AIC), Akaikes korrigiertes Informationskriterium (AICc) und das Bayessche Informationskriterium (BIC) sind Maße der relativen Qualität eines Modells, bei denen sowohl die Anpassung als auch die Anzahl der Terme im Modell berücksichtigt werden.

Interpretation

Anhand des AIC, des AICc und des BIC können Sie verschiedene Modelle vergleichen. Erwünscht sind kleinere Werte. Das Modell mit dem kleinsten Wert für eine Gruppe von Prädiktoren ist jedoch nicht zwangsläufig gut an die Daten angepasst. Verwenden Sie auch den Test und die Residuendiagramme, um zu beurteilen, wie gut das Modell an die Daten angepasst ist.
AICc und AIC
Wenn die Stichprobengröße im Verhältnis zur Anzahl der Parameter im Modell klein ist, erbringt das AICc eine bessere Leistung als das AIC. Das AICc erbringt deshalb eine bessere Leistung, weil das AIC bei kleinen Stichprobenumfängen für Modelle mit zu vielen Parametern tendenziell klein ist. In der Regel liefern die beiden Statistiken ähnliche Ergebnisse, wenn der Stichprobenumfang im Verhältnis zur Anzahl der Parameter im Modell hinreichend groß ist.
AICc und BIC
Sowohl das AICc als auch das BIC werten die Likelihood des Modells aus und wenden dann einen Abzug für das Hinzufügen von Termen zum Modell an. Durch den Abzug wird die Tendenz zur Überanpassung des Modells an die Stichprobendaten reduziert. Durch diese Reduzierung kann ein Modell zustande kommen, das insgesamt eine bessere Leistung erbringt.
Als Faustregel gilt: Wenn die Anzahl der Parameter im Verhältnis zum Stichprobenumfang klein ist, ist der Abzug für das Hinzufügen der einzelnen Parameter für das BIC größer als für das AICc. In diesen Fällen ist das Modell, bei dem das BIC minimiert wird, tendenziell kleiner als das Modell, bei dem das AICc minimiert wird.
In einigen gängigen Fällen, z. B. bei Screening-Versuchsplänen, ist die Anzahl der Parameter im Verhältnis zum Stichprobenumfang in der Regel groß. In diesen Fällen ist das Modell, bei dem AICc minimiert wird, tendenziell kleiner als das Modell, bei dem BIC minimiert wird. Bei einem definitiven Screening-Versuchsplan mit 13 Durchläufen ist beispielsweise in der Gruppe der Modelle mit 6 oder mehr Parametern das Modell, bei dem AICc minimiert wird, tendenziell kleiner als das Modell, bei dem BIC minimiert wird.
Weitere Informationen zu AICc und BIC finden Sie unter Burnham und Anderson.1
1 Burnham, K. P., & Anderson, D. R. (2004). Multimodel inference: Understanding AIC and BIC in model selection. Sociological Methods & Research, 33(2), 261-304. doi:10.1177/0049124104268644