Die Tabelle Modellzusammenfassung enthält zwei Zeilen. Eine Zeile ist für eine Zeile für ein Modell ohne Begriffe. Die andere Zeile ist für ein Modell mit den Begriffen in der Analyse. Vergleichen Sie die beiden Zeilen, um die Verbesserung des Modells mit Begriffen gegenüber dem Modell ohne Begriffe zu bewerten. Verwenden Sie die Zeile für das Modell mit Begriffen, um die Leistung des Modells zu beschreiben. Verwenden Sie AIC, AICc und BIC, um Modelle mit unterschiedlichen Begriffen von einer Analyse zur anderen zu vergleichen.
Verwenden Sie die Log-Likelihood, um zwei Modelle zu vergleichen, bei denen zum Schätzen der Koeffizienten dieselben Daten genutzt werden. Da die Werte negativ sind, ist das Modell umso besser an die Daten angepasst, je näher der Wert an 0 liegt.
Die Log-Likelihood kann nicht abnehmen, wenn Sie einem Modell Terme hinzufügen. Beispielsweise hat ein Modell mit Begriffen eine höhere Log-Wahrscheinlichkeit als ein Modell ohne Begriffe. Ein größerer Unterschied in den Log-Likelihood-Werten zwischen den beiden Modellen weist auf einen größeren Beitrag des Modells zur Anpassung der Daten hin.
Wenn Sie zwei Modelle mit Begriffen vergleichen, ist der Leistungsunterschied am deutlichsten, wenn die Modelle die gleiche Anzahl von Begriffen haben. Verwenden Sie die p-Werte für die Begriffe in der Tabelle Koeffizienten, um zu entscheiden, welche Begriffe in das Modell aufgenommen werden sollen.
R2 ist der Prozentsatz der Streuung in der Antwortvariablen, der durch das Modell erklärt wird.
Verwenden Sie das R2, um zu bestimmen, wie gut das Modell für Ihre Daten passend ist. Je höher das R2, desto besser ist das Modell für Ihre Daten passend. R2 liegt immer zwischen 0 % und 100 %.
Akaikes Informationskriterium (AIC), Akaikes korrigiertes Informationskriterium (AICc) und das Bayessche Informationskriterium (BIC) sind Maße der relativen Qualität eines Modells, bei denen sowohl die Anpassung als auch die Anzahl der Terme im Modell berücksichtigt werden.