Abweichung bei jedem iterativen Schritt für Binäres logistisches Modell anpassen, Binäre logistische Regression, und Poisson-Modell anpassen

Um die Koeffizienten eines Modells zu schätzen, verwendet die Analyse einen iterativ umgewichteten Kleinste-Quadrat-Algorithmus. Der Algorithmus versucht, die Log-Likelihood des Modells zu maximieren. Diese Maximierung entspricht der Minimierung der Abweichung des Modells. Der Algorithmus versucht, die Log-Likelihood zu maximieren, indem er die Schätzungen der Koeffizienten mit der umgewichteten Kleinste-Quadrat-Methode verfeinert. Die Abweichung eines Modells ist doppelt so groß wie die Diskrepanz zwischen der log-Likelihood des gesättigten Modells und der log-Likelihood des Modells. Das gesättigte Modell ist das Modell mit einem Parameter für jede Beobachtung, der den größtmöglichen logarithmischen Likelihood-Wert hat.

Die Tabelle zeigt die Abweichung des Modells bei jeder Iteration an. In der Regel weist eine Erhöhung der Log-Likelihood des Modells von Schritt zu Schritt eine Verbesserung der Schätzungen der Koeffizienten für das Modell hin. Eine Erhöhung der Log-Likelihood entspricht einer Abnahme der Abweichung.

Der Algorithmus nutzt die Differenz zwischen Abweichungen in aufeinanderfolgenden Schritten, um zu entscheiden, wann die Schätzungen der Koeffizienten ausreichen. Wenn der Unterschied zwischen den Abweichungen kleiner als eine Schwelle wird, stoppt der Algorithmus. Standardmäßig beträgt der Schwellenwert 1E−8. Verwenden Sie Sitzungsbefehle für Minitab Statistical Software, um die Schwelle anzupassen.

Manchmal konvergieren die Schätzungen nach der maximalen Anzahl von Iterationen in den Spezifikationen für die Analyse nicht. Das Ausbleiben der Konvergenz ist in der Regel auf eine bestimmte Konfiguration der Daten zurückzuführen. Beispielsweise ist in der binären logistischen Regression eine vollständige Trennung der Daten bekannt, um die vollständige Konvergenz des Fitting-Algorithmus unabhängig von der maximalen Anzahl der Iterationen zu verhindern.