Para estimar los coeficientes de un modelo, el análisis utiliza un algoritmo de mínimos cuadrados reponderados iterativamente. El algoritmo intenta maximizar la verosimilitud logarítmica del modelo. Esta maximización es equivalente a minimizar la desviación del modelo. El algoritmo intenta maximizar la verosimilitud logarítmica refinando las estimaciones de los coeficientes utilizando el método de mínimos cuadrados reponderados. La desviación de un modelo es el doble de la discrepancia entre la verosimilitud logarítmica del modelo saturado y la verosimilitud logarítmica del modelo. El modelo saturado es aquel con un parámetro para cada observación, que tiene el mayor valor posible de verosimilitud logarítmica.
La tabla muestra la desviación del modelo en cada iteración. Normalmente, un aumento en la verosimilitud logarítmica del modelo de un paso a otro indica una mejora en las estimaciones de los coeficientes del modelo. Un aumento en la verosimilitud logarítmica equivale a una disminución de la desvianza.
El algoritmo utiliza la diferencia entre desviaciones en pasos sucesivos para decidir cuándo las estimaciones de los coeficientes son suficientemente buenas. Cuando la diferencia entre las desviaciones es menor que un umbral, el algoritmo se detiene. Por defecto, el umbral es 1E−8. Utiliza comandos de sesión para el software estadístico Minitab para ajustar el umbral.
A veces, las estimaciones no convergen tras el número máximo de iteraciones en las especificaciones del análisis. El fallo en la convergencia suele deberse a alguna configuración específica de los datos. Por ejemplo, en la regresión logística binaria se sabe que se sabe una separación completa de los datos para impedir que el algoritmo de ajuste converga por completo, independientemente del número máximo de iteraciones.