Tableau Récapitulatif du modèle pour Ajuster le modèle de Cox avec des prédicteurs fixes uniquement

Obtenez des définitions et bénéficiez de conseils en matière d'interprétation pour chaque statistique dans le tableau de récapitulatif du modèle.

Le tableau Résumé du modèle comprend deux lignes. Une ligne est pour une ligne pour un modèle sans aucun terme. L’autre ligne concerne un modèle avec les termes de l’analyse. Comparez les deux lignes pour évaluer l’amélioration du modèle avec des termes par rapport au modèle sans termes. Utilisez la ligne du modèle avec des termes pour décrire les performances du modèle. Utilisez l’AIC, l’AICc et le BIC pour comparer des modèles avec différents termes d’une analyse à l’autre.

Log de vraisemblance

Utilisez le log de vraisemblance pour comparer deux modèles qui estiment les coefficients à l'aide des mêmes données. Les valeurs étant négatives, plus elles sont proches de zéro, plus le modèle s'ajuste aux données.

Le log de vraisemblance ne peut pas diminuer lorsque vous ajoutez des termes à un modèle. Par exemple, un modèle avec des termes a une probabilité logarithmique plus élevée qu’un modèle sans termes. Une plus grande différence dans les valeurs log-probabilité entre les deux modèles indique une plus grande contribution du modèle à l’ajustement des données.

Lorsque vous comparez deux modèles avec des termes, la différence de performances est plus claire si les modèles ont le même nombre de termes. Utilisez les valeurs de p des termes du tableau Coefficients pour décider quels termes inclure dans le modèle.

R carré

Le R2 est le pourcentage de variation dans la réponse qui est expliquée par le modèle.

Interprétation

Utilisez le R2 pour déterminer la qualité d'ajustement offert par le modèle. Plus la valeur de R2 est élevée, plus l'ajustement offert par le modèle est bon. Le R2 se situe toujours entre 0 % et 100 %.

Prenez en compte les problèmes suivants lors de l'interprétation de la valeur de R2 :
  • La valeur R2 augmente toujours lorsque vous ajoutez des prédicteurs à un modèle. Par exemple, le meilleur modèle à cinq prédicteurs aura toujours une valeur R2 au moins aussi élevée que celle du meilleur modèle à quatre prédicteurs. Par conséquent, R2 est surtout utile pour comparer des modèles de même taille.
  • Les petits échantillons ne fournissent pas d'estimation précise de la force de la relation entre la réponse et les prédicteurs. Par exemple, si vous avez besoin de R2 pour être plus précis, vous devez utiliser un échantillon plus grand.
  • Les statistiques d'adéquation de l'ajustement ne sont qu'un des types de mesures permettant d'évaluer l'ajustement du modèle. Même si un modèle a une valeur souhaitable, vous devez consulter les graphiques des valeurs résiduelles pour vérifier que le modèle respecte les hypothèses.

AIC, AICc et BIC

Le critère d'information d'Akaike (AIC), le critère d'information d'Akaike corrigé (AICc) et le critère d'information bayésien (BIC) sont des mesures de la qualité relative d'un modèle qui rend compte de l'ajustement du modèle et du nombre de termes qu'il contient.

Interprétation

Utilisez les valeurs AIC, AICc et BIC pour comparer différents modèles. Les valeurs faibles sont les valeurs souhaitables. Cependant, le modèle ayant les valeurs les plus faibles pour un ensemble de prédicteurs n'est pas forcément bien ajusté aux données. Vous devez aussi utiliser les diagrammes de test et les graphiques des valeurs résiduelles pour évaluer l'ajustement du modèle aux données.
AICc et AIC
Lorsque l'effectif d'échantillon est relativement faible par rapport au nombre de paramètres dans le modèle, l'AICc offre de meilleurs résultats que l'AIC. L'AICc est une meilleure option car, avec des échantillons relativement petits, l'AIC tend à être faible pour les modèles qui incluent trop de paramètres. Généralement, ces deux statistiques donnent des résultats similaires quand l'effectif d'échantillon est suffisamment élevé par rapport au nombre de paramètres dans le modèle.
AICc et BIC
Les valeurs AICc et BIC évaluent toutes deux la probabilité du modèle, puis ajoutent une pénalité pour l'ajout de termes. Cette pénalité réduit la tendance du système à surajuster le modèle aux données échantillons. Cette réduction permet généralement de produire un modèle qui fonctionne mieux.
De manière générale, quand le nombre de paramètres est relativement faible par rapport à l'effectif d'échantillon, une plus grande pénalité est appliquée à la valeur BIC qu'à la valeur AICc pour l'ajout de chaque paramètre. Dans ce cas, le modèle qui fournit la plus faible valeur BIC tend à être plus petit que celui qui fournit la plus faible valeur AICc.
Dans certains cas courants, par exemple dans les plans de criblage, le nombre de paramètres est généralement élevé par rapport à l'effectif d'échantillon. Dans ce cas, le modèle qui fournit la plus faible valeur AICc tend à être plus petit que celui qui fournit la plus faible valeur BIC. Par exemple, pour un plan de criblage définitif à 13 essais, le modèle qui fournit la plus faible valeur AICc tend à être plus petit que celui qui fournit la plus faible valeur BIC parmi l'ensemble des modèles à 6 paramètres ou plus.
Pour plus d’informations sur AICc et BIC, voir Burnham et Anderson.1
1 Burnham, K. P., & Anderson, D. R. (2004). Multimodel inference: Understanding AIC and BIC in model selection. Sociological Methods & Research, 33(2), 261-304. doi:10.1177/0049124104268644