Tableau récapitulatif du modèle pour la fonction Analyser une réponse binaire pour un plan de criblage définitif

R carré de la somme des carrés d'écart

Le R2 de la somme des carrés d'écart est généralement considéré comme la proportion de la somme totale des carrés des écarts de la variable de réponse que le modèle explique.

Interprétation

Plus le R2 de la somme des carrés d'écart est élevé, plus le modèle est ajusté à vos données. Le R2 de la somme des carrés d'écart est toujours compris entre 0 et 100 %.

Le R2 de la somme des carrés d'écart augmente toujours lorsque vous ajoutez des termes à un modèle. Par exemple, le meilleur modèle à 5 termes aura toujours une valeur R2 au moins aussi élevée que celle du meilleur modèle à 4 termes. Par conséquent, le R2 de la somme des carrés d'écart est surtout utile pour comparer des modèles de même taille.

Les statistiques d'adéquation de l'ajustement ne sont qu'un des types de mesures permettant d'évaluer l'ajustement du modèle. Même si un modèle présente une valeur souhaitée, vous devez consulter les graphiques des valeurs résiduelles et les tests d'adéquation de l'ajustement pour évaluer l'ajustement du modèle aux données.

Vous pouvez utiliser une droite d'ajustement pour illustrer graphiquement différentes valeurs de R2 de la somme des carrés d'écart. Le premier diagramme illustre un modèle qui explique environ 96 % de la somme des carrés d'écart de la réponse. Le second diagramme illustre un modèle qui explique environ 60 % de la somme des carrés d'écart de la réponse. Plus un modèle explique la somme des carrés d'écart, plus les points de données sont proches de la courbe. En théorie, si un modèle pouvait expliquer 100 % de la somme des carrés d'écart, les valeurs ajustées seraient toujours égales aux valeurs observées et tous les points de données se situeraient sur la courbe.

La disposition des données a un impact sur le R2 de la somme des carrés d'écart. Le R2 de la somme des carrés d'écart est généralement plus élevé pour des données avec plusieurs essais par ligne que pour des données avec un seul essai par ligne. Les R2 de la somme des carrés d'écart sont comparables uniquement entre des modèles qui utilisent le même format de données. Pour plus d'informations, reportez-vous à la rubrique Influence du format des données sur l'ajustement dans la régression logistique binaire.

R carré (ajust) de la somme des carrés d'écart

Le R2 ajusté de la somme des carrés d'écart est la proportion de la somme des carrés d'écart de la réponse qui est expliquée par le modèle, ajustée au nombre de prédicteurs du modèle par rapport au nombre d'observations.

Interprétation

Pour comparer des modèles n'ayant pas le même nombre de termes, utilisez le R2 ajusté de la somme des carrés d'écart. Celui-ci augmente toujours lorsque vous ajoutez un terme au modèle. Le R2 ajusté de la somme des carrés d'écart intègre le nombre de termes dans le modèle pour vous aider à choisir le modèle correct.

Par exemple, vous travaillez pour un fabricant de pommes chips qui étudie les facteurs influant sur le pourcentage de chips brisées. Vous obtenez les résultats suivants lorsque vous ajoutez les prédicteurs :
Etape % de pomme de terre Vitesse de refroidissement Température de cuisson R2 de la somme des carrés d'écart R2 ajusté de la somme des carrés d'écart Valeur de p
1 X     52 % 51 % 0,000
2 X X   63 % 62 % 0,000
3 X X X 65 % 62 % 0,000

La première étape génère un modèle de régression statistiquement significatif. La deuxième étape, qui ajoute la vitesse de refroidissement au modèle, augmente le R2 ajusté de la somme des carrés d'écart, ce qui indique que la vitesse de refroidissement améliore le modèle. La troisième étape, qui ajoute la température de cuisson au modèle, augmente le R2 de la somme des carrés d'écart, mais pas le R2 ajusté de la somme des carrés d'écart. Ces résultats indiquent que la température de cuisson n'améliore pas le modèle. Selon ces résultats, vous devriez supprimer la température de cuisson du modèle.

La disposition des données a une incidence sur le R2 ajusté de la somme des carrés d'écart. Pour les mêmes données, le R2 ajusté de la somme des carrés d'écart est généralement plus élevé pour des données avec plusieurs essais par ligne que pour des données avec un seul essai par ligne. Utilisez le R2 ajusté de la somme des carrés d'écart uniquement pour comparer l'ajustement des modèles ayant le même format de données. Pour plus d'informations, reportez-vous à Influence du format des données sur l'ajustement dans la régression logistique binaire.

AIC, AICc et BIC

Le critère d'information d'Akaike (AIC), le critère d'information d'Akaike corrigé (AICc) et le critère d'information bayésien (BIC) sont des mesures de la qualité relative d'un modèle qui rend compte de l'ajustement du modèle et du nombre de termes qu'il contient.

Interprétation

Utilisez les valeurs AIC, AICc et BIC pour comparer différents modèles. Les valeurs faibles sont les valeurs souhaitables. Cependant, le modèle ayant les valeurs les plus faibles pour un ensemble de prédicteurs n'est pas forcément bien ajusté aux données. Vous devez aussi utiliser les tests et les graphiques des valeurs résiduelles pour évaluer l'ajustement du modèle aux données.
AICc et AIC
Lorsque l'effectif d'échantillon est relativement faible par rapport au nombre de paramètres dans le modèle, l'AICc offre de meilleurs résultats que l'AIC. L'AICc est une meilleure option car, avec des échantillons relativement petits, l'AIC tend à être faible pour les modèles qui incluent trop de paramètres. Généralement, ces deux statistiques donnent des résultats similaires quand l'effectif d'échantillon est suffisamment élevé par rapport au nombre de paramètres dans le modèle.
AICc et BIC
Les valeurs AICc et BIC évaluent toutes deux la probabilité du modèle, puis ajoutent une pénalité pour l'ajout de termes. Cette pénalité réduit la tendance du système à surajuster le modèle aux données échantillons. Cette réduction permet généralement de produire un modèle qui fonctionne mieux.
De manière générale, quand le nombre de paramètres est relativement faible par rapport à l'effectif d'échantillon, une plus grande pénalité est appliquée à la valeur BIC qu'à la valeur AICc pour l'ajout de chaque paramètre. Dans ce cas, le modèle qui fournit la plus faible valeur BIC tend à être plus petit que celui qui fournit la plus faible valeur AICc.
Dans certains cas courants, par exemple dans les plans de criblage, le nombre de paramètres est généralement élevé par rapport à l'effectif d'échantillon. Dans ce cas, le modèle qui fournit la plus faible valeur AICc tend à être plus petit que celui qui fournit la plus faible valeur BIC. Par exemple, pour un plan de criblage définitif à 13 essais, le modèle qui fournit la plus faible valeur AICc tend à être plus petit que celui qui fournit la plus faible valeur BIC parmi l'ensemble des modèles à 6 paramètres ou plus.
Pour plus d'informations sur les valeurs AICc et BIC, consultez l'article de Burnham et Anderson.1
1 Burnham, K. P., & Anderson, D. R. (2004). Multimodel inference: Understanding AIC and BIC in model selection. Sociological Methods & Research, 33(2), 261-304. doi:10.1177/0049124104268644
    En utilisant ce site, vous acceptez l'utilisation de cookies à des fins d'analyse et de personnalisation du contenu.  Lisez notre politique