Qu'est-ce que le Régression non linéaire ?

La régression non linéaire génère une équation permettant de décrire la relation non linéaire entre une variable de réponse continue et une ou plusieurs variables de prédiction, et prévoit de nouvelles observations. Utilisez la régression non linéaire plutôt que la régression sur les moindres carrés lorsque vous ne pouvez pas modéliser de manière adéquate la relation avec des paramètres linéaires. Les paramètres sont linéaires lorsque chaque terme du modèle est additif et contient seulement un paramètre qui multiplie le terme.

Comparaison de la régression non linéaire et de la régression linéaire

Pour comprendre les principes de base de la régression non linéaire, il est important d'en connaître les similarités et les différences avec la régression linéaire.

Similarités

Les deux analyses :
  • Décrivent mathématiquement la relation entre une variable de réponse et une ou plusieurs variables de prédiction.
  • Peuvent modéliser une relation en courbe.
  • Minimisent la somme des carrés de l'erreur résiduelle (SCE).
  • Proposent des hypothèses similaires, vérifiables à l'aide de graphiques des valeurs résiduelles.

Différences

La différence fondamentale entre la régression linéaire et la régression non linéaire (à laquelle ces analyses doivent leur nom) tient aux formes fonctionnelles acceptables du modèle. De façon plus spécifique, la régression linéaire requiert des paramètres linéaires, ce qui n'est pas le cas de la régression non linéaire. Utilisez la régression non linéaire plutôt que la régression linéaire lorsque vous ne pouvez pas modéliser de manière adéquate la relation avec des paramètres linéaires.

Une fonction de régression linéaire doit être linéaire dans les paramètres, ce qui limite l'équation à une seule forme basique. Les paramètres sont linéaires lorsque chaque terme du modèle est additif et contient seulement un paramètre qui multiplie le terme :

Réponse = constante + paramètre * prédicteur + ... + paramètre * prédicteur

ou y = βo + β1X1 + β2X2 + ... + βkXk

En revanche, une équation non linéaire peut prendre différentes formes. En fait, comme il existe un nombre infini de possibilités, vous devez spécifier la fonction de prévision utilisée par Minitab pour effectuer une régression non linéaire. Ces exemples illustrent la variété (les θ représentent les paramètres) :
  • y = θX (Convexe 2, 1 paramètre, 1 prédicteur)
  • y = θ1 * X1 / ( θ2 + X1 ) (Equation de Michaelis-Menten, 2 paramètres, 1 prédicteur)
  • y = θ1 - θ2 * ( ln ( X1 + θ3 ) - ln ( X2 )) (Equation de Nernst, 3 paramètres, 2 prédicteurs)

Le choix de la fonction de prévision dépend souvent de vos connaissances préalables sur la forme de la courbe de la réponse ou du comportement des propriétés physiques et chimiques du système. Les formes de courbes non linéaires possibles sont notamment : concave, convexe, à croissance ou décroissance exponentielle, à courbe sigmoïde (S) et asymptotique. Vous devez spécifier la fonction qui satisfait à la fois aux exigences liées à vos connaissances préalables et aux hypothèses de régression non linéaire.

Bien que le nombre de fonctions de prévision pouvant être spécifiées offre une grande flexibilité, déterminer la fonction fournissant l'ajustement optimal pour vos données peut requérir des efforts considérables. Cela demande souvent une connaissance du domaine concerné, des analyses des erreurs et des essais ainsi que des recherches supplémentaires. Pour les équations non linéaires, déterminer l'effet de chaque prédicteur sur la réponse peut s'avérer moins intuitif que pour les équations linéaires.

La régression non linéaire utilise une procédure différente de celle utilisée dans la régression linéaire pour réduire la somme des carrés de l'erreur résiduelle (SCE).