Hied
CHAPITRE 1. REGRESSION ET CORRELATION
1.1. INTRODUCTION. En analyse de régression, on cherche à expliquer une variable métrique Y qui dépend d’une ou de plusieurs variables explicatives métriques X1, X2,..., Xp. A cette fin, un modèle mathématique peut représenter convenablement la relation entre Y et les Xi, ce modèle servira aussi pour faire des prévisions. Y = f ( X1, X2,..., Xp ) La variable Y s’appelle la variable expliquée, dépendante, endogène, tandis que les X1, X2,..., Xp sont les variables explicatives, indépendantes, exogènes. S’appuyant sur des données observées, l’analyse de régression consiste à élaborer un modèle explicatif , ensuite on passe à l'analyse statistique du modèle qui comporte l'estimation des paramètres et divers tests d'hypothèses.
1.2. LA REGRESSION SIMPLE S’il n’y a qu’une seule variable explicative, on dira que le modèle de régression est simple. Son but est de confirmer empiriquement une relation de cause à effet entre deux variables. Ensuite, si cette relation est confirmée évaluer son intensité. 1.2.1. Identification du modèle. On doit préciser la variable dont on veut expliquer les variations (variable dépendante Y), puis celle qui est la cause de ces variations (variable explicative X). Bien que la relation entre deux variables ne soit pas nécessairement linéaire, il est souvent postulé que cette relation est linéaire et ce pour la principale raison : la théorie de la régression linéaire est beaucoup plus développée et surtout beaucoup plus simple à appliquer et à interpréter que celle de la régression non linéaire. Le modèle théorique en régression linéaire simple s’écrit :
Y = β0 + β1 X + ε
1
Analyse des données.
Le paramètre β1 donne la pente de la droite appelée coefficient de régression, il mesure la variation de Y lorsque X augmente d’une unité. Le paramètre β0 est l'ordonnée à l'origine, c’est à dire la valeur prise par Y lorsque X = 0. ε représente l'erreur aléatoire, elle est non