Statistique : Tester l'association de variables

Cette grande leçon présente, sous l'angle de la statistique inférentielle, les principales méthodes pour tester l'existence d'une association entre variables : corrélations de variables numériques (r de Pearson) ordinales (\rho de Spearman, \tau de Kendal), ou nominales (\chi^2 et \phi). Après un rappel de la régression linéaire simple, on introduit la corrélation partielle. Finalement, cinq articles sont consacrés à la corrélation multiple.

2. Régression linéaire simple : approche inférentielle

2.2. La régression proprement dite

Attention : là où la version française de certaines versions de SPSS (e.g., SPSS 18) indique « valeur prédite »dans les résultats, il s’agit en fait d’une erreur de traduction. Il faut lire« prédicteur » comme l’indique la version anglaise de SPSS qui mentionne « Predictors ».

Sous SPSS, nous obtenons les résultats suivants  (Il manque ici un premier tableau qui n’aura d’intérêt que lorsque nous verrons la régression multiple) :

d

Sous Statistica, la même analyse nous donne les résultats suivants :

d

d


Aux détails de mise en forme près, ces résultats se ressemblent furieusement… ce qui est plutôt rassurant!

Expliquons maintenant comment lire ces résultats.

Si nous prenons les trois tableaux de SPSS, les deux premiers concernent l’ajustement global du modèle aux données, le troisième décrit plus précisément la relation entre le ou les prédicteurs (ici le prédicteur) et la variable dépendante.