t de student : Interpréter les sorties des logiciels SPSS 18, Statistica 8, R

C'est une chose de réaliser un test avec un logiciel, c'est-à-dire lui fournir des données et lui faire produire les valeurs t et p, c'est en une autre de savoir interpréter les sorties du logiciel.
Cette section présente les interprétations de sorties de différents logiciels pour...
  • test t à échantillon unique
  • test t à groupes appariés
  • test t à groupes indépendants

Logiciels considérés : Jamovi, R, SPSS, Statistica, Tableurs


4. Formulaire Student

Avertissement : les formules présentées ici peuvent être sensiblement différentes en apparence à d'autres formules que vous pouvez trouver ailleurs. 
Toutes ces formules sont généralement mathématiquement équivalentes et produisent les mêmes résultats. 
Elles sont plus ou moins faciles à utiliser selon les informations dont vous disposez...

Le lecteur intéressé par les mathématiques de la chose pourra trouver une justification complète de tout cela dans l'excellent manuel de Howell (en particulier le chapitre sur le test d'hypothèses appliqué aux moyennes).


A. Comparer la moyenne d'un échantillon et une constante de référence

Soit un échantillon de n mesures dont la moyenne est \overline{X} et l'écart-type s.
On veut comparer la moyenne à une constante \mu qui représente une certaine moyenne théorique.

  •   On calcule l'erreur-standard de l'échantillon, ES
    ES=\frac{s}{\sqrt{n}}
On a alors

t=\frac{\overline{X}-\mu}{ES}

où le nombre de degrés de liberté est ddln-1
 

Il faut encore calculer la taille de l'effet, qui pour les tests t est classiquement le d de Cohen. Ici,

d=\frac{\overline{X}-\mu}{s}

  • On détermine la valeur p d'avoir t(ddl)
  • On utilise la valeur de p pour prendre une décision statistique
  • On calcule la taille de l'effet
  • On présente les résultats inférentiels    

B. Comparer les moyennes de deux échantillons appariés

Soit un ensemble de n paires de mesures. On calcule une nouvelle variable constituant, pour chaque paire, la différence des deux mesures précédentes. Sous l'hypothèse nulle, la moyenne théorique de ces différences est zéro. La nouvelle variable constitue un échantillon unique dont la moyenne est \overline{X_d} et l'écart-type s_d. On se ramène donc au cas d'une comparaison de moyenne (la moyenne des différences) et la constante \mu=0.

  • On calcule l'erreur-standard de l'échantillon des différences, ES_d
     
    ES_d=\frac{s_d}{\sqrt{n}}
    • On a alors

      t=\frac{\overline{X_d}-c}{ES_d}

      où le nombre de degrés de liberté est ddln-1

Il faut calculer la taille de l'effet, classiquement le d de Cohen. Ici, une formule simplifiée pour les groupes appariés le donne directement :

d=\frac{t}{\sqrt{n}}

  •   On détermine la valeur p d'avoir t(ddl)
  •   On utilise la valeur de p pour prendre une décision statistique
  •   On présente les résultats inférentiels.

C. Comparer les moyennes de deux échantillons indépendants


Soient deux échantillons de mesures respectivement prises sur un groupe 1 de n1 sujets, et un groupe 2 de n2 sujets. Notons \overline{X_1}, s_1, et \overline{X_2}, s_2 les moyennes et écarts-types de ces deux échantillons.

La structure est la même pour tous les tests t : il s'agit de faire le rapport d'une différence de moyennes par une erreur standard. Dans le cas des mesures indépendantes, le calcul de l'erreur standard commune aux deux échantillons est compliqué par le fait que les effectifs des deux groupes peuvent différer (i.e., n_1\neq n_2).

Les manuels distinguent souvent deux cas, selon que les effectifs sont équilibrés ou non, la relation se simplifiant dans le premier cas. Cela étant, la formule générale, quoique d'apparence un peu plus compliquée, marche dans tous les cas. À l'ère de l'informatique, nous ne voyons pas l'avantage d'enseigner deux formules aux étudiants de sciences humaines, au nom de la simplicité, quand la première suffit. Nous ne présentons donc ici que la formule générale.

On commence par calculer une sorte de variance combinée des deux groupes, souvent notée s_p^2 dans les ouvrages ("p" pour "pooled" en anglais), et qui corrige notamment le problème des tailles inégales :

s_p^2=\frac{(n_1-1)s_1^2+(n_2-1)s_2^2}{n_1+n_2-2}

En prenant la racine de s_p^2 on a un écart-type combiné, et on obtient alors t par la formule :

t=\frac{\overline{X_1}-\overline{X_2}}{\sqrt{s_p^2\bigg(\frac{1}{n_1}+\frac{1}{n_2}\bigg)}}

où le nombre de degrés de liberté : ddl=n_1+n_2-2 .

Il faut encore calculer la taille de l'effet, qui pour les tests t est classiquement le d de Cohen. Ici, en nous appuyant sur le calcul de t déjà réalisé plus haut, nous disposons d'une formule qui marche même en cas d'échantillons d'effectifs différents :

d=\frac{t}{\frac{1}{n_1}+\frac{1}{n_2}}

  • On détermine la probabilité p d'avoir t(ddl)
  • On utilise la valeur de p pour prendre une décision statistique
  • On présente les résultats inférentiels.