Deux échantillons E1 et E2 sont dit appariés lorsque chaque valeur x1,i de E1 est associée à une valeur x2,i de E2 (appariés = associés par paire : variables dépendantes). Par exemple E1 peut être un groupe de malades avant traitement et E2 le groupe des mêmes malades après traitement.
Le cas de deux échantillons indépendants :
Pour comparer deux moyennes, il faut habituellement employer le test «T» de Student, qui suppose la normalité des distributions et l'égalité des variances (test paramétrique), hypothèses invérifiables avec des effectifs faibles.
Un test de Student peut être utilisé pour évaluer si un seul groupe diffère d'une valeur connue (test t à un échantillon), si deux groupes diffèrent l'un de l'autre (test t à deux échantillons indépendants), ou s'il existe une différence significative dans des mesures appariées (test de Student apparié ou à ...
Le test U de Mann-Whitney peut être utilisé pour tester si deux groupes indépendants ont été tirés de la même population. Ce test est surtout utilisé pour étudier si une variable indépendante nominale dichotomique influence une variable dépendante ordinale de scores.
L'énorme avantage de ce test est sa simplicité, même si de ce fait son utilisation est limitée. Comme tous les tests statistiques, il consiste, à partir de ce qui est observé, à mettre en évidence un évènement dont on connait la loi de probabilité (au moins sa forme asymptotique).
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
L'hypothèse selon laquelle on fixe à priori un paramètre de la population à une valeur particulière s'appelle l'hypothèse nulle et est notée H0. N'importe quelle autre hypothèse qui diffère de l'hypothèse H0 s'appelle l'hypothèse alternative (ou contre-hypothèse) et est notée H1.
Or selon la théorie il faut faire un test de Fisher lorsque la présence de racine unitaire n'est pas rejetée (p. value > 5%). Dans le cas contraire, le test convenable est en principe celui de student pour tester uniquement la significativité de la tendance ou de la constante.
Le test exact de Fisher calcule la probabilité d'obtenir les données observées (en utilisant une distribution hypergéométrique) ainsi que les probabilités d'obtenir tous les jeux de données encore plus extrêmes sous l'hypothèse nulle. Ces probabilités sont utilisées pour calculer la p-value.
ANOVA teste l'homogénéité de la moyenne de la variable quantitative étudiée sur les différentes valeurs de la variable qualitative. L'analyse de la variance, si elle aboutit à un résultat éloigné de zéro, permet de rejeter l'hypothèse nulle : la variable qualitative influe effectivement sur la variable quantitative.
Le test-t de Student est un test statistique permettant de comparer les moyennes de deux groupes d'échantillons. Il s'agit donc de savoir si les moyennes des deux groupes sont significativement différentes au point de vue statistique.
Ce test est souvent utilisé pour valider l'hypothèse de leur égalité (appelée homoscédasticité1). La comparaison des variances s'avère donc utile comme test complémentaire lorsqu'on souhaite tester l'égalité de deux moyennes (cas des petits échantillons indépendants).
Le test t pour échantillon unique, également connu sous le nom de test t pour une seule moyenne , est utilisé pour comparer la moyenne d'un échantillon à une moyenne standard connue (ou théorique / hypothétique). Un autre synonyme est le test t à un groupe.
* Eta carré (ou η2) correspond à la proportion de variance totale expliquée alors que l'eta carré partiel (fourni notamment par SPSS) est le rapport entre la variabilité due à l'effet considéré et la somme des variabilités (Somme des carrés) due à cet effet d'une part et à l'erreur d'autre part.
Des échantillons appariés sont des échantillons identiques, c'est à dire des échantillons composés d'individus possédant les mêmes caractéristiques. La ou les caractéristiques faisant l'objet de l'appariement peuvent être variables (âge, sexe, etc..).
Nous choisissons le test F de Fisher. Une fois ces paramètres choisis, passez à l'onglet Options. Nous souhaitons tester l'égalité des variances donc l'hypothèse alternative adéquate est : Variance 1 / Variance 2 ≠ R où R est égal à 1. Le niveau de significativité par défaut est de 5%, gardez-le.
Pour tester la significativité du modèle, nous avons 2 niveaux : Un test global, obtenu grâce à une statistique de Fisher. En pratique, l'hypothèse Ho de ce test est souvent rejetée, le modèle est donc souvent significatif globalement. Un test de significativité sur chacune des variables explicatives prises une à une.
Si la statistique-t est supérieure à la valeur critique, alors la différence est significative. Si la statistique-t est inférieure, il n'est pas possible de différencier les deux nombres d'un point de vue statistique.
Vous voulez calculer la valeur de p du test z. La valeur ainsi obtenue est la probabilité d'observer une valeur aléatoire inférieure à la statistique du test, soit : P(ST inférieure à -1,785) = 0,0371. Ainsi, la valeur de p est 0,0371.
Lorsque les données sont collectées, la valeur-p est calculée et la décision suivante est prise : si elle est inférieure à α, on rejette l'hypothèse nulle au profit de l'hypothèse alternative ; si elle est supérieure à α, on rejette l'hypothèse alternative au profit de l'hypothèse nulle.
Il se calcule comme suit : W = X2/N(K-1) ; où W est la valeur W de Kendall ; X2 est la valeur statistique du test de Friedman ; N est la taille de l'échantillon. k est le nombre de mesures par sujet (M. T. Tomczak and Tomczak 2014).
Définition. Le test de Dunn est un test statistique utilisé pour effectuer un nombre spécifique de comparaisons entre des groupes de données et déterminer laquelle d'entre elles est significative.
Les méthodes non paramétriques sont utiles lorsque l'hypothèse de normalité ne tient pas et que l'effectif d'échantillon est faible. Cela dit, dans les tests non paramétriques, vos données reposent également sur des hypothèses.