Tests non paramétriques Il s'agit par exemple du test U de Mann-Whitney ou du test de Wilcoxon.
Les tests paramétriques sont des tests dont l'échantillon que nous étudions suit une certaine loi (loi normale par exemple) ou vérifie un certain nombre d'hypothèses (même variance entre les deux échantillons donnés). Ils sont plus puissants mais nécessitent un certain nombre d'hypothèses à vérifier.
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
Le Test de Wilcoxon est un test de comparaison de deux séries d'une même variable quantitative (même unité de mesure). C'est un Test non paramétrique, utilisé quand les conditions de normalité de la variable ne sont pas valides. C'est l'équivalent du test T de Student.
Pour les données qui suivent une loi normale, nous privilégions toujours les tests paramétriques. C'est à dire le test T de Student et l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques tel que le test de Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.
Définitions. Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...); Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.
Les tests non paramétriques sont donc utilisés lorsque le niveau d'échelle n'est pas métrique, que la distribution réelle des variables aléatoires n'est pas connue ou que l'échantillon est simplement trop petit pour supposer une distribution normale.
Duncan en 1955. Ce test post-hoc ou test de comparaisons multiples peut être utilisé pour déterminer les différences significatives entre les moyennes des groupes dans une analyse de variance.
Le test U de Mann-Whitney est donc le pendant non paramétrique du test t pour échantillons indépendants ; il est soumis à des hypothèses moins strictes que le test t. Par conséquent, le test U de Mann-Whitney est toujours utilisé lorsque la condition de distribution normale du test t n'est pas remplie.
Lorsque l'un des effectifs théoriques est inférieur à 5 ou lorsque les sommes marginales du jeu de données réel sont très déséquilibrées, il est préférable de se fier au test exact de Fisher.
Un des tests permettant de vérifier la normalité de la variable x est le test de Shapiro-Wilk. Il est appliquable pour des échantillons allant jusqu'à 50 valeurs. Il utilise le rapport de deux estimations de la variance.
Le test de Dunn est un test statistique utilisé pour effectuer un nombre spécifique de comparaisons entre des groupes de données et déterminer laquelle d'entre elles est significative.
Le test de Bartlett peut être utilisé pour comparer deux variances ou plus. Ce test est sensible à la normalité des données. Autrement dit, si l'hypothèse de normalité des données semble fragile, on utilisera plutôt le test de Levene ou de Fisher.
Pour prendre une décision, choisissez le niveau de significativité α (alpha), avant le test : Si p est inférieur ou égal à α, rejetez H0. Si p est supérieur à α, ne rejetez pas H0 (en principe, vous n'acceptez jamais l'hypothèse H0, mais vous vous contentez de ne pas la rejeter)
Les formulations pour l'hypoth`ese alternative H1 sont : 1. H0 : µ = µ0 (ou µ ≥ µ0) et 2. H0 : µ = µ0 (ou µ ≤ µ0) H1 : µ<µ0 H1 : µ>µ0 (unilatéral `a gauche).
Les trois tests de corrélation les plus utilisés sont ceux de Spearman, Kendall et Pearson. Les deux premiers sont des tests non-paramétriques que l'on peut également appliquer sur des variables qualitatives ordinales.
Interpréter les résultats: après avoir effectué le test de Wilcoxon, il est important d'interpréter les résultats.La valeur p indique la probabilité d'observer une différence aussi extrême que celle observée, en supposant que l'hypothèse nulle est vraie.Si la valeur p est inférieure au niveau de signification ( ...
C'est un modèle statistique qui sert à démontrer l'existence de similitudes ou différences sur des aspects précis dans une population étudiée. Dans l'ANOVA, on étudie une variable quantitative à laquelle on attribue une ou deux variables qualitatives : les variables catégorielles.
Lorsque l'ANOVA détecte une différence significative entre les groupes, l'analyse n'indique pas quel(s) groupe(s) diffère(nt) de(s) l'autre(s). Un test couramment utilisé a posteriori pour répondre à cette question est le test de Tukey.
Si la valeur p du test de Levene est supérieure à 0,05, alors les variances ne sont pas significativement différentes les unes des autres (c'est-à-dire que l'hypothèse d'homogénéité de la variance est satisfaite).
Pour le savoir, on utilise le test H (test de Kruskal-Wallis). Nous attribuons d'abord un rang à chaque personne, puis nous calculons la somme des rangs et la somme moyenne des rangs. Nous avons mesuré le temps de réaction de douze personnes, le nombre de cas est donc de douze.
Le test t est utilisé lorsque vous devez trouver la moyenne de la population entre deux groupes, tandis que lorsqu'il y a trois groupes ou plus, vous optez pour le test ANOVA. Le test t et l'ANOVA sont tous deux des méthodes statistiques permettant de tester une hypothèse.
Un test de Student peut être utilisé pour évaluer si un seul groupe diffère d'une valeur connue (test t à un échantillon), si deux groupes diffèrent l'un de l'autre (test t à deux échantillons indépendants), ou s'il existe une différence significative dans des mesures appariées (test de Student apparié ou à ...
Les tests que vous pouvez utiliser sont alors le test de Student ou le test de Wilcoxon-Mann-Whitney, selon si les groupes suivent une distribution normale (en forme de cloche).