Comment faire un test de Kruskal-wallis ?

Interrogée par: Valérie de Ledoux  |  Dernière mise à jour: 10. Juli 2024
Notation: 4.7 sur 5 (37 évaluations)

Pour le savoir, on utilise le test H (test de Kruskal-Wallis). Nous attribuons d'abord un rang à chaque personne, puis nous calculons la somme des rangs et la somme moyenne des rangs. Nous avons mesuré le temps de réaction de douze personnes, le nombre de cas est donc de douze.

Quand faire un test Kruskal-wallis ?

Le test de Kruskal-Wallis est une alternative non paramétrique au test ANOVA à un facteur. Il étend le test de Wilcoxon à deux échantillons dans les cas où il y a plus de deux groupes à comparer. Il est recommandé lorsque les hypothèses du test ANOVA, à un facteur, ne sont pas respectées.

Quand faire un test non paramétrique ?

Les tests non paramétriques sont donc utilisés lorsque le niveau d'échelle n'est pas métrique, que la distribution réelle des variables aléatoires n'est pas connue ou que l'échantillon est simplement trop petit pour supposer une distribution normale.

Quand utiliser le test de Dunn ?

Pour analyser les paires d'échantillons spécifiques en vue de déterminer la dominance stochastique, on utilise parfois le test de Dunn, les tests de Mann-Whitney par paires sans correction de Bonferroni ou encore le test de Conover-Iman, plus puissant mais moins connu.

Quand utiliser le test de Friedman ?

Etant une alternative non paramétrique à l'ANOVA sur mesures répétées, le test de Friedman doit être employé lorsque l'hypothèse de normalité des résidus n'est pas satisfaite. Cette situation se rencontre classiquement lorsque la variable réponse est un score, ou encore une variable ordinale comme un classement.

Le test de Kruskal-Wallis pour échantillons indépendants

Trouvé 18 questions connexes

Pourquoi utiliser test de Fisher ?

Le test exact de Fisher calcule la probabilité d'obtenir les données observées (en utilisant une distribution hypergéométrique) ainsi que les probabilités d'obtenir tous les jeux de données encore plus extrêmes sous l'hypothèse nulle. Ces probabilités sont utilisées pour calculer la p-value.

Pourquoi faire le test de Fisher ?

Une approche utilisée dans R avec la fonction "fisher. test" calcule la valeur p en sommant les probabilités de toutes les tables ayant une probabilité inférieure ou égale à celle de la table observée. Le test permet de rejeter l'indépendance entre le sexe et le fait de faire un régime.

Comment utiliser le test de Mann-whitney ?

Dans le cas d'échantillons indépendants, le test de Mann-Whitney permet de comparer deux populations. Les deux séries de valeurs sont mélangées puis ordonnées par valeurs croissantes. On identifie alors les rangs des individus du premier groupe et on calcule la somme des rangs de ces individus.

Quand utiliser le test de Bartlett ?

Le test de Bartlett peut être utilisé pour comparer deux variances ou plus. Ce test est sensible à la normalité des données. Autrement dit, si l'hypothèse de normalité des données semble fragile, on utilisera plutôt le test de Levene ou de Fisher.

Quand utiliser le test de Tukey ?

Il peut être utilisé dans le cadre d'une ANOVA ou bien sur des données brutes pour évaluer par exemple si des moyennes sont significativement différentes l'une de l'autre.

Quand on utilise le test de Wilcoxon ?

Le Test de Wilcoxon est un test de comparaison de deux séries d'une même variable quantitative (même unité de mesure). C'est un Test non paramétrique, utilisé quand les conditions de normalité de la variable ne sont pas valides. C'est l'équivalent du test T de Student.

Quand utiliser le test de Duncan ?

Duncan en 1955. Ce test post-hoc ou test de comparaisons multiples peut être utilisé pour déterminer les différences significatives entre les moyennes des groupes dans une analyse de variance.

Quand utiliser le test de Wilcoxon Mann-whitney ?

Lorsque les échantillons peuvent être considérés indépendants, on applique le test de Mann et Whitney pour 2 échantillons, celui de Kruskal et Wallis pour un nombre quelconque d'échantillons. Lorsque on a affaire à deux échantillons appariés (c'est-à-dire non indépendants), on applique le test de Wilcoxon.

Comment utiliser le test de Kruskal-Wallis ?

Conditions d'application du test de Kruskal-Wallis

Pour calculer un test de Kruskal-Wallis, il suffit de disposer de plusieurs échantillons aléatoires indépendants présentant au moins des caractéristiques à échelle ordinale. Les variables ne doivent pas nécessairement satisfaire à une courbe de distribution.

Pourquoi utiliser le test de Kruskal-Wallis ?

La fonction Test de Kruskal-Wallis permet de déterminer si les médianes de deux groupes ou plus diffèrent. Vos données doivent contenir un facteur de catégorie et une réponse continue, et les courbes de distribution des données de tous les groupes doivent être de forme similaire.

Comment savoir si test paramétrique ou non paramétrique ?

Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...). Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.

Quand utiliser le test d'homogénéité ?

Les tests d'homogénéité permettent de décider si plusieurs sous-populations sont homogènes par rapport à un critère donné.

Comment interpréter le test de Levene ?

Si la valeur p du test de Levene est supérieure à 0,05, alors les variances ne sont pas significativement différentes les unes des autres (c'est-à-dire que l'hypothèse d'homogénéité de la variance est satisfaite).

Comment calculer le test de Levene ?

Pour chaque traitement d'une expérience, le test modifié de Levene utilise le calcul de l'écart absolu entre les observations et la médiane du traitement. Il compare ensuite les moyennes de ces écarts pour tous les traitements afin de déterminer si elles sont égales.

Comment interpréter le test de Wilcoxon ?

Interpréter les résultats: après avoir effectué le test de Wilcoxon, il est important d'interpréter les résultats.La valeur p indique la probabilité d'observer une différence aussi extrême que celle observée, en supposant que l'hypothèse nulle est vraie.Si la valeur p est inférieure au niveau de signification ( ...

Comment faire un test de Kolmogorov-smirnov ?

Déroulement du test :
  1. On calcule FX et FY comme ci-dessus.
  2. On calcule K=sup|FX(x)−FY(x)|. ...
  3. On compare avec la valeur critique de la loi du Δ de Kolmogorov-Smirnov : si b est tel que P(Δ>b)=a P ( Δ > b ) = a et si K<√p+qpqb, K < p + q p q b , alors on accepte l'hypothèse, sinon on la rejette.

Quand utiliser un test paramétrique ?

Par exemple, si vous voulez comparer une moyenne observée à une valeur théorique : Vous souhaitez comparer la moyenne des notes en mathématiques d'une classe à la moyenne du pays ? Dans ce cas nous allons utiliser un test paramétrique car nous pouvons supposer que les données suivent une distribution normale.

Comment faire un test ANOVA ?

Pour calculer cette variance, nous devons calculer à quelle distance chaque observation est de sa moyenne de groupe pour les 40 observations. Techniquement, c'est la somme des écarts au carré de chaque observation de la moyenne de son groupe divisé par le degré de liberté de l'erreur.

Comment interpréter un test ANOVA ?

En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de conclure à tort qu'une différence existe. Valeur de p ≤ α : les différences entre certaines moyennes sont statistiquement significatives.

Comment interpréter le test de Durbin-watson ?

La statistique de Durbin et Watson, notée DW, est une valeur appartenant à l'intervalle [0;+4]. Elle est dite normale si elle avoisine la valeur 2. Ci-dessus, la statistique du Durbin et Watson vaut 2,29 ; elle semble normale.