Pour les données qui suivent une loi normale, nous privilégions toujours les tests paramétriques. C'est à dire le test T de Student et l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques tel que le test de Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.
Un test statistique (ou test d'hypothèse) consiste à détecter une différence significative : Entre une population étudiée et une valeur cible (Test de comparaison à une valeur théorique ou test de -conformité). Entre deux populations (Test de comparaison de population ou test d'homogénéité)
Test unilatéral : test statistique pour lequel on prend comme hypothèse alternative l'existence d'une différence dont le sens est connu. Test bilatérale : test statistique pour lequel on prend, comme hypothèse alternative, l'existence d'une différence, dans un sens ou l'autre.
Le test t est utilisé lorsque vous devez trouver la moyenne de la population entre deux groupes, tandis que lorsqu'il y a trois groupes ou plus, vous optez pour le test ANOVA. Le test t et l'ANOVA sont tous deux des méthodes statistiques permettant de tester une hypothèse.
Définitions. Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...). Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.
Les tests non paramétriques sont donc utilisés lorsque le niveau d'échelle n'est pas métrique, que la distribution réelle des variables aléatoires n'est pas connue ou que l'échantillon est simplement trop petit pour supposer une distribution normale.
Les tests paramétriques sont des tests dont l'échantillon que nous étudions suit une certaine loi (loi normale par exemple) ou vérifie un certain nombre d'hypothèses (même variance entre les deux échantillons donnés). Ils sont plus puissants mais nécessitent un certain nombre d'hypothèses à vérifier.
Duncan en 1955. Ce test post-hoc ou test de comparaisons multiples peut être utilisé pour déterminer les différences significatives entre les moyennes des groupes dans une analyse de variance.
Un test de Student peut être utilisé pour évaluer si un seul groupe diffère d'une valeur connue (test t à un échantillon), si deux groupes diffèrent l'un de l'autre (test t à deux échantillons indépendants), ou s'il existe une différence significative dans des mesures appariées (test de Student apparié ou à ...
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
Un test non paramétrique est un test d'hypothèse qui n'exige pas que la distribution de la population soit caractérisée par certains paramètres. Par exemple, de nombreux tests d'hypothèse supposent que la population obéit à une loi normale pour les paramètres µ et σ.
Il s'agit du test de Kruskal-Wallis, mesure de l'association entre deux variables qualitatives. Le croisement de deux questions qualitatives produit un tableau que l'on désigne généralement par « tableau de contingence ».
Le test de comparaison de k proportions sert à déterminer si k proportions peuvent être considérées comme étant toutes égales (hypothèse nulle H0) ou si au moins deux proportions sont différentes (hypothèse alternative Ha). XLSTAT propose trois approches différentes pour la comparaison de k proportions.
Un test d'hypothèse (ou test statistique) est une démarche qui a pour but de fournir une règle de décision permettant, sur la base de résultats d'échantillon, de faire un choix entre deux hypothèses statistiques.
La statistique de test compare vos données avec celles attendues d'après l'hypothèse nulle. La statistique de test sert à calculer la valeur de p. Une statistique de test mesure le degré de correspondance entre un échantillon de données et l'hypothèse nulle.
Le test U de Mann-Whitney est donc le pendant non paramétrique du test t pour échantillons indépendants ; il est soumis à des hypothèses moins strictes que le test t. Par conséquent, le test U de Mann-Whitney est toujours utilisé lorsque la condition de distribution normale du test t n'est pas remplie.
En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d'adéquation (ou tests d'ajustement, tests permettant de comparer des distributions), appliqués à une loi normale.
Le test exact de Fisher calcule la probabilité d'obtenir les données observées (en utilisant une distribution hypergéométrique) ainsi que les probabilités d'obtenir tous les jeux de données encore plus extrêmes sous l'hypothèse nulle. Ces probabilités sont utilisées pour calculer la p-value.
Une approche utilisée dans R avec la fonction "fisher. test" calcule la valeur p en sommant les probabilités de toutes les tables ayant une probabilité inférieure ou égale à celle de la table observée. Le test permet de rejeter l'indépendance entre le sexe et le fait de faire un régime.
Pour calculer cette variance, nous devons calculer à quelle distance chaque observation est de sa moyenne de groupe pour les 40 observations. Techniquement, c'est la somme des écarts au carré de chaque observation de la moyenne de son groupe divisé par le degré de liberté de l'erreur.
Quel est l'avantage d'utiliser un test paramétrique ? Les tests paramétriques sont, eux, plus puissants en général que leurs équivalents non-paramétriques. Autrement dit, un test paramétrique sera plus apte à aboutir à un rejet de H0, si ce rejet est justifié.
Pour prendre une décision, choisissez le niveau de significativité α (alpha), avant le test : Si p est inférieur ou égal à α, rejetez H0. Si p est supérieur à α, ne rejetez pas H0 (en principe, vous n'acceptez jamais l'hypothèse H0, mais vous vous contentez de ne pas la rejeter)
Interprétation du test de Kruskal-Wallis
La question est de savoir si la valeur p calculée est inférieure ou supérieure au seuil de signification généralement fixé à 0,05. Si la valeur p est supérieure, l'hypothèse nulle est retenue, sinon elle est rejetée.