Utilisez le test t ou le
Pour comparer deux moyennes, il faut habituellement employer le test «T» de Student, qui suppose la normalité des distributions et l'égalité des variances (test paramétrique), hypothèses invérifiables avec des effectifs faibles.
Pour les données qui suivent une loi normale, nous privilégions toujours les tests paramétriques. C'est à dire le test T de Student et l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques tel que le test de Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.
Duncan en 1955. Ce test post-hoc ou test de comparaisons multiples peut être utilisé pour déterminer les différences significatives entre les moyennes des groupes dans une analyse de variance.
Le test T est une statistique inférentielle utilisée pour évaluer les différences entre les moyennes de deux groupes. Le test T est généralement utilisé lorsque les ensembles de données suivent une distribution normale et peuvent avoir des variances inconnues.
Le test U de Mann-Whitney est donc le pendant non paramétrique du test t pour échantillons indépendants ; il est soumis à des hypothèses moins strictes que le test t. Par conséquent, le test U de Mann-Whitney est toujours utilisé lorsque la condition de distribution normale du test t n'est pas remplie.
Le test de Student cas d'un seul échantillon est aussi appelé test de conformité, ce test a pour but de vérifier si notre échantillon provient bien d'une population avec la moyenne spécifiée, µ0, ou s'il y a une différence significative entre la moyenne de l'échantillon et la moyenne présumée de la population.
Une approche utilisée dans R avec la fonction "fisher. test" calcule la valeur p en sommant les probabilités de toutes les tables ayant une probabilité inférieure ou égale à celle de la table observée. Le test permet de rejeter l'indépendance entre le sexe et le fait de faire un régime.
L'analyse de la variance (ANOVA) est très utilisée en statistique et dans le domaine des études marketing. Cette méthode analytique puissante sert à mettre en avant des différences ou des dépendances entre plusieurs groupes statistiques.
Le test de Shapiro-Wilk. Un des tests permettant de vérifier la normalité de la variable x est le test de Shapiro-Wilk. Il est appliquable pour des échantillons allant jusqu'à 50 valeurs. Il utilise le rapport de deux estimations de la variance.
Il s'agit du test de Kruskal-Wallis, mesure de l'association entre deux variables qualitatives. Le croisement de deux questions qualitatives produit un tableau que l'on désigne généralement par « tableau de contingence ».
L'idée. Si on souhaite comparer deux échantillons (i.i.d) gaussiens, il nous suffit en fait de comparer leurs paramètres : leur moyenne μ1 et μ2, et leur variance σ21 et σ22. La méthodologie la plus classique est d'effectuer de manière séquentielle : Un test d'égalité des variances.
Si la borne inférieure et la borne supérieure sont positives, alors les deux moyennes sont significativement différentes et la moyenne du sondage 1 est supérieure à celle du sondage 2.
Le test de McNemar permet de déterminer si des proportions appariées sont différentes. Vous pouvez par exemple l'utiliser pour déterminer si un programme de formation à un effet sur la proportion de participants qui répondent correctement à une question.
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
L'ANOVA à 2 facteurs est généralement employée pour analyser les résultats d'une expérimentation dans laquelle des individus, ou des unités expérimentales, ont été exposées, de façon aléatoire (randomisée), à l'une des combinaisons (ou croisement) des modalités des deux variables catégorielles.
Le test de Bartlett peut être utilisé pour comparer deux variances ou plus. Ce test est sensible à la normalité des données. Autrement dit, si l'hypothèse de normalité des données semble fragile, on utilisera plutôt le test de Levene ou de Fisher.
ANOVA teste l'homogénéité de la moyenne de la variable quantitative étudiée sur les différentes valeurs de la variable qualitative. L'analyse de la variance, si elle aboutit à un résultat éloigné de zéro, permet de rejeter l'hypothèse nulle : la variable qualitative influe effectivement sur la variable quantitative.
Or selon la théorie il faut faire un test de Fisher lorsque la présence de racine unitaire n'est pas rejetée (p. value > 5%). Dans le cas contraire, le test convenable est en principe celui de student pour tester uniquement la significativité de la tendance ou de la constante.
Il se calcule comme suit : W = X2/N(K-1) ; où W est la valeur W de Kendall ; X2 est la valeur statistique du test de Friedman ; N est la taille de l'échantillon.
Si la valeur p du test de Levene est supérieure à 0,05, alors les variances ne sont pas significativement différentes les unes des autres (c'est-à-dire que l'hypothèse d'homogénéité de la variance est satisfaite).
En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d'adéquation (ou tests d'ajustement, tests permettant de comparer des distributions), appliqués à une loi normale.
Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...). Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.