Quel test statistique pour comparer des moyennes ?

Interrogée par: Franck Royer  |  Dernière mise à jour: 17. Juli 2024
Notation: 4.5 sur 5 (3 évaluations)

Utilisez le test t ou le test z pour un échantillon pour comparer la moyenne d'un échantillon à une référence.

Quel test pour comparer deux moyennes ?

Pour comparer deux moyennes, il faut habituellement employer le test «T» de Student, qui suppose la normalité des distributions et l'égalité des variances (test paramétrique), hypothèses invérifiables avec des effectifs faibles.

Comment savoir quel test statistique utilisé ?

Pour les données qui suivent une loi normale, nous privilégions toujours les tests paramétriques. C'est à dire le test T de Student et l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques tel que le test de Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.

Quand utiliser le test de Duncan ?

Duncan en 1955. Ce test post-hoc ou test de comparaisons multiples peut être utilisé pour déterminer les différences significatives entre les moyennes des groupes dans une analyse de variance.

Quand utiliser le test t ?

Le test T est une statistique inférentielle utilisée pour évaluer les différences entre les moyennes de deux groupes. Le test T est généralement utilisé lorsque les ensembles de données suivent une distribution normale et peuvent avoir des variances inconnues.

Tests d'Hypothèse comparant 2 moyennes

Trouvé 34 questions connexes

Quand faire le test de Mann-whitney ?

Le test U de Mann-Whitney est donc le pendant non paramétrique du test t pour échantillons indépendants ; il est soumis à des hypothèses moins strictes que le test t. Par conséquent, le test U de Mann-Whitney est toujours utilisé lorsque la condition de distribution normale du test t n'est pas remplie.

Quel est le but du test de Student ?

Le test de Student cas d'un seul échantillon est aussi appelé test de conformité, ce test a pour but de vérifier si notre échantillon provient bien d'une population avec la moyenne spécifiée, µ0, ou s'il y a une différence significative entre la moyenne de l'échantillon et la moyenne présumée de la population.

Pourquoi faire le test de Fisher ?

Une approche utilisée dans R avec la fonction "fisher. test" calcule la valeur p en sommant les probabilités de toutes les tables ayant une probabilité inférieure ou égale à celle de la table observée. Le test permet de rejeter l'indépendance entre le sexe et le fait de faire un régime.

Quand on utilise le test ANOVA ?

L'analyse de la variance (ANOVA) est très utilisée en statistique et dans le domaine des études marketing. Cette méthode analytique puissante sert à mettre en avant des différences ou des dépendances entre plusieurs groupes statistiques.

Quand utiliser le test de Shapiro ?

Le test de Shapiro-Wilk. Un des tests permettant de vérifier la normalité de la variable x est le test de Shapiro-Wilk. Il est appliquable pour des échantillons allant jusqu'à 50 valeurs. Il utilise le rapport de deux estimations de la variance.

Quels sont les tests statistiques les plus utilisés ?

  • Test des signes (K=2)
  • Test T de Wilcoxon (K=2)
  • ANOVA de Friedman.
  • Test de Page (alternatives ordonnées)
  • Test de McNemar (K=2, variables binaires)
  • Test Q de Cochran (variables binaires)

Quel test pour comparer deux variables qualitatives ?

Il s'agit du test de Kruskal-Wallis, mesure de l'association entre deux variables qualitatives. Le croisement de deux questions qualitatives produit un tableau que l'on désigne généralement par « tableau de contingence ».

Comment comparer deux échantillons ?

L'idée. Si on souhaite comparer deux échantillons (i.i.d) gaussiens, il nous suffit en fait de comparer leurs paramètres : leur moyenne μ1 et μ2, et leur variance σ21 et σ22. La méthodologie la plus classique est d'effectuer de manière séquentielle : Un test d'égalité des variances.

Comment savoir si deux moyennes sont significativement différentes ?

Si la borne inférieure et la borne supérieure sont positives, alors les deux moyennes sont significativement différentes et la moyenne du sondage 1 est supérieure à celle du sondage 2.

Quand utiliser le test de McNemar ?

Le test de McNemar permet de déterminer si des proportions appariées sont différentes. Vous pouvez par exemple l'utiliser pour déterminer si un programme de formation à un effet sur la proportion de participants qui répondent correctement à une question.

Quand faire un test de Kruskal-wallis ?

Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.

Quand utiliser ANOVA 2 ?

L'ANOVA à 2 facteurs est généralement employée pour analyser les résultats d'une expérimentation dans laquelle des individus, ou des unités expérimentales, ont été exposées, de façon aléatoire (randomisée), à l'une des combinaisons (ou croisement) des modalités des deux variables catégorielles.

Quand utiliser le test de Bartlett ?

Le test de Bartlett peut être utilisé pour comparer deux variances ou plus. Ce test est sensible à la normalité des données. Autrement dit, si l'hypothèse de normalité des données semble fragile, on utilisera plutôt le test de Levene ou de Fisher.

Quel est le résultat d'un test ANOVA ?

ANOVA teste l'homogénéité de la moyenne de la variable quantitative étudiée sur les différentes valeurs de la variable qualitative. L'analyse de la variance, si elle aboutit à un résultat éloigné de zéro, permet de rejeter l'hypothèse nulle : la variable qualitative influe effectivement sur la variable quantitative.

Quand utiliser Fisher ou Student ?

Or selon la théorie il faut faire un test de Fisher lorsque la présence de racine unitaire n'est pas rejetée (p. value > 5%). Dans le cas contraire, le test convenable est en principe celui de student pour tester uniquement la significativité de la tendance ou de la constante.

Comment faire un test de Friedman ?

Il se calcule comme suit : W = X2/N(K-1) ; où W est la valeur W de Kendall ; X2 est la valeur statistique du test de Friedman ; N est la taille de l'échantillon.

Comment interpréter le test de Levene ?

Si la valeur p du test de Levene est supérieure à 0,05, alors les variances ne sont pas significativement différentes les unes des autres (c'est-à-dire que l'hypothèse d'homogénéité de la variance est satisfaite).

Pourquoi faire un test de normalité ?

En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d'adéquation (ou tests d'ajustement, tests permettant de comparer des distributions), appliqués à une loi normale.

Comment savoir si 2 échantillons sont indépendants ?

Quelle est la différence entre des échantillons dépendants et indépendants ?
  1. Si les valeurs d'un échantillon influencent les valeurs de l'autre, les échantillons sont dépendants.
  2. Si les valeurs d'un échantillon n'apportent aucune information concernant celles de l'autre, les échantillons sont indépendants.

Comment savoir si test paramétrique ou non paramétrique ?

Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...). Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.