Résumons : on utilise le test z soit lorsque l'échantillon est grand, soit lorsque la vraie variance de la population est connue. Les deux différences avec le test t sont la référence à la distribution normale et l'emploi de l'écart-type empirique.
Test unilatéral : test statistique pour lequel on prend comme hypothèse alternative l'existence d'une différence dont le sens est connu. Test bilatérale : test statistique pour lequel on prend, comme hypothèse alternative, l'existence d'une différence, dans un sens ou l'autre. pA ≠ pB (pA < pB ou pA > pB).
Les méthodes non paramétriques sont utiles lorsque l'hypothèse de normalité ne tient pas et que l'effectif d'échantillon est faible. Cela dit, dans les tests non paramétriques, vos données reposent également sur des hypothèses.
Si les données des échantillons suivent une loi normale, les tests à privilégier sont les tests paramétriques. C'est le cas du test T de Student et de l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.
Pour comparer deux moyennes, il faut habituellement employer le test «T» de Student, qui suppose la normalité des distributions et l'égalité des variances (test paramétrique), hypothèses invérifiables avec des effectifs faibles.
Le test du Chi2 consiste à mesurer l'écart entre une situation observée et une situation théorique et d'en déduire l'existence et l'intensité d'une liaison mathématique. Par exemple, en théorie il y a autant de chance d'obtenir « pile » que « face » au lancer d'une pièce de monnaie, en pratique il n'en est rien.
Le test t est un test d'hypothèse statistique utilisé pour comparer les moyennes de deux groupes de population. L'ANOVA est une technique d'observation utilisée pour comparer les moyennes de plus de deux groupes de population.
Définitions. Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...); Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.
ANOVA permet de déterminer si la différence entre les valeurs moyennes est statistiquement significative. ANOVA révèle aussi indirectement si une variable indépendante influence la variable dépendante.
Utilisez des tests paramétriques lorsque : Vos données suivent une distribution normale. Vous avez des variances égales entre les groupes. Vous voulez une puissance statistique plus élevée.
Les tests de Mann-Whitney servent à vérifier que deux échantillons d'une population ont une position équivalente. Les observations des deux groupes sont combinées et ordonnées, et il leur est attribué un rang moyen en cas d'ex aequo. Le nombre d'ex aequo doit être petit par rapport au nombre total d'observations.
Le test U de Mann-Whitney est donc le pendant non paramétrique du test t pour échantillons indépendants ; il est soumis à des hypothèses moins strictes que le test t. Par conséquent, le test U de Mann-Whitney est toujours utilisé lorsque la condition de distribution normale du test t n'est pas remplie.
Le test U est la plus puissante (ou la plus sensible) des alternatives non-paramétriques au test t pour des échantillons indépendants ; en fait, dans certains cas, ce test sera même plus puissant que le test t pour rejeter l'hypothèse nulle.
Si p est inférieur ou égal à α, rejetez H0. Si p est supérieur à α, ne rejetez pas H0 (en principe, vous n'acceptez jamais l'hypothèse H0, mais vous vous contentez de ne pas la rejeter)
Cela s'articule habituellement autour de l'hypothèse nulle (H0): si on accepte l'hypothèse nulle, l'hypothèse alternative (H1) est infirmée; inversement, si on rejette l'hypothèse nulle, l'hypothèse alternative est confirmée.
Quelles sont mes possibilités ? Si vous n'avez qu'une seule variable de mesure, vous utilisez untest du khi-deux de qualité de l'ajustement. Si vous avez deux variables de mesure, vous utilisez un test du khi-deux d'indépendance. Il existe d'autres tests du khi-deux, mais ces deux-là sont les plus courants.
Le test de Student est un outil permettant de vérifier une hypothèse formulée sur un jeu de données. Il est principalement utilisé lorsque l'on sait que l'échantillon de données est supposé suivre une loi normale, comme lorsque l'on joue 100 fois de suite au pile ou face.
Il peut être utilisé dans le cadre d'une ANOVA ou bien sur des données brutes pour évaluer par exemple si des moyennes sont significativement différentes l'une de l'autre.
Quel est l'avantage d'utiliser un test paramétrique ? Les tests paramétriques sont, eux, plus puissants en général que leurs équivalents non-paramétriques. Autrement dit, un test paramétrique sera plus apte à aboutir à un rejet de H0, si ce rejet est justifié.
Lorsque les échantillons peuvent être considérés indépendants, on applique le test de Mann et Whitney pour 2 échantillons, celui de Kruskal et Wallis pour un nombre quelconque d'échantillons. Lorsque on a affaire à deux échantillons appariés (c'est-à-dire non indépendants), on applique le test de Wilcoxon.
Le test de Kruskal-Wallis est une alternative non-paramétrique à l'ANOVA d'ordre Un (inter-groupes). Il est utilisé pour comparer au moins trois échantillons, et tester l'hypothèse nulle suivant laquelle les différents échantillons à comparer sont issus de la même distribution ou de distributions de même médiane.
Le test de Shapiro-Wilk (W) est utilisé pour tester la normalité. Si la statistique W est significative, il faut alors rejeter l'hypothèse selon laquelle la distribution correspondante est normale.
Statistique du test de Bartlett
Pour ces tests, l'hypothèse nulle est que les variances sont égales et l'hypothèse alternative est que les variances ne sont pas égales. Utilisez le test de Bartlett lorsque les données sont issues de lois normales ; ce test n'est pas robuste en cas d'écart par rapport à la normalité.
Il existe différents types de tests post hoc
Les tests post hoc les plus courants sont les suivants : Procédure Bonferroni : Il est possible d'effectuer plusieurs tests statistiques en même temps en utilisant cette correction post hoc de comparaison multiple.