En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de conclure à tort qu'une différence existe. Si la valeur de p est inférieure ou égale au seuil de signification, vous pouvez rejeter l'hypothèse nulle.
Table de U, pour alpha inférieur ou égal à 5% La table donne la limite inférieure de U, U étant la plus petite des deux valeurs Uxy ou Uyx; n1 et n2 sont les effectifs des deux séries, n1 étant le plus petit. Le symbole - veut dire que la différence n'est jamais significative (au seuil 5 %).
La procédure Test U de Mann-Whitney utilise le rang de chaque observation pour tester si les groupes sont issus de la même population. Les tests de Mann-Whitney servent à vérifier que deux échantillons d'une population ont une position équivalente.
L'effectif de l'échantillon a une influence sur l'intervalle de confiance et la puissance du test. En général, plus l'échantillon est grand, plus l'intervalle de confiance est étroit. En outre, un effectif d'échantillon plus grand donne au test plus de puissance pour détecter une différence.
2. Le test de Mann-Whitney. le test de Mann-Whitney est l'alternative non paramétrique de t de Student pour deux échantillons indépendants. Lorsque la distribution des valeurs ne suit pas une loi normale, donc dissymétrique, le test t de student ne s'applique pas; il faut utiliser plutôt le test de Mann-Whitney.
Deux échantillons E1 et E2 sont dit appariés lorsque chaque valeur x1,i de E1 est associée à une valeur x2,i de E2 (appariés = associés par paire : variables dépendantes). Par exemple E1 peut être un groupe de malades avant traitement et E2 le groupe des mêmes malades après traitement.
Les tests non-paramétriques ne se basent pas sur des distributions statistiques. Ils peuvent donc être utilisés même si les conditions de validité des tests paramétriques ne sont pas vérifiées. Les tests paramétriques ont souvent des tests non-paramétriques équivalents.
ANOVA teste l'homogénéité de la moyenne de la variable quantitative étudiée sur les différentes valeurs de la variable qualitative. L'analyse de la variance, si elle aboutit à un résultat éloigné de zéro, permet de rejeter l'hypothèse nulle : la variable qualitative influe effectivement sur la variable quantitative.
Les méthodes non paramétriques sont utiles lorsque l'hypothèse de normalité ne tient pas et que l'effectif d'échantillon est faible. Cela dit, dans les tests non paramétriques, vos données reposent également sur des hypothèses.
Lorsque on a affaire à deux échantillons appariés (c'est-à-dire non indépendants), on applique le test de Wilcoxon. Tous ces tests sont dits non paramétriques car ils ne nécessitent pas d'estimation de la moyenne et de la variance.
Grands échantillons et méthodes non-paramétriques. Les méthodes non-paramétriques sont plus appropriées lorsque les échantillons sont de petite taille. Lorsque l'échantillon est assez grand (par exemple, n > 100) les tests non-paramétriques sont souvent inadaptés.
A.
Le test statistique est utile lorsqu'il faut trancher entre 2 hypothèses : H0 : hypothèse nulle, elle correspond à une situation de statu quo. H1 : hypothèse alternative, elle correspond à l'hypothèse qu'on veut démontrer.
Test statistique utilisé lorsque la ou les variables utilisées suivent une distribution prédéterminée. À l'exception du cas où la ou les variables suivent une loi normale, les tests paramétriques requièrent des échantillons de taille importante (> 30 observations).
Lorsque l'un des effectifs théoriques est inférieur à 5 ou lorsque les sommes marginales du jeu de données réel sont très déséquilibrées, il est préférable de se fier au test exact de Fisher.
Seuls tests applicable pour un échantillon de taille inférieure `a 6.
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
Il se calcule comme suit : W = X2/N(K-1) ; où W est la valeur W de Kendall ; X2 est la valeur statistique du test de Friedman ; N est la taille de l'échantillon. k est le nombre de mesures par sujet (M. T. Tomczak and Tomczak 2014).
La significativité statistique, ou seuil de signification, désigne le seuil à partir duquel les résultats d'un test sont jugés fiables. Autrement dit, ce seuil détermine la confiance dans la corrélation entre un test effectué et les résultats obtenus.
Interpréter les résultats d'un test F de Fisher pour comparer la variance de deux échantillons. Les résultats qui apparaissent dans une nouvelle feuille montre qu'il faut rejeter l'hypothèse H0 car la p-value est de 0,009 qui est inférieure à la limite de 0,05.
L'ANOVA utilise le test F pour déterminer si la variabilité entre les moyens de groupe est plus grande que la variabilité des observations à l'intérieur des groupes. Si ce rapport est suffisamment élevé, vous pouvez conclure que toutes les moyennes ne sont pas égales.
Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...); Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.
En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d'adéquation (ou tests d'ajustement, tests permettant de comparer des distributions), appliqués à une loi normale.
En statistique, le test de Wilcoxon-Mann-Whitney (ou test U de Mann-Whitney ou encore test de la somme des rangs de Wilcoxon) est un test statistique non paramétrique qui permet de tester l'hypothèse selon laquelle les distributions de chacun de deux groupes de données sont proches.
Si les valeurs d'un échantillon influencent les valeurs de l'autre, les échantillons sont dépendants. Si les valeurs d'un échantillon n'apportent aucune information concernant celles de l'autre, les échantillons sont indépendants.
* Eta carré (ou η2) correspond à la proportion de variance totale expliquée alors que l'eta carré partiel (fourni notamment par SPSS) est le rapport entre la variabilité due à l'effet considéré et la somme des variabilités (Somme des carrés) due à cet effet d'une part et à l'erreur d'autre part.