Pour un test unilatéral à droite sur une variable à valeurs dans N (le cas le plus fréquent) il faudra calculer 1 − F0(t − 1). Supposons par exemple que la loi de T soit la loi binomiale B(100,0.5), la p-valeur de 60 est la probabilité que T soit supérieure ou égale à 60, à savoir : 1 − FB(100,0.5)(59) = 0.0359.
Le test est dit unilatéral lorsque la nullité de l'hypothèse met en évidence si une valeur est supérieure ou égale au résultat de test (unilatéral gauche) ou inférieure ou égale à ce résultat (unilatéral droit).
Il s'agit alors d'un test bilatéral, le 5% se répartit aux deux extrémités. En examinant l'emplacement du triangle, on constate que le le premier est dans la zone de l'hypothse nulle et que dans les deux autres cas, l'emplacement du triangle conduit à rejeter l'hypothèse nulle et à accepter l'hypothèse alternative.
La construction d'un test d'hypothèse consiste en fait à déterminer entre quelles valeurs peut varier la variable aléatoire, en supposant l'hypothèse vraie, sur la seule considération du hasard de l'échantillonnage.
Le test unilatéral permet de conclure de manière significative uniquement en cas d'observation d'une différence négative. Il ne permet donc de conclure qu'à la supériorité de A sur B. Pout toutes les autres valeurs de différences observées, le résultat est non significatif.
H0 est opposée à une hypothèse appelée hypothèse alternative, notée H1 ou Ha. Souvent, l'hypothèse alternative est celle à laquelle l'utilisateur souhaite aboutir. Elle implique une notion de différence (différence entre moyennes par exemple). Si les données ne vont pas assez à l'encontre de H0, H0 n'est pas rejetée.
Il s'agit du test de Kruskal-Wallis, mesure de l'association entre deux variables qualitatives. Le croisement de deux questions qualitatives produit un tableau que l'on désigne généralement par « tableau de contingence ».
Lorsque l'un des effectifs théoriques est inférieur à 5 ou lorsque les sommes marginales du jeu de données réel sont très déséquilibrées, il est préférable de se fier au test exact de Fisher.
Pour calculer le test de Wilcoxon pour deux échantillons dépendants, on calcule d'abord la différence entre les valeurs dépendantes. Une fois les différences calculées, les valeurs absolues des différences sont utilisées pour former les classements.
Avant l'opération de collecte des données, si nous ignorons le côté (droit ou gauche) de la cloche où la statistique se positionnerait sous l'hypothèse alternative, les deux côtés de la cloche sont considérés. On parle alors d'hypothèse alternative bilatérale.
Corrélation entre variables qualitatives
Si vous cherchez à étudier la relation entre deux ou plusieurs variables qualitatives, il faut utiliser le test de Khi-2 d'indépendance. Ce test a le même principe et les mêmes calculs que le test du Khi-2 de comparaison de pourcentages.
La principale différence entre les tests unilatéraux et bilatéraux est que les tests unilatéraux n'auront qu'une seule région critique tandis que les tests bilatéraux auront deux régions critiques . Si nous avons besoin d'un intervalle de confiance de 100(1−α) 100 ( 1 − α ) %, nous devons procéder à quelques ajustements lors de l'utilisation d'un test bilatéral.
Pour prendre une décision, choisissez le niveau de significativité α (alpha), avant le test : Si p est inférieur ou égal à α, rejetez H0. Si p est supérieur à α, ne rejetez pas H0 (en principe, vous n'acceptez jamais l'hypothèse H0, mais vous vous contentez de ne pas la rejeter)
A two-tailed test will test both if the mean is significantly greater than x and if the mean significantly less than x. The mean is considered significantly different from x if the test statistic is in the top 2.5% or bottom 2.5% of its probability distribution, resulting in a p-value less than 0.05.
Le test du Khi2 peut être employé si tous les effectifs théoriques sont >5. Si au moins un effectif théorique est <5 alors, le test du Khi2 avec correction de Yates, ou bien le test exact de Fisher doivent être employés.
Le test U de Mann-Whitney est donc le pendant non paramétrique du test t pour échantillons indépendants ; il est soumis à des hypothèses moins strictes que le test t. Par conséquent, le test U de Mann-Whitney est toujours utilisé lorsque la condition de distribution normale du test t n'est pas remplie.
Le test de Bartlett peut être utilisé pour comparer deux variances ou plus. Ce test est sensible à la normalité des données. Autrement dit, si l'hypothèse de normalité des données semble fragile, on utilisera plutôt le test de Levene ou de Fisher.
L'analyse de la variance (ANOVA) est très utilisée en statistique et dans le domaine des études marketing. Cette méthode analytique puissante sert à mettre en avant des différences ou des dépendances entre plusieurs groupes statistiques.
Le test de McNemar permet de déterminer si des proportions appariées sont différentes. Vous pouvez par exemple l'utiliser pour déterminer si un programme de formation à un effet sur la proportion de participants qui répondent correctement à une question.
Le rapport de corrélation est un indicateur statistique qui mesure l'intensité de la liaison entre une variable quantitative et une variable qualitative. la moyenne globale. Si le rapport est proche de 0, les deux variables ne sont pas liées. Si le rapport est proche de 1, les variables sont liées.
Définitions. Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...); Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.
Un test est dit statistiquement significatif lorsque le risque quantifié de se tromper, nommé p-valeur, est inférieur à un niveau de signification alpha. Pour être plus précis, la valeur-p est la probabilité d'obtenir une donnée aussi extrême sous l'hypothèse nulle.
Les tests non paramétriques sont donc utilisés lorsque le niveau d'échelle n'est pas métrique, que la distribution réelle des variables aléatoires n'est pas connue ou que l'échantillon est simplement trop petit pour supposer une distribution normale.