Le test du t de Student s'applique lorsque l'objectif est soit de comparer deux moyennes entre elles, soit de comparer une moyenne contre une constante. Type des informations disponibles : Les valeurs mesurées doivent être numériques, faute de quoi l'idée même de moyenne n'a pas de sens.
Un test-t de Student a montré que la différence était statistiquement significative, t(38) = -20,8, p < 0,0001, d = 6,57 ; où, t(38) est la notation abrégée pour une statistique t de Student qui a 38 degrés de liberté.
Par exemple, si vous voulez comparer une moyenne observée à une valeur théorique : Vous souhaitez comparer la moyenne des notes en mathématiques d'une classe à la moyenne du pays ? Dans ce cas nous allons utiliser un test paramétrique car nous pouvons supposer que les données suivent une distribution normale.
Les méthodes non paramétriques sont utiles lorsque l'hypothèse de normalité ne tient pas et que l'effectif d'échantillon est faible. Cela dit, dans les tests non paramétriques, vos données reposent également sur des hypothèses.
Les tests paramétriques supposent que les données suivent une distribution spécifique (généralement normale), tandis que les tests non paramétriques ne font aucune hypothèse sur la distribution.
Les tests de Mann-Whitney servent à vérifier que deux échantillons d'une population ont une position équivalente. Les observations des deux groupes sont combinées et ordonnées, et il leur est attribué un rang moyen en cas d'ex aequo. Le nombre d'ex aequo doit être petit par rapport au nombre total d'observations.
Les tests à appliquer sont: test T de Student, ANOVA, test de Wilcoxon ou test de Kruskal Wallis. Si le critère est de type qualitatif. Exemple « comparaison du taux de guérison entre deux groupes de patients ». Dans ce cas la grandeur étudiée est la fréquence et le pourcentage.
Lorsque les échantillons peuvent être considérés indépendants, on applique le test de Mann et Whitney pour 2 échantillons, celui de Kruskal et Wallis pour un nombre quelconque d'échantillons. Lorsque on a affaire à deux échantillons appariés (c'est-à-dire non indépendants), on applique le test de Wilcoxon.
L'ANOVA est un test unilatéral en raison de l'absence de variance négative. Le test t est utilisé lorsque la population est inférieure à 30. L'ANOVA est utilisée pour les populations très nombreuses.
si 0.05 ≥ p > 0.01 : la différence x − m0 est significative ; si 0.01 ≥ p > 0.001 : la différence x − m0 est hautement significative ; si p ≤ 0.001 : la différence x − m0 est très hautement significative.
Vous utilisez un test du khi-deux pour tester des hypothèses afin de déterminer si les données sont conformes aux attentes. L'idée de base qui sous-tend le test est de comparer les valeurs observées dans vos données aux valeurs attendues si l'hypothèse nulle est vraie.
Le test de Student est un outil permettant de vérifier une hypothèse formulée sur un jeu de données. Il est principalement utilisé lorsque l'on sait que l'échantillon de données est supposé suivre une loi normale, comme lorsque l'on joue 100 fois de suite au pile ou face.
Si p est inférieur ou égal à α, rejetez H0. Si p est supérieur à α, ne rejetez pas H0 (en principe, vous n'acceptez jamais l'hypothèse H0, mais vous vous contentez de ne pas la rejeter)
L'ANOVA est une technique de statistique inférentielle élaborée pour tester l'existence d'une relation significative entre deux variables dans deux ou plusieurs groupes.
Lorsque l'un des effectifs théoriques est inférieur à 5 ou lorsque les sommes marginales du jeu de données réel sont très déséquilibrées, il est préférable de se fier au test exact de Fisher.
En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de conclure à tort qu'une différence existe. Si la valeur de p est inférieure ou égale au seuil de signification, vous pouvez rejeter l'hypothèse nulle.
Il peut être utilisé dans le cadre d'une ANOVA ou bien sur des données brutes pour évaluer par exemple si des moyennes sont significativement différentes l'une de l'autre.
Le test du Chi2 consiste à mesurer l'écart entre une situation observée et une situation théorique et d'en déduire l'existence et l'intensité d'une liaison mathématique. Par exemple, en théorie il y a autant de chance d'obtenir « pile » que « face » au lancer d'une pièce de monnaie, en pratique il n'en est rien.
Pour savoir si la distribution des réponses de deux variables qualitatives est due au hasard ou si elle révèle une liaison entre elles, on utilise généralement le test du Khi2 dit «Khi-deux».
Le test de Kruskal-Wallis est une alternative non paramétrique au test ANOVA à un facteur. Il étend le test de Wilcoxon à deux échantillons dans les cas où il y a plus de deux groupes à comparer. Il est recommandé lorsque les hypothèses du test ANOVA, à un facteur, ne sont pas respectées.
Le test de Kruskal-Wallis est une alternative non-paramétrique à l'ANOVA d'ordre Un (inter-groupes). Il est utilisé pour comparer au moins trois échantillons, et tester l'hypothèse nulle suivant laquelle les différents échantillons à comparer sont issus de la même distribution ou de distributions de même médiane.
Pour calculer le test de Wilcoxon pour deux échantillons dépendants, on calcule d'abord la différence entre les valeurs dépendantes. Une fois les différences calculées, les valeurs absolues des différences sont utilisées pour former les classements.