Pour les données qui suivent une loi normale, nous privilégions toujours les tests paramétriques. C'est à dire le test T de Student et l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques tel que le test de Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.
Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...); Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.
Les tests paramétriques sont des tests statistiques qui permettent de mesurer de degré d'association entre une variable quantitative et une variable catégorielle. Rappelons qu'une variable catégorielle est une variable qui différencie les individus en groupes.
Si H0 est vraie, alors la kinésithérapie est inefficace, le taux de guérison sera identique dans les 2 groupes. Si H1 est vraie, alors la kinésithérapie est efficace ou délétère, le taux de guérison sera différent entre les 2 groupes.
Les trois tests de corrélation les plus utilisés sont ceux de Spearman, Kendall et Pearson. Les deux premiers sont des tests non-paramétriques que l'on peut également appliquer sur des variables qualitatives ordinales.
Par exemple, si vous voulez comparer une moyenne observée à une valeur théorique : Vous souhaitez comparer la moyenne des notes en mathématiques d'une classe à la moyenne du pays ? Dans ce cas nous allons utiliser un test paramétrique car nous pouvons supposer que les données suivent une distribution normale.
La corrélation de Spearman est une mesure de corrélation qui mesure une relation de monotonie entre deux variables à partir du rang des données. Un exemple de détermination du rang des données est : [58,70,40] devient [2,1,3]. On utilise souvent la corrélation de Spearman pour des données constituées d'outliers.
On doit considérer trois tests: unilatéral à gauche: la valeur de H1 est significativement plus petite que la valeur de H0. bilatéral: la valeur de H1 est significativement différente de la valeur de H0, soit qu'elle est plus grande, soit qu'elle est plus petite.
on calcule la probabilité observée : p=kn. p = k n . on calcule l'écart du test : t=|p−p0|√p(1−p)√n.
Les tests paramétriques sont des tests dont l'échantillon que nous étudions suit une certaine loi (loi normale par exemple) ou vérifie un certain nombre d'hypothèses (même variance entre les deux échantillons donnés). Ils sont plus puissants mais nécessitent un certain nombre d'hypothèses à vérifier.
Lorsque les échantillons peuvent être considérés indépendants, on applique le test de Mann et Whitney pour 2 échantillons, celui de Kruskal et Wallis pour un nombre quelconque d'échantillons. Lorsque on a affaire à deux échantillons appariés (c'est-à-dire non indépendants), on applique le test de Wilcoxon.
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
Le test t est utilisé lorsque vous devez trouver la moyenne de la population entre deux groupes, tandis que lorsqu'il y a trois groupes ou plus, vous optez pour le test ANOVA. Le test t et l'ANOVA sont tous deux des méthodes statistiques permettant de tester une hypothèse.
Les méthodes non paramétriques sont utiles lorsque l'hypothèse de normalité ne tient pas et que l'effectif d'échantillon est faible.
Les plus populaires sont l'AIC (Akaike's Information Criterion) et le BIC (ou SBC, Bayesian Information Criterion). Lorsque différents modèles paramétriques sont comparés, le modèle associé à l'AIC ou au BIC le plus faible a la meilleure qualité parmi les modèles comparés.
Le test bilatéral permet de conclure de manière significative aussi bien en cas d'observation d'une différence positive ou d'une différence négative. Il permet donc de conclure, en fonction de ce qu'il sera effectivement observé, soit à la supériorité de A sur B, soit à l'infériorité de A..
Le test de Wilcoxon compare deux séries ou groupes de données d'une même variable quantitative ou semi-quantitative. Il s'applique lorsque nous ne pouvons pas utiliser le test T de Student car les conditions de normalité des données ne sont pas validées.
Le test est dit unilatéral lorsque la nullité de l'hypothèse met en évidence si une valeur est supérieure ou égale au résultat de test (unilatéral gauche) ou inférieure ou égale à ce résultat (unilatéral droit).
En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d'adéquation (ou tests d'ajustement, tests permettant de comparer des distributions), appliqués à une loi normale.
De façon générale, un test d'hypothèse statistique vise à déterminer si une variation observée dans un échantillon de données est compatible avec un modèle “par défaut” (l'hypothèse nulle), ou si les observations sont si improbables selon cette hypothèse nulle qu'elle doit être rejetée au profit d'une hypothèse ...
Pour prendre une décision, choisissez le niveau de significativité α (alpha), avant le test : Si p est inférieur ou égal à α, rejetez H0. Si p est supérieur à α, ne rejetez pas H0 (en principe, vous n'acceptez jamais l'hypothèse H0, mais vous vous contentez de ne pas la rejeter)
Par exemple, vous pouvez utiliser une corrélation de Pearson afin d'évaluer si les augmentations de température sur votre site de production sont associées à la diminution de l'épaisseur de votre enrobage de chocolat. La corrélation de Spearman évalue la relation monotone entre deux variables continues ou ordinales.
Si les variables sont ordinales, discrètes ou qu'elles ne suivent pas une loi normale, on utilise la corrélation de Spearman. Cette corrélation n'utilise pas les valeurs des données mais leur RANG. L'interprétation du coefficient de corrélation obtenu reste la même que lorsqu'on utilise une corrélation de Pearson.
Le coefficient de Pearson est calculé à partir des données brutes des variables numériques. Le Rho de Spearman est calculé sur les rangs d'échelles ordinales. Dans l'exemple suivant, la note de convivialité la plus haute voit s'attribuer le rang 1 ; la suivante, par ordre décroissant, le rang 2 ; etc.