Une analyse post hoc est réalisée après avoir vu le résultat principal de l'étude. Ces tests permettent de déterminer entre quels groupes se situent la ou les différences.
Afin de déterminer d'où viennent les différences, un test post hoc est utilisé après avoir trouvé un résultat statistiquement significatif. Les tests post hoc peuvent être utilisés pour évaluer les différences entre plusieurs groupes tout en évitant les erreurs dues à l'expérience.
L'ANOVA univariée est généralement utilisée lorsque l'on a une seule variable indépendante, ou facteur, et que l'objectif est de vérifier si des variations, ou des niveaux différents de ce facteur ont un effet mesurable sur une variable dépendante.
Duncan en 1955. Ce test post-hoc ou test de comparaisons multiples peut être utilisé pour déterminer les différences significatives entre les moyennes des groupes dans une analyse de variance.
Le test t est utilisé lorsque vous devez trouver la moyenne de la population entre deux groupes, tandis que lorsqu'il y a trois groupes ou plus, vous optez pour le test ANOVA. Le test t et l'ANOVA sont tous deux des méthodes statistiques permettant de tester une hypothèse.
Le test T est une statistique inférentielle utilisée pour évaluer les différences entre les moyennes de deux groupes. Le test T est généralement utilisé lorsque les ensembles de données suivent une distribution normale et peuvent avoir des variances inconnues.
Pour les données qui suivent une loi normale, nous privilégions toujours les tests paramétriques. C'est à dire le test T de Student et l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques tel que le test de Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.
Une analyse post hoc est réalisée après avoir vu le résultat principal de l'étude. Ces tests permettent de déterminer entre quels groupes se situent la ou les différences.
Une approche utilisée dans R avec la fonction "fisher. test" calcule la valeur p en sommant les probabilités de toutes les tables ayant une probabilité inférieure ou égale à celle de la table observée. Le test permet de rejeter l'indépendance entre le sexe et le fait de faire un régime.
Etant une alternative non paramétrique à l'ANOVA sur mesures répétées, le test de Friedman doit être employé lorsque l'hypothèse de normalité des résidus n'est pas satisfaite. Cette situation se rencontre classiquement lorsque la variable réponse est un score, ou encore une variable ordinale comme un classement.
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
La two-way anova nous permet ainsi d'évaluer l'effet principale de chacune des variables indépendantes mais aussi d'évaluer s'il existe une interaction entre elles. L'ANOVA (One-way ou two-way) nous permet donc de tester l'existence d'une différence significative entre deux ou plusieurs groupes.
L'ANOVA à 2 facteurs est généralement employée pour analyser les résultats d'une expérimentation dans laquelle des individus, ou des unités expérimentales, ont été exposées, de façon aléatoire (randomisée), à l'une des combinaisons (ou croisement) des modalités des deux variables catégorielles.
Le test de Kruskal-Wallis n'apporte pas de réponse à la question de savoir lequel des groupes diffère ; un test post-hoc est nécessaire à cet effet. À cette fin, le test de Dunn est le test non paramétrique approprié pour la comparaison multiple par paire.
Il peut être utilisé dans le cadre d'une ANOVA ou bien sur des données brutes pour évaluer par exemple si des moyennes sont significativement différentes l'une de l'autre.
Si la valeur p du test de Levene est supérieure à 0,05, alors les variances ne sont pas significativement différentes les unes des autres (c'est-à-dire que l'hypothèse d'homogénéité de la variance est satisfaite).
Or selon la théorie il faut faire un test de Fisher lorsque la présence de racine unitaire n'est pas rejetée (p. value > 5%). Dans le cas contraire, le test convenable est en principe celui de student pour tester uniquement la significativité de la tendance ou de la constante.
Le test de Bartlett peut être utilisé pour comparer deux variances ou plus. Ce test est sensible à la normalité des données. Autrement dit, si l'hypothèse de normalité des données semble fragile, on utilisera plutôt le test de Levene ou de Fisher.
Il se calcule comme suit : W = X2/N(K-1) ; où W est la valeur W de Kendall ; X2 est la valeur statistique du test de Friedman ; N est la taille de l'échantillon.
La méthode HSD de Tukey calcule la différence minimale entre deux moyennes qui doit être considérée comme statistiquement significative. Cette différence minimale est appelée HSD. Si la différence entre deux moyennes est supérieure à la HSD, alors les deux moyennes sont considérées comme significativement différentes.
La correction de Bonferroni est une méthode largement utilisée pour ajuster le niveau de signification pour les comparaisons multiples afin de contrôler le taux d'erreur de type I global.
Test unilatéral : test statistique pour lequel on prend comme hypothèse alternative l'existence d'une différence dont le sens est connu. Test bilatérale : test statistique pour lequel on prend, comme hypothèse alternative, l'existence d'une différence, dans un sens ou l'autre.
Il s'agit du test de Kruskal-Wallis, mesure de l'association entre deux variables qualitatives. Le croisement de deux questions qualitatives produit un tableau que l'on désigne généralement par « tableau de contingence ».
Le test du Chi2 consiste à mesurer l'écart entre une situation observée et une situation théorique et d'en déduire l'existence et l'intensité d'une liaison mathématique. Par exemple, en théorie il y a autant de chance d'obtenir « pile » que « face » au lancer d'une pièce de monnaie, en pratique il n'en est rien.