Notez que MANOVA est approprié dans des situations expérimentales, où nous avons plusieurs variables-réponses (variables-dépendantes) qui mesurent tous différents aspects d'un thème cohésif. Par exemple, plusieurs notes d'examen pour avoir une mesure du niveau global de rendement scolaire.
La MANOVA est aussi utilisée pour identifier des interactions entre les variables dépendantes et entre les variables indépendantes.
L'ANOVA univariée est généralement utilisée lorsque l'on a une seule variable indépendante, ou facteur, et que l'objectif est de vérifier si des variations, ou des niveaux différents de ce facteur ont un effet mesurable sur une variable dépendante.
L'ANOVA utilise le test F pour déterminer si la variabilité entre les moyens de groupe est plus grande que la variabilité des observations à l'intérieur des groupes. Si ce rapport est suffisamment élevé, vous pouvez conclure que toutes les moyennes ne sont pas égales.
ANOVA teste l'homogénéité de la moyenne de la variable quantitative étudiée sur les différentes valeurs de la variable qualitative. L'analyse de la variance, si elle aboutit à un résultat éloigné de zéro, permet de rejeter l'hypothèse nulle : la variable qualitative influe effectivement sur la variable quantitative.
Le test exact de Fisher calcule la probabilité d'obtenir les données observées (en utilisant une distribution hypergéométrique) ainsi que les probabilités d'obtenir tous les jeux de données encore plus extrêmes sous l'hypothèse nulle. Ces probabilités sont utilisées pour calculer la p-value.
La première étape consiste à formuler l'hypothèse nulle d'indépendance entre ces deux variables qualitatives. Si ces deux variables sont indépendantes, on peut alors calculer la probabilité de chaque modalité A1, A2... La probabilité de présenter A1 et B1 est alors égale à P(A1) × P(B1).
A.
Le test statistique est utile lorsqu'il faut trancher entre 2 hypothèses : H0 : hypothèse nulle, elle correspond à une situation de statu quo. H1 : hypothèse alternative, elle correspond à l'hypothèse qu'on veut démontrer.
La significativité statistique, ou seuil de signification, désigne le seuil à partir duquel les résultats d'un test sont jugés fiables. Autrement dit, ce seuil détermine la confiance dans la corrélation entre un test effectué et les résultats obtenus.
On obtient une p-value que l'on compare avec 0,05 (ou tout autre seuil). Si elle est supérieure, on ne rejette pas H0. En cas de variances parfaitement égales, TEST. F donne 1 ; en revanche, plus les variances sont dissemblables, plus la p-value tend vers zéro.
Deux tests statistiques, le test de Student et le test de Wilcoxon, sont généralement employés pour comparer deux moyennes. Il existe cependant des variantes de ces deux tests, pour répondre à différentes situations, comme la non indépendance des échantillons par exemple.
Les plus populaires sont l'AIC (Akaike's Information Criterion) et le BIC (ou SBC, Bayesian Information Criterion). Lorsque différents modèles paramétriques sont comparés, le modèle associé à l'AIC ou au BIC le plus faible a la meilleure qualité parmi les modèles comparés.
S'il génère une valeur p inférieure ou égale au niveau de signification, le résultat est considéré comme statistiquement significatif (et permet de rejeter l'hypothèse nulle). Cela est généralement écrit sous la forme suivante : p≤0,05.
La valeur de p est souvent utilisée dans les tests d'hypothèses, tests qui vous permettent de rejeter, ou non, une hypothèse nulle. Elle représente la probabilité de faire une erreur de type 1, ou de rejeter l'hypothèse nulle si elle est vraie.
Le test-t de Student est un test statistique permettant de comparer les moyennes de deux groupes d'échantillons. Il s'agit donc de savoir si les moyennes des deux groupes sont significativement différentes au point de vue statistique.
Les formulations pour l'hypoth`ese alternative H1 sont : 1. H0 : µ = µ0 (ou µ ≥ µ0) et 2. H0 : µ = µ0 (ou µ ≤ µ0) H1 : µ<µ0 H1 : µ>µ0 (unilatéral `a gauche). (unilatéral `a droite).
On appelle risque alpha le risque de conclure à l'existence d'une différence qui n'existe pas en réalité: en thérapeutique, cela revient à considérer efficace un traitement qui ne l'est pas.
Un test de Student peut être utilisé pour évaluer si un seul groupe diffère d'une valeur connue (test t à un échantillon), si deux groupes diffèrent l'un de l'autre (test t à deux échantillons indépendants), ou s'il existe une différence significative dans des mesures appariées (test de Student apparié ou à ...
Or selon la théorie il faut faire un test de Fisher lorsque la présence de racine unitaire n'est pas rejetée (p. value > 5%). Dans le cas contraire, le test convenable est en principe celui de student pour tester uniquement la significativité de la tendance ou de la constante.
Le test de Student indépendant classique suppose l'homogénéité des variances des deux groupes à comparer. Si les deux échantillons suivent une loi normale, le test F peut être utilisé pour comparer les variances. L'hypothèse nulle (H0) du test F est : “les variances des deux groupes sont égales”.
Les méthodes non paramétriques sont utiles lorsque l'hypothèse de normalité ne tient pas et que l'effectif d'échantillon est faible. Cela dit, dans les tests non paramétriques, vos données reposent également sur des hypothèses.
Pour obtenir le “khi-deux”, on construit un autre tableau, où l'on calcule le carré de la différence entre valeurs observées et valeurs attendues, divisé par les valeurs attendues. On n'a pas encore utilisé la moindre fonction Excel, excepté la fonction SUM pour calculer les totaux en lignes et en colonnes.
En statistique, le test de Wilcoxon-Mann-Whitney (ou test U de Mann-Whitney ou encore test de la somme des rangs de Wilcoxon) est un test statistique non paramétrique qui permet de tester l'hypothèse selon laquelle les distributions de chacun de deux groupes de données sont proches.