L'ANOVA à 2 facteurs est généralement employée pour analyser les résultats d'une expérimentation dans laquelle des individus, ou des unités expérimentales, ont été exposées, de façon aléatoire (randomisée), à l'une des combinaisons (ou croisement) des modalités des deux variables catégorielles.
La two-way anova nous permet ainsi d'évaluer l'effet principale de chacune des variables indépendantes mais aussi d'évaluer s'il existe une interaction entre elles. L'ANOVA (One-way ou two-way) nous permet donc de tester l'existence d'une différence significative entre deux ou plusieurs groupes.
L'ANOVA univariée ne s'utilise que lorsque l'on étudie un seul facteur et une seule variable dépendante. Pour comparer les moyennes de trois groupes ou plus, elle indique si au moins une paire de moyennes est significativement différente, mais elle n'indique pas laquelle.
L'ANOVA sur mesures répétées est utilisée pour l'analyse de données lorsque les mêmes sujets sont mesurés plus d'une fois. Ce test est également appelé ANOVA intra-sujets ou ANOVA sur mesures répétées.
Le test t est utilisé lorsque vous devez trouver la moyenne de la population entre deux groupes, tandis que lorsqu'il y a trois groupes ou plus, vous optez pour le test ANOVA. Le test t et l'ANOVA sont tous deux des méthodes statistiques permettant de tester une hypothèse.
Pour les données qui suivent une loi normale, nous privilégions toujours les tests paramétriques. C'est à dire le test T de Student et l'ANOVA. Si cette condition n'est pas remplie, nous devons utiliser des tests non paramètriques tel que le test de Wilcoxon, test de Mann Whitney ou un Kruskal Wallis.
Il existe principalement deux types d'ANOVA : à un facteur et à deux facteurs. Les deux tests ANOVA diffèrent l'un de l'autre par le nombre de variables indépendantes. L'ANOVA à un facteur implique qu'il n'y a qu'une variable indépendante.
Le principe de l'ANOVA sur mesures répétées est simple, on va effectuer T ANOVA classique sur chaque répétition t1,…, tT et ensuite on va tester la sphéricité de la matrice de covariance entre les répétitions en utilisant le test de Mauchly et les epsilons de Greenhouse-Geisser et Huynt-Feldt.
En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de conclure à tort qu'une différence existe. Valeur de p ≤ α : les différences entre certaines moyennes sont statistiquement significatives.
Évaluer les moyennes par l'analyse de la variation
L'ANOVA utilise le test F pour déterminer si la variabilité entre les moyens de groupe est plus grande que la variabilité des observations à l'intérieur des groupes. Si ce rapport est suffisamment élevé, vous pouvez conclure que toutes les moyennes ne sont pas égales.
C'est la somme des carrés des écarts par rapport à la moyenne / nombre de degrés de liberté = SCE/ddl (ceci lorsque le nombre d'individus composant l'échantillon est réduit ; sinon, utiliser N'=N).
Le test de Kruskal-Wallis est un test non paramétrique à utiliser lorsque vous êtes en présence de k échantillons indépendants, afin de déterminer si les échantillons proviennent d'une même population ou si au moins un échantillon provient d'une population différente des autres.
Paramétrer une ANOVA à mesures répétées
Une fois XLSTAT lancé, choisissez la commande XLSTAT / Modélisation / ANOVA à mesures répétées ou cliquez sur le bouton ANOVA à mesures répétées de la barre d'outils Modélisation. Une fois le bouton cliqué, la boîte de dialogue correspondant à l'ANOVA à mesures répétées apparaît.
Il existe un autre test non paramétrique permettant de comparer plus de 2 échantillons et qui est en fait la généralisation du test de Mann-Whitney. Il s'agit du test de Kruskal-Wallis, mesure de l'association entre deux variables qualitatives.
En statistique, un facteur de confusion, ou facteur confondant, ou encore variable confondante, est une variable aléatoire qui influence à la fois la variable dépendante et les variables explicatives. Ces facteurs sont notamment à l'origine de la différence entre corrélation et causalité (Cum hoc ergo propter hoc).
La variance est une mesure de dispersion. Elle saisit dans quelle mesure les données se situent autour de la moyenne. Si nous avons des données très supérieures et très inférieures à la moyenne, la moyenne sera moins représentative, ce qui se traduira par une variance élevée.
Le terme « plans d'expériences » fait référence à une technique permettant aux scientifiques et aux ingénieurs d'évaluer efficacement l'effet de multiples variables d'entrée (ou facteurs) sur les mesures de performances (ou réponses).
La formule de la variance est V= ( Σ (x-μ)² ) / N. On démontre que V= ( (Σ x²) / N ) - μ². Cette formule est plus simple à appliquer si on calcule la variance à la main.
La variance croît avec la dispersion. Comme tous les paramètres, elle a un défaut ... elle est sensible aux valeurs extrêmes et croît démesurément en cas de valeurs très exeptionnelles.
Duncan en 1955. Ce test post-hoc ou test de comparaisons multiples peut être utilisé pour déterminer les différences significatives entre les moyennes des groupes dans une analyse de variance.
Les variables peuvent être classées en deux catégories principales : les catégoriques et les variables numériques. Chacune des catégories se sépare en deux sous-catégories : nominale et ordinales pour les variables catégoriques, discrètes et continues pour les variables numériques.
On distingue divers types de variables selon la nature des données. Ainsi, une variable peut être qualitative ou quantitative; une variable qualitative peut être nominale ou ordinale, alors qu'une variable quantitative peut être continue ou discrète.
Test unilatéral : test statistique pour lequel on prend comme hypothèse alternative l'existence d'une différence dont le sens est connu. Test bilatérale : test statistique pour lequel on prend, comme hypothèse alternative, l'existence d'une différence, dans un sens ou l'autre.
Le test du Chi2 consiste à mesurer l'écart entre une situation observée et une situation théorique et d'en déduire l'existence et l'intensité d'une liaison mathématique. Par exemple, en théorie il y a autant de chance d'obtenir « pile » que « face » au lancer d'une pièce de monnaie, en pratique il n'en est rien.