L'analyse de variance permet simplement de répondre à la question de savoir si tous les échantillons suivent une même loi normale. Dans le cas où l'on rejette l'hypothèse nulle, cette analyse ne permet pas de savoir quels sont les échantillons qui s'écartent de cette loi.
En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de conclure à tort qu'une différence existe. Valeur de p ≤ α : les différences entre certaines moyennes sont statistiquement significatives.
Analyse de la variance (ANOVA) est une formule statistique utilisée pour comparer les variances entre la ou les moyennes de différents groupes. Elle est utilisée dans de nombreux scénarios pour déterminer s'il existe une différence entre les moyennes de différents groupes.
Si les observations pour chaque groupe sont proches de la moyenne du groupe, la variance à l'intérieur des échantillons est faible. Toutefois, si les observations pour chaque groupe sont plus éloignées de la moyenne du groupe, la variance à l'intérieur des échantillons est plus élevée.
Les tests de l'homogénéité des variances permettent de vérifier si les variances des échantillons à observer ne sont pas très différentes.
L'ANOVA univariée est généralement utilisée lorsque l'on a une seule variable indépendante, ou facteur, et que l'objectif est de vérifier si des variations, ou des niveaux différents de ce facteur ont un effet mesurable sur une variable dépendante.
Une hypothèse importante dans l'analyse de la variance (ANOVA et le test-t pour les différences de moyennes) est que les variances dans les différents groupes sont égales (homogènes).
Un écart type important indique que les données sont dispersées autour de la moyenne. Cela signifie qu'il y a beaucoup de variances dans les données observées. À l'inverse, plus les valeurs sont regroupées autour de la moyenne, plus l'écart type est faible.
La variance (ou fluctuation) est la moyenne arithmétique des carrés des écarts à la moyenne. L'écart-type, noté , est la racine carrée de la variance.
L'écart-type sert à mesurer la dispersion, ou l'étalement, d'un ensemble de valeurs autour de leur moyenne. Plus l'écart-type est faible, plus la population est homogène.
Le test t est un test d'hypothèse statistique utilisé pour comparer les moyennes de deux groupes de population. L'ANOVA est une technique d'observation utilisée pour comparer les moyennes de plus de deux groupes de population. Les tests t sont utilisés à des fins de test d'hypothèses pures.
TEST DE CORRÉLATION DE PEARSON
Il est utilisé pour étudier l'association entre un facteur d'étude et une variable de réponse quantitative, il mesure le degré d'association entre deux variables en prenant des valeurs entre -1 et 1. Des valeurs proches de 1 indiqueront une forte association linéaire positive.
Un test de Student peut être utilisé pour évaluer si un seul groupe diffère d'une valeur connue (test t à un échantillon), si deux groupes diffèrent l'un de l'autre (test t à deux échantillons indépendants), ou s'il existe une différence significative dans des mesures appariées (test de Student apparié ou à ...
A.
Le test statistique est utile lorsqu'il faut trancher entre 2 hypothèses : H0 : hypothèse nulle, elle correspond à une situation de statu quo. H1 : hypothèse alternative, elle correspond à l'hypothèse qu'on veut démontrer.
Les plus populaires sont l'AIC (Akaike's Information Criterion) et le BIC (ou SBC, Bayesian Information Criterion). Lorsque différents modèles paramétriques sont comparés, le modèle associé à l'AIC ou au BIC le plus faible a la meilleure qualité parmi les modèles comparés.
L'écart-type est dans la même unité de mesure que les données. Même avec peu d'habitude, il est donc assez simple à interpréter. En revanche, la variance a davantage sa place dans les étapes intermédiaires de calcul que dans un rapport.
On appelle écart-type de l'échantillon la racine carrée de la variance. L'avantage de l'écart-type sur la variance est qu'il s'exprime, comme la moyenne, dans la même unité que les données. On utilise parfois le coefficient de variation, qui est le rapport de l'écart-type sur la moyenne.
La covariance est légèrement différente. Si la variance permet d'étudier les variations d'une variable par rapport à elle-même, la covariance va permettre d'étudier les variations simultanées de deux variables par rapport à leur moyenne respective.
– Si la valeur de la covariance est proche de la valeur 0, cela signifie que les variables ne covarient pas : parmi les sujets présentant des valeurs fortes sur une variable, on peut observer que, sur l'autre variable, ces mêmes sujets présentent des valeurs fortes, faibles ou moyennes.
Pour interpréter un résultat statistique, on peut utiliser les notions suivantes : médiane et quartile. - La médiane d'un ensemble est une valeur M telle que le nombre de valeurs de l'ensemble supérieures ou égales à M est égal au nombre de valeurs inférieures ou égales à M.
Plus la valeur du coefficient de variation est élevée, plus la dispersion autour de la moyenne est grande. Il est généralement exprimé en pourcentage. Sans unité, il permet la comparaison de distributions de valeurs dont les échelles de mesure ne sont pas comparables.
Les tests d'homogénéité présentés dans cet outil correspondent à l'hypothèse alternative d'un unique décalage. Pour l'ensemble des tests, XLSTAT fournit des p-values en utilisant des rééchantillonnages Monte Carlo, les calculs exacts étant soit impossibles soit trop coûteux en temps de calcul.
Vérifier la normalité des données continues est une étape cruciale avant la réalisation d'un test d'hypothèse mettant en jeu une ou plusieurs variables continues. Il s'agit donc de s'assurer que les variables continues sont distribuées selon la loi normale.
Modèle de régression simple.
· La variable Y est appelée variable expliquée. · La variable X est appelée variable explicative. · La variable e est une variable aléatoire appelée variable résiduelle. · La variance notée se2 de la variable e est appelée variance résiduelle.