Pas de contrainte sur la population dont est extrait l´échantillon. Seuls tests applicable pour un échantillon de taille inférieure `a 6.
Le test du chi-carré est un moyen statistique de déterminer les différences entre ce qui était attendu et ce qui a été observé dans une ou plusieurs catégories. Les chercheurs utilisent ce test non paramétrique pour comparer des variables catégorielles au sein d'un même échantillon de population.
En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de rejeter à tort l'hypothèse nulle.
Le test repose sur une loi exacte plutôt que sur une approximation de la loi du Khi deux utilisée pour les tests de Pearson et de rapport de vraisemblance. Le test exact de Fisher est utile lorsque les dénombrements de cellules attendus sont faibles et que l'approximation du Khi deux n'est pas très bonne.
Le test du Khi2 peut être employé si tous les effectifs théoriques sont >5. Si au moins un effectif théorique est <5 alors, le test du Khi2 avec correction de Yates, ou bien le test exact de Fisher doivent être employés.
Lorsque l'un des effectifs théoriques est inférieur à 5 ou lorsque les sommes marginales du jeu de données réel sont très déséquilibrées, il est préférable de se fier au test exact de Fisher.
De fait, la distribution khi carré est la somme de carrés de N variables aléatoires dont l'espérance mathématique est distribuée conformément de la lois normale (Gauss). (m-1)(n-1) = DL. Or pour le tableau 2x2 le nombre de degrés de liberté est égale à (2-1)(2-1)=1.
Le test le plus utilisé pour tester la liaison entre une variable quantitative et une variable qualitative à deux (2) modalités est le test de Student (alternative test de Man-Withney).
Dans la liste Statistiques, sélectionnez la statistique N % colonne, puis ajoutez-la à la liste Afficher. Cliquez sur Appliquer à la sélection. Dans la boîte de dialogue Tableaux personnalisés, cliquez sur l'onglet Statistiques de test. Sélectionnez Tests d'indépendance (Khi-deux).
Le cas de plus de deux échantillons appariés :
Ce test, très utile, permet d'analyser la liaison entre un caractère quantitatif et un caractère qualitatif à k classes (k >2). Ce test permet notamment d'effectuer des comparaisons multiples en testant ce que l'on appelle les rangs moyens.
L'idée. Si on souhaite comparer deux échantillons (i.i.d) gaussiens, il nous suffit en fait de comparer leurs paramètres : leur moyenne μ1 et μ2, et leur variance σ21 et σ22. La méthodologie la plus classique est d'effectuer de manière séquentielle : Un test d'égalité des variances.
Les variables quantitatives correspondent à des informations que l'on peut mesurer, compter. Cela peut être par exemple : la taille, le poids, l'âge, le nombre d'enfants, etc. Les variables qualitatives correspondent à des informations que l'on ne peut pas mesurer, comme le sexe ou la couleur des cheveux.
Pour le calcul de cette probabilité, TEST. KHIDEUX utilise la distribution χ2 avec un nombre approprié de degrés de liberté (dl). Si r > 1 et c > 1, alors dl = (r - 1)(c - 1). Si r = 1 et c > 1, alors dl = c - 1 ou si r > 1 et c = 1, alors dl = r - 1.
Or selon la théorie il faut faire un test de Fisher lorsque la présence de racine unitaire n'est pas rejetée (p. value > 5%). Dans le cas contraire, le test convenable est en principe celui de student pour tester uniquement la significativité de la tendance ou de la constante.
Le test U de Mann-Whitney est donc le pendant non paramétrique du test t pour échantillons indépendants ; il est soumis à des hypothèses moins strictes que le test t. Par conséquent, le test U de Mann-Whitney est toujours utilisé lorsque la condition de distribution normale du test t n'est pas remplie.
Etant une alternative non paramétrique à l'ANOVA sur mesures répétées, le test de Friedman doit être employé lorsque l'hypothèse de normalité des résidus n'est pas satisfaite. Cette situation se rencontre classiquement lorsque la variable réponse est un score, ou encore une variable ordinale comme un classement.
Le calcul des ces effectifs se fait de la manière suivante : total de la ligne concernée x total de la colonne concernée /total général, soit sur le détail ci- contre : 16,89=37 x 63 /138. On a arrondi à 2 décimales.
Les trois tests de corrélation les plus utilisés sont ceux de Spearman, Kendall et Pearson. Les deux premiers sont des tests non-paramétriques que l'on peut également appliquer sur des variables qualitatives ordinales.
Si la répartition de l'échantillon ou de la distribution est symétrique autour de la moyenne alors le coefficient est nul. Si la valeur est positive, l'étalement est à droite (asymétrique gauche), en revanche si elle est négative alors l'étalement est à gauche (asymétrie droite).
Les données qualitatives fournissent des détails et des informations contextuelles qui vous permettent de mieux comprendre chaque réponse individuelle. Les données quantitatives vous fournissent les résultats chiffrés dont vous avez besoin pour étayer vos hypothèses ou les grands axes de votre étude.
l'on dit qu'un caractère est quantitatif discret lorsqu'il ne peut prendre qu'un nombre fini de valeurs numériques. L'on dit qu'un caractère est quantitatif continu lorsqu'il peut prendre une infinité de valeurs numériques et les exemples cités dans les livres sont le salaire d'une population ou la taille en cm.
Deux types d'échantillons peuvent être distingués : les échantillons non-probabilistes et les échantillons probabilistes. Les sujets ou les objets sont choisis selon une procédure pour laquelle la sélection n'est pas aléatoire.