L'hypothèse selon laquelle on fixe à priori un paramètre de la population à une valeur particulière s'appelle l'hypothèse nulle et est notée H0. N'importe quelle autre hypothèse qui diffère de l'hypothèse H0 s'appelle l'hypothèse alternative (ou contre-hypothèse) et est notée H1.
L'hypothèse nulle notée H0 est l'hypothèse que l'on désire contrôler : elle consiste à dire qu'il n'existe pas de différence entre les paramètres comparés ou que la différence observée n'est pas significative et est due aux fluctuations d'échantillonnage. Cette hypothèse est formulée dans le but d'être rejetée.
Il existe deux stratégies pour prendre une décision en ce qui concerne un test d'hypothèse : la première stratégie fixe a priori la valeur du seuil de signification a et la seconde établit la valeur de la probabilité critique aobs a posteriori. et l'hypothèse H1 est acceptée.
Vous avez les échantillons de deux groupes d'individus et vous souhaitez comparer leurs revenus moyens. Il s'agit d'une variable numérique. Les tests que vous pouvez utiliser sont alors le test de Student ou le test de Wilcoxon-Mann-Whitney, selon si les groupes suivent une distribution normale (en forme de cloche).
Les tests non-paramétriques ne se basent pas sur des distributions statistiques. Ils peuvent donc être utilisés même si les conditions de validité des tests paramétriques ne sont pas vérifiées. Les tests paramétriques ont souvent des tests non-paramétriques équivalents.
On appelle risque alpha le risque de conclure à l'existence d'une différence qui n'existe pas en réalité: en thérapeutique, cela revient à considérer efficace un traitement qui ne l'est pas.
La significativité statistique, ou seuil de signification, désigne le seuil à partir duquel les résultats d'un test sont jugés fiables. Autrement dit, ce seuil détermine la confiance dans la corrélation entre un test effectué et les résultats obtenus.
Un test de Student peut être utilisé pour évaluer si un seul groupe diffère d'une valeur connue (test t à un échantillon), si deux groupes diffèrent l'un de l'autre (test t à deux échantillons indépendants), ou s'il existe une différence significative dans des mesures appariées (test de Student apparié ou à ...
Pour calculer la valeur de p, nous effectuons une expérience et sur la base des observations de la statistique de test, nous prenons des décisions, c'est-à-dire que si la mesure est statistiquement inférieure au seuil de signification , l'hypothèse nulle est rejetée, en précisant que l'hypothèse nulle est très moins ...
Une valeur-p de 0,05 signifie qu'il y a une chance sur 20 qu'une hypothèse correcte soit rejetée plusieurs fois lors d'une multitude de tests (et n'indique pas, comme on le croit souvent, que la probabilité d'erreur sur un test unique est de 5 %).
ANOVA teste l'homogénéité de la moyenne de la variable quantitative étudiée sur les différentes valeurs de la variable qualitative. L'analyse de la variance, si elle aboutit à un résultat éloigné de zéro, permet de rejeter l'hypothèse nulle : la variable qualitative influe effectivement sur la variable quantitative.
En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d'adéquation (ou tests d'ajustement, tests permettant de comparer des distributions), appliqués à une loi normale.
Une hypothèse est une proposition ou un « dit » ou une explication que l'on se contente d'énoncer sans prendre position sur son caractère véridique, c'est-à-dire sans l'affirmer ou la nier. Il s'agit donc d'une simple supposition.
En partant de la valeur de alpha/2 en tant que proportion, on la multiplie par 2 afin de trouver la valeur de alpha. Ensuite, on consulte la table de la loi normale réduite qui en fonction de cette dernière valeur va nous donner celle du score Z (Z alpha).
Le score T est en fait le score Z multiplié par 10, auquel on ajoute 50. Ainsi, lorsqu'elle est transformée en score T, la moyenne d'une distribution normale prend la valeur de 50, alors que l'écart-type a une valeur de 10. La valeur de T se calcule donc à partir de la valeur Z préalablement calculée.
Ce calcul nous indique à combien d'unités d'erreur-type se situe la différence observée de la moyenne populationnelle de 0. Lorsque le degré de signification est petit (p < 0,05), nous pouvons rejeter l'hypothèse nulle et conclure que les deux moyennes ne proviennent pas de la même population.
S'il génère une valeur p inférieure ou égale au niveau de signification, le résultat est considéré comme statistiquement significatif (et permet de rejeter l'hypothèse nulle). Cela est généralement écrit sous la forme suivante : p≤0,05.
Pour faire simple, une variable est significative avec un intervalle de confiance de 95% si son t-stat est supérieur à 1,96 en valeur absolue, ou bien si sa P-value est inférieure à 0,05.
Dit plus simplement : si votre Khi2 se situe à gauche de la colonne 0,05, vous ne pouvez pas interpréter votre tableau sans prendre de risques. Remarquez que plus le degré de liberté diminue, plus les khi2 théoriques diminue.
Un test paramétrique est un test pour lequel on fait une hypothèse paramétrique sur la loi des données sous H0 (loi normale, loi de Poisson...); Les hypothèses du test concernent alors les paramètres de cette loi. Un test non paramétrique est un test ne nécessitant pas d'hypothèse sur la loi des données.
Les tests de conformité sont destinés à vérifier si un échantillon peut être considéré comme extrait d'une population donnée ou représentatif de cette population, vis-à-vis d'un paramètre comme la moyenne, la variance ou la fréquence observée.
Ce coefficient se calcule comme le ratio de la covariance entre la rentabilité d'un portefeuille (Rp) et celle du marché (Rm), par la variance de la rentabilité implicite du marché (Rm). Sa formule est donc : beta = (Cov(Rp, Rm))/Var(Rm).