Lorsque les données sont collectées, la valeur-p est calculée et la décision suivante est prise : si elle est inférieure à α, on rejette l'hypothèse nulle au profit de l'hypothèse alternative ; si elle est supérieure à α, on rejette l'hypothèse alternative au profit de l'hypothèse nulle.
S'il génère une valeur p inférieure ou égale au niveau de signification, le résultat est considéré comme statistiquement significatif (et permet de rejeter l'hypothèse nulle). Cela est généralement écrit sous la forme suivante : p≤0,05.
Une valeur-p de 0,05 signifie qu'il y a une chance sur 20 qu'une hypothèse correcte soit rejetée plusieurs fois lors d'une multitude de tests (et n'indique pas, comme on le croit souvent, que la probabilité d'erreur sur un test unique est de 5 %).
La significativité statistique, ou seuil de signification, désigne le seuil à partir duquel les résultats d'un test sont jugés fiables. Autrement dit, ce seuil détermine la confiance dans la corrélation entre un test effectué et les résultats obtenus.
Si la statistique-t est supérieure à la valeur critique, alors la différence est significative. Si la statistique-t est inférieure, il n'est pas possible de différencier les deux nombres d'un point de vue statistique.
Vérifiez si l'écart entre deux pourcentages est significatif, c'est-à-dire qu'il n'est pas dû à l'aléa engendré par la méthodologie du sondage (on n'intérroge qu'une partie de la population) et donc que ce résultat peut être généralisé à la population dont est issu l'échantillon.
Comment calculer le seuil de signification en audit ? Le seuil de signification peut représenter un chiffre entre 1 et 5% des capitaux propres, 5 à 10% du résultat net ou du résultat courant ou encore de 1 à 3% du chiffre d'affaires. Tout montant inférieur au seuil de signification sera écarté des travaux de révision.
Pour faire simple, une variable est significative avec un intervalle de confiance de 95% si son t-stat est supérieur à 1,96 en valeur absolue, ou bien si sa P-value est inférieure à 0,05.
En statistiques, le résultat d'études qui portent sur des échantillons de population est dit statistiquement significatif lorsqu'il semble exprimer de façon fiable un fait auquel on s'intéresse, par exemple la différence entre 2 groupes ou une corrélation entre 2 données.
Il existe 3 méthodes pour tester la significativité de ce coefficient : la méthode de « Pearson », de « Kendall », et de « Spearman ». Pour réaliser ce test il est nécessaire d'avoir un échantillonnage aléatoire et qu'il n'y ait pas de données manquantes.
En résumé, si la puissance statistique est assez importante (supérieure à 0.95 par exemple), on peut accepter H0 avec un risque proportionnel à (1 – puissance) d'avoir tort. Ce risque est appelé le risque Bêta.
L'intervalle de confiance (IC) à 95% est un intervalle de valeurs qui a 95% de chance de contenir la vraie valeur du paramètre estimé. Avec moins de rigueur, il est possible de dire que l'IC représente la fourchette de valeurs à l'intérieur de laquelle nous sommes certains à 95% de trouver la vraie valeur recherchée.
Dans le domaine de la statistique, un résultat est dit significatif s'il est improbable qu'il se soit produit par hasard.
Statistiques pour décrire une variable quantitative
La description d'une variable quantitative se base sur les statistiques suivantes : la moyenne, la médiane, la variance, l'écart-type, les quantiles. On peut aller plus loin en regardant l'asymétrie et l'aplatissement.
Interprétation du coefficient de corrélation de Pearson
Pour être interprété, le coefficient de corrélation doit être significatif (la valeur de p doit être plus petite que 0,05). Si le coefficient est non significatif, on considère qu'il est semblable à r = 0.
Une variable continue est une variable qui peut prendre toutes les valeurs possibles d'un intervalle de nombres réels. Une variable discrète est une variable qui peut prendre uniquement certaines valeurs d'un intervalle de nombres réels. Généralement, les valeurs admissibles ne sont que les nombres entiers.
Le seuil de rentabilité est exprimé en chiffre d'affaires selon la formule suivante : Seuil de rentabilité = charges fixes / [ ( chiffre d'affaires – charges variables ) / chiffre d'affaires ] ou, plus simplement, Seuil de rentabilité = charges fixes / taux de marge sur coûts variables.
On écrit dans la partie "Résultats": "La différence est significative (p < 0.05)" ou au contraire: "On n'observe pas d'effet significatif (p=0.47)". Attention si p est plus grand que le seuil on ne peut pas conclure. Absence de preuve n'est pas preuve d'absence !
Comment calculer le pourcentage d'une valeur
Pour calculer le pourcentage d'une valeur, on multiplie la valeur partielle par 100, puis on divise par la valeur totale. La formule pour calculer le pourcentage d'une valeur est donc : Pourcentage (%) = 100 x Valeur partielle/Valeur totale.
Le test bilatéral offre la possibilité de conclure à une différence quel que soit son sens (positive ou négative, effet bénéfique ou effet délétère). Un test unilatéral ne recherche la différence que dans un seul sens (supériorité le plus souvent pour un essai thérapeutique).
L'Intervalle de Confiance à 95% est l'intervalle de valeur qui a 95% de chance de contenir la vraie valeur du paramètre estimé. Le seuil de 95% signifie qu'on admet un risque d'erreur de 5%: on peut réduire ce risque (par exemple à 1%), mais alors l'Intervalle de Confiance sera plus large, donc moins précis.
Un écart type important indique que les données sont dispersées autour de la moyenne. Cela signifie qu'il y a beaucoup de variances dans les données observées. À l'inverse, plus les valeurs sont regroupées autour de la moyenne, plus l'écart type est faible.
Mesure de la probabilité, exprimée généralement en pourcentage (par exemple 90 %, 95 % ou 98 %), qu'une caractéristique donnée d'une population se trouve à l'intérieur des limites estimatives que l'analyse des éléments inclus dans un échantillon a permis d'établir.
L'hypothèse selon laquelle on fixe à priori un paramètre de la population à une valeur particulière s'appelle l'hypothèse nulle et est notée H0. N'importe quelle autre hypothèse qui diffère de l'hypothèse H0 s'appelle l'hypothèse alternative (ou contre-hypothèse) et est notée H1.