Pourquoi ajuster la P-value ?

Interrogée par: Anouk Berger  |  Dernière mise à jour: 7. August 2024
Notation: 4.2 sur 5 (52 évaluations)

La p-value représente le risque que l'on prend de se tromper en affirmant qu'un effet est statistiquement significatif. Effectuer un test en boucle un grand nombre de fois augmente le nombre de p-values calculées et par conséquent le risque de détecter des effets significatifs à tort.

Comment interpréter la P-value ?

Niveau de signification

Si la valeur p calculée est inférieure à cette valeur, l'hypothèse nulle est rejetée, sinon elle est maintenue. En règle générale, on choisit un niveau de signification de 5 %. alpha < 0,01 : résultat très significatif. alpha < 0,05 : résultat significatif.

Quand rejeter P-value ?

Plus la valeur de p est petite, plus la probabilité de faire une erreur en rejetant l'hypothèse nulle est faible. Une valeur limite de 0,05 est souvent utilisée. Autrement dit, vous pouvez rejeter l'hypothèse nulle si la valeur de p est inférieure à 0,05.

Quand P est significatif ?

Soit p>0,05: la différence n'est pas significative, on ne peut pas conclure à une différence. Soit p≤0,05: la différence est significative, le risque pris est précisé, sa valeur est appelée degré de signification.

Quand rejeter l'hypothèse nulle ?

L'hypothèse H0, qui fait l'objet du test, est rejetée dans tous les cas où apparaît un résultat significatif. Une valeur significative est une valeur dont la probabilité d'apparition dans H0 est égale ou inférieure à a .

LA P-VALUE C'EST QUOI ?

Trouvé 43 questions connexes

Comment savoir si un test est significatif ?

Un test est dit statistiquement significatif lorsque le risque quantifié de se tromper, nommé p-valeur, est inférieur à un niveau de signification alpha. Pour être plus précis, la valeur-p est la probabilité d'obtenir une donnée aussi extrême sous l'hypothèse nulle.

Comment Peut-on savoir qu'une hypothèse nulle est vraie dans un test statistique ?

On appelle risque d'erreur de première espèce la probabilité de rejeter H0 et d'accepter H1 alors que H0 est vraie. Ceci se produit si la valeur de la statistique de test tombe dans la région de rejet alors que l'hypothèse H0 est vraie. La probabilité de cet évènement est le niveau de signifiation α.

Pourquoi p-value 5% ?

Une valeur-p de 0,05 signifie qu'il y a une chance sur 20 qu'une hypothèse correcte soit rejetée plusieurs fois lors d'une multitude de tests (et n'indique pas, comme on le croit souvent, que la probabilité d'erreur sur un test unique est de 5 %).

Pourquoi intervalle de confiance 95% ?

Le seuil de 95% signifie qu'on admet un risque d'erreur de 5%: on peut réduire ce risque (par exemple à 1%), mais alors l'Intervalle de Confiance sera plus large, donc moins précis.

Quelle est la valeur du p ?

Une valeur p, qui signifie valeur de probabilité, est une mesure statistique comprise entre 0 et 1. Elle est utilisée pour un test d'hypothèse. Dans des essais cliniques, elle est utilisée pour donner une indication qui détermine si un résultat observé dans un essai clinique peut être dû à un hasard ou non.

Comment choisir un seuil de significativité ?

Choisissez un seuil de signification plus élevé, tel que 0,10, si vous souhaitez augmenter le risque de déclarer qu'un effet est significatif sur le plan statistique alors qu'aucun effet n'existe et donc avoir une plus grande puissance de détection d'un effet important.

Comment calculer le p-value manuellement ?

Pour calculer manuellement une valeur de p dans Minitab :
  1. Sélectionnez Calc > Lois de probabilité > Sélectionner la loi de distribution adaptée .
  2. Sélectionnez Probabilité cumulée.
  3. Indiquez les paramètres si nécessaire.
  4. Choisissez Constante d'entrée, puis entrez la statistique de test.
  5. Cliquez sur OK.

Quand on accepte H0 ?

En résumé, si la puissance statistique est assez importante (supérieure à 0.95 par exemple), on peut accepter H0 avec un risque proportionnel à (1 – puissance) d'avoir tort. Ce risque est appelé le risque Bêta.

Qu'est-ce que le seuil de significativité ?

La significativité statistique, ou seuil de signification, désigne le seuil à partir duquel les résultats d'un test sont jugés fiables. Autrement dit, ce seuil détermine la confiance dans la corrélation entre un test effectué et les résultats obtenus.

Comment déterminer la valeur de p ?

Suivant la nature du test, la valeur p se calcule de trois façons différentes : pour un test unilatéral à droite, si X est la variable aléatoire que devrait suivre la quantité observée sous l'hypothèse nulle, et si x0 est la valeur observée, alors la valeur p est par définition P(X≥x0). P ( X ≥ x 0 ) .

Comment augmenter la précision d'un intervalle de confiance ?

Augmenter l'effectif de l'échantillon

En règle générale, plus vous avez d'observations, plus l'intervalle autour de la statistique issue de l'échantillon sera étroit. Par conséquent, collecter davantage de données permet souvent d'obtenir une estimation plus précise d'un paramètre de population.

Comment expliquer l'intervalle de confiance ?

L'intervalle de confiance (IC) est une plage de valeurs susceptibles d'inclure une part définie de la population avec un certain degré de confiance. Il est souvent exprimé en %, qui représente la moyenne d'une population se situant entre un intervalle supérieur et un intervalle inférieur.

Comment augmenter l'intervalle de confiance ?

Pour obtenir un intervalle plus réduit, donc plus précis, sans changer le nombre de sondés, il faut accepter un niveau plus faible, donc un plus grand risque de se tromper. Au contraire, pour réduire le risque d'erreur, on peut élargir l'intervalle.

Comment choisir H0 et H1 ?

Cela s'articule habituellement autour de l'hypothèse nulle (H0): si on accepte l'hypothèse nulle, l'hypothèse alternative (H1) est infirmée; inversement, si on rejette l'hypothèse nulle, l'hypothèse alternative est confirmée.

C'est quoi une erreur de type 1 ?

Une erreur de type I survient dans un test d'hypothèse statistique lorsqu'une hypothèse nulle, qui est en réalité vraie, est rejetée par erreur. Les erreurs de type I sont également connues sous le nom de « faux positifs », elles représentent la détection d'un effet positif alors qu'il n'existe aucun effet en réalité.

C'est quoi le risque alpha et bêta ?

La mauvaise décision : On suppose qu'H0 est fausse alors qu'en réalité H0 est vraie : c'est le risque α. On suppose qu'H0 est vraie alors qu'en réalité H0 est fausse : c'est le risque β.

Quand on utilise le test de Fisher ?

Lorsque l'un des effectifs théoriques est inférieur à 5 ou lorsque les sommes marginales du jeu de données réel sont très déséquilibrées, il est préférable de se fier au test exact de Fisher.

Comment savoir si 2 échantillons sont indépendants ?

Quelle est la différence entre des échantillons dépendants et indépendants ?
  1. Si les valeurs d'un échantillon influencent les valeurs de l'autre, les échantillons sont dépendants.
  2. Si les valeurs d'un échantillon n'apportent aucune information concernant celles de l'autre, les échantillons sont indépendants.

C'est quoi une différence significative ?

Définition. Différence entre deux statistiques dont on peut affirmer, avec moins de x chances sur 100 de se tromper, qu'elle n'est pas due au hasard seul. Exemple : différence significative à P = 0,01. Dans ce cas, la probabilité de se tromper en affirmant que la différence est significative n'est que de 1 %.

Comment tester la significativité d'une variable ?

Pour cela, il suffit de regarder le "t-stat" (t) ou bien la P-value (P>?t?), et comparer ces valeurs à des "valeurs seuils". Pour faire simple, une variable est significative avec un intervalle de confiance de 95% si son t-stat est supérieur à 1,96 en valeur absolue, ou bien si sa P-value est inférieure à 0,05.

Article suivant
Comment être un bon adjoint ?