Nous allons montrer que la moyenne d'une variable qui suit une loi normale est égale à μ, et que sa variance est égale à σ² .
La loi normale est caractérisée par un coefficient d'asymétrie et un coefficient d'aplatissement nuls. Ces indicateurs peuvent donc également nous donner une idée, ne serait-ce que très approximative, du rapprochement possible de la distribution empirique avec une gaussienne.
Sous ces conditions, si l'on centre (on lui retranche l'espérance) et que l'on réduit (on la divise par l'écart-type) Xn, la variable obtenue Zn suit une loi centrée réduite. Ce sont Moivre et Laplace qui ont été les premiers a proposer un théorème : Une variable aléatoire X suit la loi si suit la loi normale .
On dit qu'une variable aléatoire X suit une loi uniforme sur l'intervalle [a ; b] lorsque sa densité de probabilité associée est constante sur [a ; b]. Cette constante est alors égale à . X est alors notée U[a ; b].
Une loi est uniforme entre une valeur a et une valeur b lorsque la densité de probabilité est toujours égale sur cet intervalle et nulle en-dehors.
La loi de Poisson est aussi appelé la LOI des évenements rares. La loi de Poisson se définit par une formule assez compliquée. E[X] = λ σ (X) = √ λ. C'est la seule LOI connue qui ait toujours son espérance égale à sa variance.
On construit alors une nouvelle variable: Z = X − µ σ Alors X ∼ N(µ; σ) est équivalent à Z ∼ N(0; 1). Rappel: on utilisera toujours la lettre Z pour désigner une variable aléatoire de loi normale centrée et réduite. En particulier: si X ∼ N(µ; σ), la moyenne de la variable X est m(X) = µ l'écart-type de X est s(X) = σ.
La loi normale, ou distribution normale, définit une représentation de données selon laquelle la plupart des valeurs sont regroupées autour de la moyenne et les autres s'en écartent symétriquement des deux côtés.
La loi normale est remarquable par le fait qu'elle décrit une grande partie des phénomènes naturels. (science physique, sociale, médecine, agriculture, Business...) . Elle peut être utilisée dans un grand nombre de situations, c'est ce qui la rend si utile.
La courbe de Gauss est connue aussi sous le nom de « courbe en cloche » ou encore de « courbe de la loi normale ». Elle permet de représenter graphiquement la distribution d'une série et en particulier la densité de mesures d'une série. Elle se base sur les calculs de l'espérance et de l'écart-type de la série.
Si une v.a. suit une loi normale N ( μ ; σ 2 ) , alors l'espérance de vaut E ( X ) = μ et sa variance vaut ² V ( x ) = σ ² et son écart-type ² σ ( X ) = σ ² .
On note X i N(µ, σ2). Quand σ = 0, on dit que X est une variable gaussienne dégénérée.
Vous utilisez un test du khi-deux pour tester des hypothèses afin de déterminer si les données sont conformes aux attentes. L'idée de base qui sous-tend le test est de comparer les valeurs observées dans vos données aux valeurs attendues si l'hypothèse nulle est vraie.
En partant de la valeur de alpha/2 en tant que proportion, on la multiplie par 2 afin de trouver la valeur de alpha. Ensuite, on consulte la table de la loi normale réduite qui en fonction de cette dernière valeur va nous donner celle du score Z (Z alpha).
Un modèle de mélange gaussien (désigné couramment par l'acronyme anglais GMM pour Gaussian Mixture Model) est un modèle statistique exprimé selon une densité mélange.
Contrairement à l'étendue et à l'écart interquartile, la variance est une mesure qui permet de tenir compte de la dispersion de toutes les valeurs d'un ensemble de données. C'est la mesure de dispersion la plus couramment utilisée, de même que l'écart-type, qui correspond à la racine carrée de la variance.
Remarque : Dans la pratique, lorsque n ≥ 30, np ≥ 5 et n (1 − p) ≥ 5, l'erreur sur les probabilités calculées est très faible. Lorsque ces trois conditions sont remplies, on pourra approcher la loi binomiale B (n ; p) par la loi normale N (µ ; σ2) , avec µ = np et σ = √np (1 − p).
Loi de Poisson. La loi de Poisson est une loi de probabilité discrète. Elle décrit la probabilité qu'un événement se réalise durant un intervalle de temps donné, lorsque la probabilité de réalisation d'un événement est très faible et que le nombre d'essais est très grand.
S'il y a une probabilité que quelque chose échoue, alors ça échouera. C'est, en résumé, le principe de la loi de Murphy également appelée "loi de l'emmerdement maximum" ou encore "loi de la tartine beurrée". On la doit à l'ingénieur aérospatial américain Edward A.
La loi t ou loi de Student est utilisée dans de nombreux tests statistiques d'estimation de moyenne ou de régression linéaire. Une variable T de Student est le ratio d'une Normale standard et de la racine d'une Khi-carrée normalisée. La loi t non centrale est basée sur une Normale réduite non centrée.
De façon générale, la loi géométrique apparaît lorsque l'on répète une même expérience, de façon indépendante, et que l'on attend qu'un événement se réalise le nombre de fois où un événement se réalise. Précisément, on considère le numéro de l'expérience à laquelle survient le premier succès.
D'après le théorème cité plus haut, la loi uniforme permet en théorie d'obtenir des tirages de toute loi continue à densité. Il suffit pour cela d'inverser la Fonction de répartition de cette loi, et de l'appliquer à des tirages de la loi uniforme standard.
Une variable aléatoire qui peut prendre n valeurs possibles k1 , k2 , …, kn, suit une loi uniforme lorsque la probabilité de n'importe quelle valeur ki est égale à 1/n. Un exemple simple de loi discrète uniforme est le lancer d'un dé non biaisé.