MSE(T) = E[(T − θ)2] = Var[T] − B(T)2 Si limn→∞ MSE(T)=0 alors l'estimateur est asymptotiquement consistant. N ∑N i=n xn. Cette estimateur est non biaisé et asymptotiquement consistant. Les deux estimateurs sont sans biais mais l'estimateur T1 est plus efficace que l'estimateur T2.
Un estimateur efficace est caractérisé par une variance ou une erreur quadratique moyenne petite, indiquant une faible déviance entre la valeur estimée et la valeur "réelle".
Le choix parmi les estimateurs sans biais s'effectue en comparant les variances des estimateurs. En effet, un estimateur sans biais mais à variance élevée peut fournir des estimations très éloignées de la vraie valeur du paramètre. = θ 0.
On peut calculer le rendement r en divisant le produit réel obtenu par le produit théorique multiplié par 100. Pourcentage de rendement = rendement réel/rendement théorique x100.
Test unilatéral : test statistique pour lequel on prend comme hypothèse alternative l'existence d'une différence dont le sens est connu. Test bilatérale : test statistique pour lequel on prend, comme hypothèse alternative, l'existence d'une différence, dans un sens ou l'autre.
Définition 3. Le biais de l'estimateur T de θ est E[T]−θ0. S'il est nul, on dit que T est un estimateur sans biais. L'estimateur Tn est asymptotiquement sans biais si lim E[Tn] = θ0.
3.2.2 Biais d'un estimateur
Le biais d'un estimateur noté B(Q) est la différence moyenne entre sa valeur et celle du paramètre qu'il estime. Le biais doit être égal à 0 pour avoir un bon estimateur.
Définition: Un estimateur ˆθ de θ est dit sans biais si: E(ˆθ) = θ, ∀θ ∈ Θ. Ainsi, cette condition d'absence de biais assure que, à la longue, les situations où l'estimateur surestime et sous-estime θ vont s'équilibrer, de sorte que la valeur estimée sera correcte en moyenne.
Pour calculer l'intervalle de confiance, il faut définir la probabilité avec laquelle la valeur moyenne de la population devrait se situer dans l'intervalle. Très souvent, le niveau de confiance de 95% ou 99% est utilisé comme probabilité. Cette probabilité est également appelée coefficient de confiance.
Il représente le niveau de probabilité que l'intervalle de confiance contienne la vraie valeur du paramètre à estimer. Exprimé en pourcentage, il est très souvent de 95 %. La valeur Z pour un niveau de confiance de 95 % est de 1,96 : Z = 1,96. Dans l'exemple, la formule serait : 100 ± 1,960 (5/7,071).
Le théorème de Gauss-Markov énonce que, parmi tous les estimateurs linéaires non biaisés, l'estimateur par moindres carrés présente une variance minimale. On peut résumer tout cela en disant que l'estimateur par moindres carrés est le « BLUE » (en anglais : Best Linear Unbiaised Estimator).
Plus précisément, un estimateur (d'un paramètre) qui converge en probabilité vers la vraie valeur du paramètre lorsque la taille de l'échantillon augmente indéfiniment est appelé estimateur convergent du paramètre.
Les tests statistiques permettent de contrôler la validité d'une hypothèse émise sur une population-mère, à partir des observations effectuées sur un échantillon. L'hypothèse ainsi énoncée est appelée hypothèse nulle ou H0.
On dit qu'un estimateur ̂θn de θ est fortement consistant de θ si et seulement si la suite de var (̂θn)n∈N* converge presque sûrement vers θ, i.e. ̂θn = θ)=1.
Il exprime tout simplement l'erreur-type en pourcentage de l'estimation. Ainsi, si on obtient une estimation Y pour une certaine caractéristique et que SE correspond à l'erreur-type estimée, le CV sera ( SE /Y ) x 100.
Même pour un estimateur convergent, il peut se faire que les valeurs prises soient décalées en moyenne par rapport à la vraie valeur du paramètre. On dit alors que l'estimateur est biaisé .
L'estimation paramétrique repose aussi sur l'utilisation de données de projets passés. Cependant, contrairement à l'estimation analogique, cette méthode prend en compte les différences entre les projets passés et le projet actuel. Cette technique d'estimation repose sur des algorithmes.
Une estimation ponctuelle ˆµ de la moyenne µ de la population est: ˆµ = µe. Une estimation ponctuelle ˆσ de l'écart-type σe de la population est donné par: ˆσ = √ n n − 1 σe.
Cela s'articule habituellement autour de l'hypothèse nulle (H0): si on accepte l'hypothèse nulle, l'hypothèse alternative (H1) est infirmée; inversement, si on rejette l'hypothèse nulle, l'hypothèse alternative est confirmée.
Le test T est une statistique inférentielle utilisée pour évaluer les différences entre les moyennes de deux groupes. Le test T est généralement utilisé lorsque les ensembles de données suivent une distribution normale et peuvent avoir des variances inconnues.
Pour prendre une décision, choisissez le niveau de significativité α (alpha), avant le test : Si p est inférieur ou égal à α, rejetez H0. Si p est supérieur à α, ne rejetez pas H0 (en principe, vous n'acceptez jamais l'hypothèse H0, mais vous vous contentez de ne pas la rejeter)