La statistique de Durbin et Watson, notée DW, est une valeur appartenant à l'intervalle [0;+4]. Elle est dite normale si elle avoisine la valeur 2. Ci-dessus, la statistique du Durbin et Watson vaut 2,29 ; elle semble normale.
La statistique Durbin-Watson aura toujours une valeur comprise entre 0 et 4 . Une valeur de 2,0 indique qu’aucune autocorrélation n’est détectée dans l’échantillon. Les valeurs de 0 à moins de 2 indiquent une autocorrélation positive et les valeurs de 2 à 4 signifient une autocorrélation négative.
Une fourchette acceptable est de 1,50 à 2,50 . Là où les différences d’erreurs successives sont faibles, Durbin-Watson est faible (moins de 1,50) ; cela indique la présence d’une autocorrélation positive. L'autocorrélation positive est très courante.
En règle générale, si la valeur de Durbin-Watson est inférieure à 1 ou supérieure à 3, elle est considérée comme étant significativement différente de 2 et l'hypothèse n'est donc pas respectée. En supposant que ce soit le cas, vous pouvez l'écrire très simplement comme ceci : Les données satisfont à l'hypothèse d'erreurs indépendantes (valeur de Durbin-Watson = 2,31) .
Une autocorrélation signifie que les erreurs d'observations adjacentes sont corrélées. Si les erreurs sont corrélées, la régression par les moindres carrés peut sous-estimer l'erreur type des coefficients.
Test d'autocorrélation
Le résultat du test de Durbin-Watson va de 0 à 4. Un résultat proche de 2 signifie un niveau d'autocorrélation très faible . Un résultat plus proche de 0 suggère une autocorrélation positive plus forte, et un résultat plus proche de 4 suggère une autocorrélation négative plus forte.
L'autocorrélation négative des erreurs a généralement tendance à rendre l'estimation de la variance d'erreur trop grande , de sorte que les intervalles de confiance sont trop larges et que la puissance des tests de signification est réduite.
Lorsque des termes d’erreur autocorrélés sont présents, l’une des premières mesures correctives devrait alors consister à enquêter sur l’omission d’une variable prédictive clé . Si un tel prédicteur ne permet pas de réduire/éliminer l’autocorrélation des termes d’erreur, alors certaines transformations sur les variables peuvent être effectuées.
L'hypothèse nulle ne peut pas être rejetée ou non si la statistique du test de Durbin-Watson se situe dans une région non concluante (dans ce cas, d'autocorrélation nulle).
The Durbin Watson test looks for a specific type of serial correlation i.e. first order correlation (the lag is 1 unit). The Hypotheses for the Durbin Watson test are: H0 = first order autocorrelation does Not exist. H1 = first order correlation exists.
Si la statistique-t est supérieure à la valeur critique, alors la différence est significative. Si la statistique-t est inférieure, il n'est pas possible de différencier les deux nombres d'un point de vue statistique.
Après avoir ouvert XLSTAT, sélectionnez la commande de test **XLSTAT / Time / Durbin-Watson . Une fois que vous avez cliqué sur le bouton, la boîte de dialogue apparaît. Sélectionnez les données sur la feuille Excel. Dans notre cas, les résidus sont obtenus via la régression linéaire entre la taille et le poids et la variable explicative est la « Taille ».
Le niveau du test est défini par α = probabilité de rejeter H0 étant donné que H0 est vraie. Cela veut dire "la probabilité de dire que le produit est efficace étant donné qu'il n'est pas efficace".
Limites du test DW
Le test n'est applicable que lorsque les hypothèses sous-jacentes à la statistique d sont remplies 2. Le test ne peut être utilisé que pour tester la présence d'une autocorrélation de premier ordre et non d'autocorrélations d'ordre supérieur 3.
Des recherches récentes montrent qu'un test statistiquement significatif ne correspond à une évidence forte que pour une valeur p de 0,5 % ou même 0,1 %.
Qu'est-ce que la significativité statistique ? La significativité statistique, ou seuil de signification, désigne le seuil à partir duquel les résultats d'un test sont jugés fiables. Autrement dit, ce seuil détermine la confiance dans la corrélation entre un test effectué et les résultats obtenus.
Le test bilatéral permet de conclure de manière significative aussi bien en cas d'observation d'une différence positive ou d'une différence négative. Il permet donc de conclure, en fonction de ce qu'il sera effectivement observé, soit à la supériorité de A sur B, soit à l'infériorité de A..
Test unilatéral : test statistique pour lequel on prend comme hypothèse alternative l'existence d'une différence dont le sens est connu. Test bilatérale : test statistique pour lequel on prend, comme hypothèse alternative, l'existence d'une différence, dans un sens ou l'autre. pA ≠ pB (pA < pB ou pA > pB).
Autocorrelation is an important concept in time series analysis as it helps to identify patterns and relationships within the data. Positive autocorrelation occurs when a time series variable is correlated with its past values, while negative autocorrelation occurs when it is correlated with its future values.
Causes de l'autocorrélation
Omission d'une variable indépendante importante : si une variable indépendante importante n'est pas incluse dans le modèle, alors ses effets sont capturés dans le terme d'erreur. En conséquence, les erreurs deviendront dépendantes les unes des autres si la variable exclue est autocorrélée.
L'autocorrélation peut poser des problèmes dans les analyses conventionnelles (telles que la régression des moindres carrés ordinaires) qui supposent l'indépendance des observations. Dans une analyse de régression, une autocorrélation des résidus de régression peut également se produire si le modèle est mal spécifié .
l'autocorrélation en 0 est la valeur maximale de l'autocorrélation (puisque c'est pour un décalage nul que le signal se ressemble le plus à lui-même).
Autocorrelation is diagnosed using a correlogram (ACF plot) and can be tested using the Durbin-Watson test. The auto part of autocorrelation is from the Greek word for self, and autocorrelation means data that is correlated with itself, as opposed to being correlated with some other data.
Negative autocorrelation occurs when an error of a given sign between two values of time series lagged by k followed by an error of the different sign.