L'objectif d'une régression linéaire simple est de prédire la valeur d'une variable dépendante en fonction d'une variable indépendante. Plus la relation linéaire entre la variable indépendante et la variable dépendante est grande, plus la prédiction est précise.
Exemple de régression linéaire
À titre d'exemple : vous cherchez à déterminer comment vos investissements publicitaires agissent sur le niveau de vos ventes. Pour ce faire, on utilisera une régression linéaire pour examiner la relation entre les deux variables (investissements et ventes).
La régression linéaire a pour prérequis : Une relation linéaire entre la variable Y et chacune des variables quantitatives X. Pvalue.io affiche la courbe qui explique au mieux la relation entre les deux variables, tout en ajustant sur les autres variables explicatives (on appelle ce type de courbe une spline).
Comment interpréter les valeurs P dans l'analyse de régression linéaire ? La valeur p pour chaque terme teste l'hypothèse nulle que le coefficient est égal à zéro (aucun effet). Une faible valeur p (<0,05) indique que vous pouvez rejeter l'hypothèse nulle.
Modèle de régression linéaire : modèle le plus simple qui exprime la relation entre Y et X à l'aide une fonction linéaire. Graphiquement, la relation est représentée par une droite d'équation y = b0 + b1x.
Le modèle linéaire décrit la relation entre une variable réponse et une ou plusieurs autres variables prédictrices. Elle est utilisée pour analyser une hypothèse bien formulée, souvent associée à une question de recherche plus générale.
La régression linéaire simple consiste à modéliser la relation linéaire entre une seule variable indépendante et une seule variable dépendante, tandis que la régression linéaire multiple implique la modélisation de la relation linéaire entre deux variables indépendantes ou plus et une seule variable dépendante.
En identifiant des liens de corrélation entre un résultat (la variable dépendante) et plusieurs variables explicatives et indépendantes, la régression linéaire multiple permet de réaliser des prédictions et de dégager des insights. C'est pourquoi, cette méthode mathématique est utilisée dans de nombreux domaines.
L'analyse de régression linéaire est un type d'analyse de régression utilisé pour trouver une équation qui correspond aux données. L'équation se présente sous la forme « Y = a + bX ». Vous pouvez également le reconnaître comme la formule de pente.
r est un nombre compris entre –1 et 1. Plus il est proche de ces deux valeurs, plus l'ajustement affine est pertinent. En revanche, plus il est proche de 0, moins il l'est. De plus, si r est très proche de 1, la droite d'ajustement affine est croissante et si r est très proche de –1, elle est décroissante.
Généralement, il existe plusieurs façons de formuler le modèle économétrique à partir d'un modèle économique, car nous devons choisir la forme fonctionnelle, la spécification de la structure stochastique des variables, etc. Cette partie constitue l'aspect spécification du travail économétrique.
Les tests de régression sont généralement utilisés lorsqu'un nouveau code ou programme est introduit dans un logiciel existant. Ils aident les développeurs de logiciels à tester les fonctionnalités du logiciel après l'introduction de la modification afin d'identifier s'il y a eu ou non une régression.
Lorsque Y et les Xi sont quantitatives, le modèle le plus simple, le plus connu et le plus étudié est nommé régression linéaire, en anglais linear regression. Si Y est qualitative, le modèle est nommé régression logistique, logistic regression en anglais.
Pour interpréter une régression linéaire, il convient d'abord d'observer le nuage de points, sa forme, son étendue... Des ensembles de données peuvent très bien renvoyer à la même moyenne, au même écart-type et au même coefficient de corrélation.
Quand utiliser la régression logistique ou la régression linéaire. Vous pouvez utiliser la régression linéaire lorsque vous souhaitez prévoir une variable dépendante continue à partir d'une échelle de valeurs. Utilisez la régression logistique lorsque vous attendez un résultat binaire (par exemple, oui ou non).
La méthode des moindres carrés est une technique populaire utilisée dans l'ajustement des données et l'analyse de régression. C'est une approche qui vise à minimiser la somme des carrés des différences entre les valeurs observées et les valeurs ajustées.
L'algorithme de régression linéaire est un algorithme d'apprentissage supervisé c'est-à-dire qu'à partir de la variable cible ou de la variable à expliquer (Y), le modèle a pour but de faire une prédiction grâce à des variables dites explicatives (X) ou prédictives.
Le paramètre a de la droite de régression indique de combien varie en moyenne la valeur de Y lorsque celle de X augmente d'une unité. Dans notre exemple, la valeur de a est égal à -0.006 et indique que la température diminue en moyenne de 6 ° C chaque fois que l'altitude augmente de 1000 mètres.
La droite de régression fournit une idée schématique, mais souvent très utile, de la relation entre les deux variables. En particulier, elle permet facilement d'apprécier comment évolue l'une des variables (le critère9 en fonction de l'autre (le prédicteur).
Paramétrer une régression linéaire simple
Lancer la commande XLSTAT > Modélisation > Régression linéaire. Une fois le bouton cliqué, la boîte de dialogue correspondant à la régression apparaît. Sélectionner ensuite les données sur la feuille Excel.
Une régression non linéaire consiste à ajuster un modèle, en général non linéaire, y = ƒa1, …, am(x) pour un ensemble de valeurs (xi, yi)1 ≤ i ≤ n. Les variables xi et yi peuvent être des scalaires ou des vecteurs.
L'Underfitting (sous-apprentissage), sous entend que le modèle prédictif généré lors de la phase d'apprentissage, s'adapte mal au Training Set. Autrement dit, le modèle prédictif n'arrive même pas à capturer les corrélations du Training Set. Par conséquent, le coût d'erreur en phase d'apprentissage reste grand.
Pour évaluer un modèle de régression, on peut calculer la distance entre valeurs prédites et vraies valeurs.