Elle a été introduite au XVIIIe siècle pour répondre au problème : quelle la probabilité que le Soleil se lève demain ?
Outre son utilisation en probabilité, ce théorème est fondamental pour l'inférence bayésienne qui s'est montrée très utile en intelligence artificielle. Il est également utilisé dans plusieurs autres domaines : en médecine, en sciences numériques, en géographie, en démographie, etc.
En pratique, on utilise le théorème de Bayes en médecine pour estimer le risque qu'un individu soit malade sachant que son test est positif.
Les probabilités conditionnelles. On appelle probabilité conditionnelle la probabilité qu'un événement soit réalisé sachant qu'un autre a déjà ou non été réalisé. Les événements situés au moins en deuxième rang dans un arbre probabiliste dépendent de la réalisation, ou non, des événements du rang précédent.
avec A = “la première boule est rouge” ; B = “la deuxième boule est noire” ; A ∩ B = “la première est rouge et la deuxième est noire” ; B | A = “la deuxième est noire sachant que la première est rouge”. On retiendra que, dans un arbre, les branches portent des probabilités conditionnelles.
Pour calculer la probabilité d'un événement, vous pouvez simplement utiliser la formule générale de probabilité : P = n/N. Vous devez donc connaître le nombre d'issues favorables et le nombre total d'issues possibles.
On utilise la formule des probabilités totales pour calculer une probabilité p\left(F\right) lorsque la réalisation de F dépend de la réalisation d'autres événements. Une usine fabrique 80% de composés A et 20% de composés B. Un centième des composés A et 5% des composés B sont défectueux.
C'est à une œuvre de Thomas Bayes (1702-1761), publiée à titre posthume, que l'on doit la première théorie sur les probabilités conditionnelles.
En mathématiques, les probabilités servent à prédire le hasard lors d'une épreuve. Mais on peut aussi utiliser les probabilités sur deux épreuves aléatoires.
Plusieurs approches sont utilisées pour estimer ces mesures de risque. Elles peuvent être regroupées en trois principales catégories : les méthodes paramétriques, les méthodes non paramétriques et les méthodes semi-paramétriques (cf. Engle et Manganelli [1999]).
En se basant sur l'exemple de classification des fruits, on remarque plusieurs avantages pour cet algorithme : le Naive Bayes Classifier est très rapide pour la classification : en effet les calculs de probabilités ne sont pas très coûteux. La classification est possible même avec un petit jeu de données.
Pour cela, les mathématiques sont des outils en soutien de la médecine. Elles permettent d'anticiper l'évolution de la maladie et de la modéliser grâce à l'informatique, ce qui permet de réagir, et d'optimiser la façon d'administrer mes médicaments.
Par exemple, il permet : de calculer la longueur de l'hypoténuse à partir des longueurs des deux autres côtés, de vérifier la présence d'un angle droit dans un triangle, à un GPS de calculer la distance qui sépare une voiture ou un téléphone de la ville de Limoges, par exemple, etc.
La loi normale est la loi statistique la plus répandue et la plus utile. Elle représente beaucoup de phénomènes aléatoires. De plus, de nombreuses autres lois statistiques peuvent être approchées par la loi normale, tout spécialement dans le cas des grands échantillons.
La précision du test est la probabilité qu'une personne soit testée positivement si elle est malade, et également la probabilité qu'une personne soit testée négativement si elle est en bonne santé. Ces probabilités conditionnelles correspondent à la précision du test : P(positif | malade) = précision.
Définition : Soit une variable aléatoire X définie sur E et prenant les valeurs x1,x2,..., xn. La loi de probabilité de X associe à toute valeur xi la probabilité pi = P(X = xi).
Le problème des partis
C'est un second problème du chevalier de Méré qui est véritablement à l'origine du calcul des probabilités. Il est connu sous le nom de "problème des partis" et fut pour la première fois exposé par écrit en 1509 par Lucas Pacioli.
La notion de probabilité, dans sa forme la plus simple, remonte à l'origine des jeux de hasard. On joue aux dés depuis des milliers d'années. Les cartes à jouer étaient déjà anciennes en Asie et au Moyen Orient lorsqu'elles apparurent en Europe au 14e siècle.
La loi binomiale fait partie des plus anciennes lois de probabilités étudiées. Elle a été introduite par Jacques Bernoulli qui y fait référence en 1713 dans son ouvrage Ars Conjectandi.
C'est à partir de 1930 que Andreï Kolmogorov fonde mathématiquement la théorie des probabilités.
Karl Pearson explique en 1893 le choix du terme « normal » pour la loi et la courbe par la facilité de ne pas fixer de paternité. Puisque la première apparition de la loi normale s'est faite par l'observation de la courbe de sa densité de probabilité, le nom de la courbe sert parfois à définir la loi.
= P(A) + P(B) – P(A – B) C'est-à-dire que la probabilité que l'un ou l'autre des deux événements se produise est égale à la probabilité que le premier événement se produise, plus la probabilité que le second se produise, moins la probabilité que les deux se produisent.
La probabilité d'un événement est égale à la somme des probabilités des chemins conduisant à cet événement.