Le premier mathématicien à avoir construit le mouvement brownien (ou plutôt le processus de Wiener) est Norbert Wiener en 1923 avec l'article Differential space dans lequel il construit une mesure sur l'espace des fonctions continues telle que ses accroissements sur des intervalles de temps disjoints suivent une loi ...
La loi binomiale fait partie des plus anciennes lois de probabilités étudiées. Elle a été introduite par Jacques Bernoulli qui y fait référence en 1713 dans son ouvrage Ars Conjectandi.
L'histoire ancienne
La notion de probabilité, dans sa forme la plus simple, remonte à l'origine des jeux de hasard. On joue aux dés depuis des milliers d'années. Les cartes à jouer étaient déjà anciennes en Asie et au Moyen Orient lorsqu'elles apparurent en Europe au 14e siècle.
Ils permettent de traduire de manière abstraite les comportements ou des quantités mesurées qui peuvent être supposés aléatoires. En fonction du nombre de valeurs possibles pour le phénomène aléatoire étudié, la théorie des probabilités est dite discrète ou continue.
La date de naissance du calcul des probabilités est connue avec précision: durant l'été 1654, deux mathématiciens déjà célèbres, Blaise Pascal (à Paris) et Pierre de Fermat (à Toulouse), correspondent au sujet de problèmes posés par le chevalier de Méré.
C'est à partir de 1930 que Andreï Kolmogorov fonde mathématiquement la théorie des probabilités.
Pierre Fermat (1601-1665) et Blaise Pascal (1623-1662) se voient généralement attribuer le titre de pères de la théorie des probabilités.
Origines. D'après Pascal lui-même dans sa lettre à Fermat du 29 juillet 1654 c'est Antoine Gombaud, chevalier de Méré, qui lui a proposé ce problème, très probablement lors de leurs rencontres chez le duc de Roannez et de leurs échanges de réflexions sur les jeux de hasard et leurs affaires.
C'est à une œuvre de Thomas Bayes (1702-1761), publiée à titre posthume, que l'on doit la première théorie sur les probabilités conditionnelles.
Si l'épreuve est répétée n fois dans les conditions du schéma de Bernoulli, c'est-à-dire que les épreuves sont identiques et indépendantes, alors la probabilité d'obtenir k succès est : La loi de probabilité de la variable aléatoire X égale au nombre de succès est appelée la loi binomiale de paramètres n et p.
La loi de Bernoulli permet de démontrer plusieurs résultats concernant les lois binomiales. Soit X une variable aléatoire qui suit une loi de Bernoulli de paramètre p. L'espérance mathématique de X est E(X)=p. La variance de X est V(X)=p(1−p).
La loi de Poisson a été introduite en 1838 par Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile.
Le théorème de Bayes est utilisé dans l'inférence statistique pour mettre à jour ou actualiser les estimations d'une probabilité ou d'un paramètre quelconque, à partir des observations et des lois de probabilité de ces observations. Il y a une version discrète et une version continue du théorème.
La formule pour calculer une probabilité conditionnelle est : P(B∣A)=P(B∩A)P(A) P ( B ∣ A ) = P ( B ∩ A ) P ( A ) où P(B∩A) P ( B ∩ A ) représente la probabilité de l'intersection des deux événements. De plus, il est nécessaire que P(A)>0 P ( A ) > 0 .
Le chevalier de Méré, qui avait une grande expérience des jeux de hasard, avait remarqué que l'évènement A est plus fréquent que B. Cependant à la suite d'un raisonnement (faux) il croyait démontrer que les deux évènements sont équiprobables, il voyait donc là un paradoxe.
Cette introduction a sûrement été motivée par le rôle grandissant joué par les statistiques dans les sciences expérimentales ou sociales ; l'idée que l'on peut extraire de l'information fiable sans avoir une information complète est une petite révolution intellectuelle qui a amplement prouvé son intérêt pratique.
Les paradoxes probabilistes sont les problèmes de la théorie des probabilités largement contre-intuitifs ou tout simplement présentant différents résultats selon l'interprétation que l'on fait de l'énoncé parmi plusieurs possibilités légitimes ou non (dans ce dernier cas, le mot paradoxe est un abus de langage).
Au langage près, on est bien en présence d'une récurrence telle que nous la pratiquons : l'initialisation par le lemme 1 (ici on commence à ), puis par le lemme 2 passage d'un terme au suivant, indéfiniment répété.
- La probabilité est une quantification de la possibilité. - Le possibilité est binaire, on ne peut prouver que l'impossibilité. - Ce qui ne présente pas de contradiction interne, est possible.
Le paradoxe vient du fait que les possibilités dénombrées par le Grand Duc ne sont pas équiprobables : une somme comme 3 + 3 + 3 a trois fois moins de chance d'être obtenue qu'une somme comme 5 + 2 + 2 , et six fois mois qu'une somme comme 4 + 3 + 2 .
− Vraisemblance, apparence de vérité; chance qu'une chose a d'être vraie. La probabilité d'une hypothèse.
Par exemple, si nous voulons atteindre une région de 15 cm² sur une cible de 100 cm², la prbabilité théorique d'obtenir la région serait de 15/100=15%. Il serait également possible de calculer la probabilité fréquentielle de cette événement en réalisant l'expérience.
avec un test positif, la probabilité que le patient ait la maladie est d'environ 4,7 %. Autrement dit, il y a 95,3 % de faux positifs : 95,3 % des tests positifs désignent des personnes saines ! Autrement dit, il y a 0,0001 % de faux négatifs. mais pratiquement tous les tests positifs désignent des personnes saines !
Elle peut être utilisée pour évaluer des éléments de preuve contradictoires en médecine, devant un tribunal et dans de nombreuses disciplines scientifiques (si ce n'est toutes).