See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Probabilité - Wikipédia

Probabilité

Un article de Wikipédia, l'encyclopédie libre.

La probabilité (du latin probare, « prouver », « tester ») est une évaluation du caractère probable d'un évènement. En mathématiques l'étude des probabilités est un sujet de grande importance donnant lieu à de nombreuses applications.

Contrairement à ce que l'on pourrait penser de prime abord l'étude scientifique des probabilités est relativement récente dans l'histoire des mathématiques. D'autres domaines tels que la géométrie, l'arithmétique, l'algèbre ou l'astronomie faisaient l'objet d'étude mathématique durant l'Antiquité mais on ne trouve pas de trace de textes mathématiques sur les probabilités. L'étude des probabilités a connu de nombreux développements au cours des trois derniers siècles en partie grâce à l'étude de l'aspect aléatoire et en partie imprévisible de certains phénomènes, en particulier les jeux de hasard. Ceux-ci ont conduit les mathématiciens à développer une théorie qui a ensuite eu des implications dans des domaines aussi variés que la météorologie, la finance ou la chimie. Cet article est une approche simplifiée des concepts et résultats d'importance en probabilité ainsi qu'un historique de l'usage du terme "probabilité" qui a eu de nombreux autres sens avant celui qu'on lui connait aujourd'hui.

Sommaire

[modifier] Histoire

A l'origine, dans les traductions d'Aristote, le mot "probabilité" ne désigne pas une quantification du caractère aléatoire d'un fait mais l'idée qu'une idée est communément admise par tous. Ce n'est que au cours du Moyen Age puis de la Renaissance autour des commentaires successifs et des imprécisions de traduction de l'œuvre d'Aristote que ce terme connaitra un glissement sémantique pour finir par désigner la vraisemblance d'une idée. Au XVIe siècle puis au XVIIe siècle c'est ce sens qui prévaut en particulier dans le probabilisme en théologie morale. Il faudra attendre le milieu du XVIIe siècle pour que ce mot prenne son sens actuel avec le début du traitement mathématique du sujet par Blaise Pascal et Pierre de Fermat. Ce n'est alors qu'au XIXe siècle qu'apparait ce qui peut être considéré comme la théorie moderne des probabilités en mathématiques.

[modifier] La notion de probabilité chez Aristote

Le premier usage du mot probabilité apparait en 1370 avec la traduction de l'éthique à Nicomaque d'Aristote par Oresme et désigne alors « le caractère de ce qui est probable »[1]. Le concept de probable chez Aristote (ενδοξον, en grec) est ainsi défini dans les Topiques[2]:

"Sont probables les opinions qui sont reçues par tous les hommes, ou par la plupart d’entre eux, ou par les sages, et parmi ces derniers, soit par tous, soit par la plupart, soit enfin par les plus notables et les plus illustres"

Ce qui rend une opinion probable chez Aristote est son caractère généralement admis [3] ce n'est qu'avec la traduction de Cicéron des Topiques d'Aristote, qui traduit soit par probabilis ou verisimilis, que la notion de vraisemblance est associée à celle de "probabilité" ce qui aura un impact au cours du Moyen-Age puis de la Renaissance avec les commentaires successifs de l'œuvre d'Aristote.[4]

[modifier] La doctrine de la probabilité au XVIe siècle et XVIIe siècle

La doctrine de la probabilité, autrement appelée probabilisme, est une théologie morale catholique qui s'est développée au cours du XVIe siècle sous l'influence entre autre de Bartolomé de Medina et des jésuites. Avec l'apparition de la doctrine de la probabilité, ce terme connaitra un glissement sémantique pour finir par désigner au milieu du XVIIe siècle le caractère vraisemblable d'une idée.

Cette théologie morale considère que "si une opinion est probable, il est permis de la suivre, quand bien même est plus probable l’opinion opposée" selon la formulation de Bartolomé de Medina en 1527. Cette théologie morale cherche alors à définir quelle action entreprendre quand il existe un doute sur la meilleure action à entreprendre. Cette théologie morale a été très critiquée à partir du milieu du XVIIe siècle[5] comme introduisant le relativisme moral en particulier par les jansénistes et par Blaise Pascal, qui sera l'un des fondateurs du traitement mathématique des probabilités[6].

La probabilité d'une opinion désigne alors au milieu du XVIIe siècle la probabilité qu'une opinion soit vraie. Ce n'est seulement qu'à partir de la fin du XVIIe siècle avec l'émergence de la probabilité mathématique que la notion de probabilité ne concernera plus seulement les opinions et idées mais aussi les faits et se rapprochera de la notion de hasard que l'on connait aujourd'hui. [2].

[modifier] La notion moderne de probabilité

L'apparition de la notion de "risque", préalable à l'étude des probabilités, n'est apparue qu'au XIIe siècle pour l'évaluation de contrats commerciaux avec le Traité des contrats de Pierre de Jean Olivi,[7] et s'est développée au XVIe siècle avec la généralisation des contrats d'assurance maritime[8]. A part quelques considérations élémentaires par Girolamo Cardano [9]au début du XVIe siècle et par Galilée au début du XVIIe siècle, le véritable début de la théorie des probabilités date de la correspondance entre Pierre de Fermat et Blaise Pascal en 1654.

Ce n'est qu'à partir du milieu du XVIIe siècle avec l'émergence du traitement mathématique du sujet qu'est apparu l'usage moderne du terme probabilité. [2]

[modifier] Les probabilités du XVIIe au XIXe siècle

Une page de la correspondance entre Pascal et Fermat, 1654
Une page de la correspondance entre Pascal et Fermat, 1654 [10]

Le véritable début de la théorie des probabilités date de la correspondance entre Pierre de Fermat et Blaise Pascal en 1654. Ceux-ci commencent à élaborer les bases du traitement mathématique des probabilités autour de l'étude de jeux de hasard proposés, entre autre, par le chevalier de Méré. (voir ci-contre une page de la correspondance entre Pascal et Fermat). Bien qu'étant considérés comme les fondateurs du traitement des probabilités ils n'ont rien publié de leur travaux et il faudra attendre Huygens pour un premier ouvrage sur le sujet.

Encouragé par Pascal, Christiaan Huygens publie De ratiociniis in ludo aleae (raisonnements sur les jeux de dés) en 1657. Cet ouvrage constitue le premier ouvrage important sur les probabilités. Il y définit la notions d'espérance et y développe plusieurs problèmes de partages de gains lors de jeux ou de tirages dans des urnes. [11] Deux ouvrages fondateurs sont également à noter: Ars Conjectandi de Jacques Bernoulli (posthume, 1713) qui définit la notion de variable aléatoire et donne la première version de la loi des grands nombres [12] et Théorie de la probabilité de Abraham de Moivre (1718) qui généralise l'usage de la combinatoire. [13]

La Théorie des erreurs, qui cherche à quantifier l'écart entre la mesure que l'on fait d'une variable et sa vraie valeur et qui est une préfiguration des théorèmes central limite, voit le jour avec Opera Miscellanea de Roger Cotes (posthume, 1722). Le premier à l'appliquer aux erreurs sur les observations est Thomas Simpson en 1755.

Pierre-Simon Laplace donne une première version du théorème central limite en 1812 qui ne s'applique alors que pour une variable à deux états, par exemple pile ou face mais pas un dé a 6 faces.

Sous l'impulsion de Quételet, qui ouvre en 1841 le premier bureau statistique le Conseil Supérieur de Statistique [14], les statistiques se développent et deviennent un domaine à part entière des mathématiques qui s'appuie sur les probabilités mais n'en font plus partie.

[modifier] Naissance de la théorie moderne des probabilités

La théorie de la probabilité moderne ne prend réellement son essor qu'avec la notion de mesure et d'ensembles mesurables qu'Emile Borel introduit en 1897. Cette notion de mesure est complétée par Henri Léon Lebesgue et sa théorie de l'intégration[15]. La première version moderne du théorème de la limite centrale est donné par Alexandre Liapounov en 1901[16] et la première preuve du théorème moderne donné par Paul Lévy en 1910. En 1902 Andrei Markov introduit les chaînes de Markov[17] pour entreprendre une généralisation de la loi des grands nombres pour une suite d'expériences dépendant les unes des autres. Ces chaînes de Markov connaitront de nombreuses applications entre autres pour modéliser la diffusion ou pour l'indexation de sites internet sur google.

Il faudra attendre 1933 pour que la théorie des probabilités sorte d'un ensemble de méthodes et d'exemples divers et devienne une véritable théorie, axiomatisée par Kolmogorov[18].

Kiyoshi Itô met en place une théorie et un lemme qui porte son nom dans les années 1940[19]. Ceux-ci permettent de relier le calcul stochastique et les équations aux dérivées partielles faisant ainsi le lien entre analyse et probabilités. Le mathématicien Wolfgang Doeblin avait de son côté ébauché une théorie similaire avant de se suicider à la défaite de son bataillon en juin 1940. Ses travaux furent envoyés dans un pli cacheté à l'Académie des sciences qui ne fut ouvert qu'en 2000[20].

[modifier] Applications

Les jeux de hasard sont l'application la plus naturelle des probabilités mais de nombreux autres domaines s'appuient ou se servent des probabilités. Citons entre autre:

[modifier] Principes fondamentaux

La probabilité d'un certain évènement A, \textstyle\mathbb{P}(A), est représenté par un nombre compris entre 0 et 1. Un évènement en probabilité peut être à peu près n'importe quoi pouvant se produire ou non. L'évènement A peut par exemple être le fait qu'il fasse beau demain, le fait d'obtenir un 6 avec un dé, voire même le fait que le théorème de Pythagore soit vrai. Le seul impératif que l'on se fixe c'est de pouvoir vérifier si cet évènement se vérifie ou pas. On peut par exemple vérifier s'il fera beau demain, si on obtient un 6 ou si le théorème de Pythagore est vrai.

Un évènement impossible a une probabilité de 0 et un évènement certain a une probabilité de 1. Il faut savoir que le contraire n'est pas forcément vrai. Un évènement qui a une probabilité 0 peut très bien se produire dans le cas où un nombre infini d'évènements différents peut se produire. Ceci est détaillé dans l'article Ensemble négligeable et un exemple d'évènement de probabilité 0 et pouvant se produire est (rapidement) esquissé dans la partie loi des grands nombres. De même un évènement de probabilité 1 peut "exceptionnellement" ne pas se produire.

[modifier] La notion d'indépendance

Icône de détail Article détaillé : Indépendance (probabilités).

On dit que deux évènements sont indépendants lorsque le fait de connaitre le résultat du premier évènement ne nous aide pas pour prévoir le second et inversement. C'est le cas lorsque la réalisation d'un évènement n'influence pas la probabilité que l'autre se réalise.

Par exemple lorsque l'on lance deux dés à la suite le résultat obtenu au premier dé ne va pas influencer le deuxième dé. Le fait de connaître le résultat du premier dé ne nous aide en rien pour prévoir le résultat du deuxième. On a toujours une chance sur 6 d'obtenir un 6 au deuxième jet de dé quelque soit le résultat du premier dé. Ce n'est pas parce que l'on a obtenu un 6 au premier jet de dé que cela change la probabilité d'obtenir un 6 au deuxième. Souvent si on mène deux expériences séparément (par exemple lancer un dé) le résultat de la première expérience n'influe pas sur la deuxième et on a alors une indépendance des résultats de la première expérience par rapport à la deuxième.

Cette notion d'indépendance intervient dans de nombreux théorèmes par exemple dans la loi des grands nombres et le théorème central limite exposés plus bas. En terme mathématique, deux évènements A et B sont indépendants si et seulement s'ils vérifient

\mathbb{P}(A \cap B) = \mathbb{P}(A) \cdot \mathbb{P}(B)

\mathbb{P}(A\cap B) est la probabilité d'avoir à la fois A et B. On pourrait montrer grâce aux probabilités conditionnelles que cette définition recoupe bien l'idée que l'on se fait de l'indépendance.

On peut par exemple vérifier que la probabilité d'obtenir un 6 à un premier jet de dé est indépendante de celle d'obtenir un 6 à un deuxième lancer avec cette définition . La probabilité d'obtenir un 6 au premier dé vaut 1/6 (A), celle d'obtenir un 6 au deuxième dé vaut 1/6 (B). On peut grâce aux combinatoires montrer que la probabilité d'obtenir un double 6 vaut 1/36. On a alors:

\mathbb{P}(A \cap B) =\frac{1}{36}= \mathbb{P}(A) \cdot \mathbb{P}(B)

Le fait d'obtenir un 6 au premier dé est donc bien indépendante du fait d'obtenir un 6 au deuxième dé.

[modifier] Variable aléatoire

Icône de détail Article détaillé : Variable aléatoire.

Une notion importante en probabilité est celle de variable aléatoire.

Les variables aléatoires furent introduites à l'origine pour représenter un gain. Par exemple effectuons l'expérience suivante, lançons une pièce de monnaie et suivant que le résultat est pile nous gagnons dix euros, ou face nous perdons un euro. On considère alors X, la variable aléatoire qui prend la valeur 10 lorsque nous obtenons pile et la valeur -1 lorsque nous obtenons face. X représente le gain à l'issue d'un lancer de la pièce.

De façon plus générale une variable aléatoire est une certaine fonction, qui dépend du résultat d'une expérience aléatoire par exemple dans ce cas le résultat du pile ou face. Cette fonction associe une certaine valeur au résultat d'une expérience. Dans notre exemple plus haut la variable aléatoire associe 10 à "pile" et -1 à "face". Cela permet d'associer des nombres à des résultats d'expériences qui ne sont pas numériques.

Le terme de variable aléatoire peut parfois être trompeur, en effet, ce n'est pas la valeur qu'elle prend une fois que l'on connait le résultat de l'expérience qui est aléatoire, mais la valeur qu'elle va prendre avant d'avoir effectué l'expérience. Une fois que l'on connait le résultat du pile ou face on connait la valeur de X, notre gain, avec certitude et celle ci ne dépend pas du hasard. Par contre, avant de jeter la pièce on ne sait pas quelle valeur va prendre X car on ne sait pas encore si l'on va obtenir pile ou face.

On ne considèrera ici que des variables aléatoires qui sont des nombres réels. De façon encore plus générale une variable aléatoire peut soit être un vecteur avec des coordonnées réelles soit un nombre réel. Il faut alors définir la loi jointe ainsi qu'une mesure sur un espace à plusieurs dimensions ce qui entraine des complications supplémentaires. Néanmoins pour des cas concrets on peut souvent se contenter de considérer plusieurs variables aléatoires qui dépendent de la même expérience. La restriction au cas de variables réelles n'est donc pas forcément aussi réducteur que l'on pourrait le penser.

[modifier] Fonction de répartition et densité

Icône de détail Article détaillé : Densité de probabilité.
Fonction de répartition de la loi normale centrée réduite
Fonction de répartition de la loi normale centrée réduite

En probabilité, la fonction de répartition d'une variable aléatoire X est la fonction \ F_X qui à tout réel x associe la probabilité que la variable X soit plus petite que x :


 F_X(x) = \mathbb{P}[X\leq x].

C'est une fonction strictement croissante, allant de 0 à 1.

Pour les variables continues on définit alors la densité de probabilité ou loi d'une variable par la fonction fqui est la dérivée de F par rapport à x :

f_X(x) = \frac{d \mathbb{P}[X\leq x]}{d x}.

La connaissance de la fonction de densité permet notamment, en intégrant, de calculer la probabilité que X soit, par exemple, compris entre a et b.

[modifier] L'espérance

Icône de détail Article détaillé : Espérance mathématique.

L'espérance est un nombre qui se confond souvent avec la moyenne d'une variable, voir à ce sujet la loi des grands nombres ou le prochain paragraphe. On la définit par:

\mathbb{E}(X) = \sum_{i=1}^{k}p_i\, x_i pour une variable avec un nombre fini de réalisations possibles.
Par exemple, pour un dé à 6 faces, chaque face à une probabilité 1/6 d'apparaitre et l'espérance vaut alors \textstyle\frac{1+2+3+4+5+6}{6}=3,5.
\mathbb{E}(X) = \int_{\mathbb{R}} x\, f(x)\, dx pour une variable continue de densité f.

[modifier] Deux théorèmes de base des probabilités

Deux théorèmes mathématiques ont une place particulière en probabilité. Ces deux théorèmes sont la loi des grands nombres et le théorème central limite et sont présentés ici succinctement pour en faire comprendre l'intérêt et l'usage.

[modifier] Loi des grands nombres

Icône de détail Article détaillé : Loi des grands nombres.

On ne présente ici que la loi forte des grands nombres mais il faut savoir que d'autre versions de lois des grands nombres existent.

Pour des variables aléatoires indépendantes, de même loi Xi et dont l'espérance existe:

\frac{X_1+X_2+...+X_n}{n} \rightarrow_{n\rightarrow\infty} \mathbb{E}(X)

Concrètement cette loi nous dit que la moyenne empirique d'une variable tend vers son espérance. Par exemple, pour un dé à 6 faces que l'on jetterait plusieurs fois de suite, la moyenne des lancers tend vers l'espérance 3,5.

Tendre vers est pris au sens presque sûrement, comme bien souvent en probabilité, c'est à dire que la probabilité que cela arrive est égale à 1. Comme esquissé dans les principes fondamentaux il peut très bien se faire que "exceptionnellement" cette moyenne ne tende pas vers l'espérance. On pourrait très bien, par exemple, ne tirer que des 1 lors des lancers de dés et que la moyenne soit alors 1 mais cela n'arrive "jamais". En général, si on lance des dés suffisamment de fois on tombera autant de fois sur chacune des 6 faces. Ce théorème formalise cette remarque de bon sens.

[modifier] Théorème central limite

Icône de détail Article détaillé : théorème de la limite centrale.
loi normale

Ce théorème central limite est utile pour savoir comment une somme entre une réalisation d'une variable et la valeur moyenne se comporte. La loi des grands nombres montre que la moyenne des réalisations tend vers l'espérance. Quant au théorème central limite, il montre de quelle façon cette moyenne tend vers l'espérance. Une façon simple, mais pas très rigoureuse, d'écrire ce théorème permet de mieux comprendre son utilité:

\frac{\sum_{k=0}^{k=n}(X_k-\mathbb{E}(X))}{n}\rightarrow_{n\rightarrow\infty}N\left(0,\frac{\sigma}{\sqrt{n}}\right)

\textstyle N\left(0,\frac{\sigma}{\sqrt{n}}\right) est la loi normale de variance \textstyle\frac{\sigma}{\sqrt{n}}, autrement appelée gaussienne et représentée ci-contre. Ce théorème a une très grande utilité en physique par exemple. Il peut se comprendre par « La moyenne des erreurs observées tend vers une loi normale. » La somme d'un grand nombre d'erreurs sur des observations par exemple est presque gaussienne. Elle serait gaussienne si on sommait une infinité d'erreurs mais en pratique cela n'est pas souvent le cas. La loi gaussienne fournit alors une approximation pour la loi de l'erreur souvent plus facilement utilisable que la loi exacte qui n'est pas tout le temps connue. De plus bon nombre de phénomènes naturels sont dus à la superposition de causes nombreuses, plus ou moins indépendantes qui se somment entre elles. Il en résulte que la loi normale les représente de manière raisonnablement efficace.

Pour être plus correct, il faudrait écrire le théorème central limite de la façon suivante:

\frac{1}{\sigma\sqrt{n}}\sum_{k=0}^{k=n}(X_k-\mathbb{E}(X))\rightarrow_{n\rightarrow\infty}N(0,1)

où la limite est prise au sens de tendre en loi, c'est à dire que la distribution de terme de gauche tend vers la distribution d'une gaussienne.

Il faut également savoir qu'il existe de nombreuses généralisations de ce théorème, entre autre pour des variables qui ne seraient pas identiquement distribuées (conditions de Liapounov ou conditions de Lindeberg [21]) ou pour des variables de variance infinie (due à Gnedenko et Kolmogorov[22])

[modifier] Le calcul des probabilités

Il existe deux façons de calculer les probabilités en mathématiques: le calcul a priori et le calcul a posteriori.

La première méthode, aussi appelée probabilité mathématique, part d'un calcul mathématique pour obtenir les probabilités. C'est le cas en particulier de la combinatoire, mais également des caractérisations de la loi exponentielle ou de la modélisation par une loi normale grâce à l'usage du théorème central limite. Ces méthodes ont en commun le fait qu'aucune expérience ne soit nécessaire pour déterminer les probabilités qui sont déterminées a priori.

La deuxième méthode est le calcul a posteriori, autrement appelé probabilité statistique, ces méthodes partent des résultats d'expériences pour déduire les probabilités. C'est le cas par exemple pour l'utilisation de la fréquence comme estimateur de la probabilité, du maximum de vraisemblance ou de l'Inférence bayésienne. Ces méthodes ont en commun le fait qu'une expérience soit nécessaire pour déterminer les probabilités qui sont déterminées a posteriori.

Nous présentons ici les principales méthodes permettant le calcul des probabilités.

[modifier] L'usage de la combinatoire en probabilité

Icône de détail Article détaillé : Combinatoire.

Certain problèmes de calcul de probabilité peuvent se ramener à un calcul de dénombrement, en particulier ceux pour lesquels il y a un nombre fini d'issues possibles à l'expérience et où la probabilité de chaque issue est la même. Cette méthode consiste à compter (dénombrer) le nombre total de cas possibles et le nombre de cas favorables à la réalisation d'un évènement.

Cette méthode permet par exemple de calculer la probabilité d'obtenir un 6 avec un dé équitable ou la probabilité d'obtenir un nombre pair, elle ne permet pas de calculer les probabilités avec un dé biaisé par exemple car alors la probabilité d'obtenir chaque face n'est plus la même. Cette méthode ne permet pas non plus de calculer la probabilité lorsqu'il y à un nombre infini de résultats possibles à l'expérience.

[modifier] Estimateurs statistiques

Icône de détail Article détaillé : Estimateur (statistique).

Les estimateurs statistiques sont des valeurs calculées à partir d'un échantillon de la population totale ou d'un certain nombre de résultats de l'expérience aléatoires. Ces estimateurs sont souvent construits sur le principe du maximum de vraisemblance qui permet de construire tout une série d'estimateurs.

Parmi ceux ci l'estimation par la fréquence d'apparition permet de déterminer la probabilité d'un évènement lorsqu'il y a un nombre fini d'évènements possibles et que l'on peut reproduire un grand nombre de fois et de façon indépendante l'expérience. Cet estimation peut, par exemple, servir pour obtenir la probabilité d'obtenir face ou un 6 avec un dé qu'il soit biaisé ou non. Il consiste à estimer la probabilité d'un évènement par sa fréquence d'apparition quand on répète un très grand nombre de fois l'expérience:

Par exemple si nous effectuons N lancers d'une pièce et que NF représente le nombre de fois où la pièce tombe sur face, à mesure que N devient de plus en plus grand, nous nous attendons à ce que le rapport NF/N devienne de plus en plus proche de 1/2. Cela nous suggère de définir la probabilité P(F) d'obtenir face comme étant la limite, quand N tend vers l'infini, de la suite des proportions :

\lim_{N \to \infty}\frac{N_F}{N}=\mathbb{P}(F)

Cet estimateur pour la probabilité d'un évènement est, entre autre, un cas particulier de la loi des grands nombres en prenant par exemple la variable aléatoire X qui vaut 1 quand on obtient face et 0 sinon. Cette variable s'appelle la fonction caractéristique de F.

Des généralisations pour des variables continues existent par exemple la distribution empirique ou les estimateurs à noyaux. Ces estimateurs statistiques ont tous pour principal défaut le fait qu'il faut pouvoir répéter un grand nombre de fois l'expérience aléatoire ce qu'il n'est pas toujours possible de faire. Par exemple dans la pratique, nous ne pouvons pas lancer une pièce une infinité de fois.

[modifier] Révision Bayésienne

Icône de détail Article détaillé : inférence bayésienne.

La révision bayésienne est une autre méthode pour le calcul des probabilités. Elle est utilisée entre autre en théorie des jeux ou en intelligence artificielle pour créer des processus d'apprentissages. Elle se base sur la révision au fur et à mesure des expériences d'une croyance initiale (autrement appelée "probabilité à priori" quand cela n'entraine pas de confusion avec les probabilités à priori décrites dans l'introduction de cette section). Le choix de cette croyance initiale peut être particulièrement délicat et est l'une des difficultés majeures de cette méthode.[23] Nous présentons ici juste le mécanisme qui permet de réviser cette croyance initiale. Celle-ci se fait grâce au théorème de Bayes:

\mathbb{P}(\mathrm{Hypothese|Preuve}) = \frac{\mathbb{P}(\mathrm{Preuve|Hypothese})\mathbb{P}(\mathrm{Hypothese})}{\mathbb{P}(\mathrm{Preuve})}.

Dans cette version la croyance initiale est P(hypothèse). C'est la probabilité qu'une certaine hypothèse se vérifie. Cette croyance initiale est alors révisée grâce à une preuve que l'on peut observer. On en déduit une nouvelle probabilité que l'hypothèse initiale soit vérifiée en tenant compte de la preuve que l'on a observée. Ce processus s'appelle la "révision des croyances".

Notons ici que les termes Preuve et Hypothèse ont été choisis pour exprimer le lien qui devrai exister entre les deux évènements et ainsi que le caractère asymétrique de ces deux évènements. On aurai très bien pu prendre deux évènements A et B par exemple. Dans la pratique il faut que l'évènement "preuve" s'il se réalise rende plus probable (ou moins probable) la réalisation de l'évènement "hypothèse" pour que cette méthode aboutisse. Ces deux évènements ne doivent pas par exemple être indépendants.

Par exemple:

  1. On se demande quel temps il fera demain. On regarde pour cela la météo. On connaît la probabilité que la météo a d'annoncer qu'il fera beau sachant qu'il fera effectivement beau: p(M|Beau)=0.9 et la probabilité que la météo annonce qu'il fait beau sachant qu'il pleuvra: P(M|Pleut)=0.2. Ces probabilités ont par exemple été estimées par d'autres méthodes sur l'année écoulée. L'évènement M dénote ici le fait que la météo annonce du beau temps.
  2. On part d'une croyance à priori sur le fait qu'il fera beau ou pas demain. Par exemple: P(Beau)=1/2 on croit à priori qu'il y a une chance sur deux qu'il fera beau demain. Ici notre hypothèse est le fait qu'il fera beau demain.
  3. On estime P(M) la probabilité que la météo annonce qu'il fasse beau grâce à notre croyance initiale: P(M)=p(M|Beau)P(Beau)+p(M|pleut)P(pleut)=0.9*1/2+0.2*1/2=0.55 la météo annonce qu'il fait beau dans 55% des cas. La probabilité qu'il fera beau demain est alors donnée par:

p(\mathrm{Beau|M})=\frac{p(\mathrm{M|Beau})p(\mathrm{Beau})}{P(\mathrm{M})}=0.9*0.5/0.55.\approx 82%

On pourrait alors, par exemple, réviser une deuxième fois l'hypothèse qu'il fera beau en regardant un deuxième bulletin météo d'une source différente. On prendrait alors comme croyance initiale la probabilité qu'il fasse beau que l'on vient de calculer.

Cette méthode permet de réviser la croyance que l'on a dans le fait qu'un évènement futur va se passer. Cette méthode n'est employable que lorsque l'on a la possibilité d'estimer les probabilités conditionnelles p(M|Beau) p(M|pleut)

\mathbb{P}(\mathrm{Preuve|Hypothese}) dans la formule donnée plus haut ainsi que \mathbb{P}(\mathrm{Preuve|non Hypothese}) pour calculer \mathbb{P}(\mathrm{Preuve}) Cette méthode peut être utile car il est souvent plus simple de calculer les probabilité des observables conditionnées aux paramètres que de faire le contraire.

[modifier] Interprétation des probabilités

Il existe deux façons de considérer les probabilités. La première historiquement a consisté à effectuer des calculs combinatoires dans le cas de jeux de hasard (Pascal, Bernoulli, Pólya…) cette approche peut se qualifier d'objective. La seconde, qui a commencé à se répandre vers 1974, est fondée sur le Théorème de Cox-Jaynes, qui démontre sous des hypothèses raisonnables que tout mécanisme d'apprentissage est soit isomorphe à la théorie des probabilités, soit inconsistant. Dans cette seconde approche, la probabilité est considérée comme la traduction numérique d'un état de connaissance et donc une valeur subjective (mais néanmoins obtenue par un processus rationnel); la subjectivité s'explique par le fait que le contexte d'interprétation d'un évènement diffère chez chacun. C'est l'école bayésienne.[24]

L'idée de probabilité est le plus souvent séparée en deux concepts:

  1. la probabilité de l'aléatoire, qui représente la probabilité d'évènements futurs dont la réalisation dépend de quelques phénomènes physiques aléatoires, comme obtenir un as en lançant un dé ou obtenir un certain nombre en tournant une roue;
  2. la probabilité de l'épistémé, qui représente l'incertitude que nous avons devant des affirmations, lorsque nous ne disposons pas de la connaissance complète des circonstances et des causalités. De telles propositions peuvent avoir été vérifiées sur des évènements passés ou seront peut-être vraies dans le futur. Quelques exemples de probabilités de l'épistémé sont. Par exemple assigner une probabilité à l'affirmation qu'une loi proposée de la physique est vraie, ou déterminer comment il est «probable» qu'un suspect ait commis un crime, en se basant sur les preuves présentées.

Une probabilité est-elle réductible à notre incapacité à prédire précisément quelles sont les forces qui pourraient affecter un phénomène, ou fait-elle partie de la nature de la réalité elle-même ainsi que le suggère la mécanique quantique? La question reste à ce jour ouverte (voir aussi Principe d'incertitude).

Bien que les mêmes règles mathématiques s'appliquent indépendamment de l'interprétation choisie, le choix a des implications philosophiques importantes : parlons-nous jamais du monde réel (et a-t-on le droit d'en parler ?) ou bien simplement des représentations que nous en avons? Ne pouvant par définition différencier le monde réel de ce que nous connaissons, il est bien entendu impossible de trancher de notre point de vue: la question est pour nous, par nature, subjective (voir aussi libre arbitre).

Des descriptions mathématiques rigoureuses de ce type de problèmes ne virent le jour que récemment, en particulier depuis

Pour donner un sens mathématique possible, et par ailleurs réducteur, à une probabilité, considérez une pièce de monnaie que vous lancez. Intuitivement, nous considérons la probabilité d'obtenir face à n'importe quel lancer de la pièce égale à 1/2; mais que signifie opérationnellement cette phrase ? Si nous lançons la pièce 9 fois de suite, la pièce ne pourra évidemment pas tomber «quatre fois et demie» de chaque côté; il est même possible d'obtenir 6 face et 3 pile, voire 9 face de suite. Que signifie dans ce cas le rapport 1/2 dans ce contexte et que pouvons-nous exactement en faire?

[modifier] Le calcul stochastique

Icône de détail Article détaillé : calcul stochastique.

Un processus stochastique, est un processus aléatoire qui dépend du temps. Un processus stochastique est donc une fonction de deux variables: le temps et la réalisation ω d'une certaine expérience aléatoire.

Un exemple de processus stochastique: la marche aléatoire. Ici on a représenté trois marches aléatoires indépendantes
Un exemple de processus stochastique: la marche aléatoire. Ici on a représenté trois marches aléatoires indépendantes

Parmi les processus stochastiques les chaînes de Markov constituent sans doute celui avec le plus d'applications pratiques. Ce sont des processus pour lesquels la prédiction du futur à partir du présent ne nécessite pas la connaissance du passé. Ces chaînes de Markov permettent de modéliser des phénomènes pour lesquels il suffit de connaître l'état présent pour pouvoir prévoir ce qui va se passer.

Ceci s'oppose, par exemple, à la notion d'hystérésis en physique où l'état actuel dépend de l'histoire et non seulement de l'état actuel. Les chaînes de Markov sont, entre autre, liées au mouvement brownien et à l'hypothèse ergodique, deux sujets de physique statistique qui ont été très importants au début du XXe siècle. Ils ont depuis connu d'autres utilisations pour étudier, par exemple, les fluctuations du marché boursier, ou pour la reconnaissance vocale. En temps discret, les processus stochastiques sont aussi connus sous le nom de Séries temporelles et servent entre autre en économétrie où ils ont une importance particulière.

[modifier] Voir aussi

[modifier] Références

  1. voir l'entrée probabilitédu dictionnaire TLFI
  2. abc [1] 'De la doctrine de la probabilité à la théorie des probabilités' thèse de philosophie de Anne-Sophie Godfroy-Genin sur
  3. [2] étude philosophique sur Aristote
  4. [3] analyse du sens de "probabilité" au XVIe siècle dans les commentaires des Topiques
  5. [4] Catholic encyclopeida, 1911, article sur le probabilisme.
  6. [5] un site sur la pensée de Pascal
  7. http://www.jehps.net/Juin2007/Piron_incertitude.pdf, Journ@l Electronique d’Histoire des Probabilités et de la Statistique
  8. http://www.jehps.net/Juin2007/Ceccarelli_Risk.pdf, Journ@l Electronique d’Histoire des Probabilités et de la Statistique
  9. http://www.cict.fr/~stpierre/histoire/node1.html site sur l'histoire des probabilités
  10. copie de la lettre
  11. Les probabilités : Approche historique et définition.
  12. http://www.cict.fr/~stpierre/histoire/node3.html, une histoire de la probabilité jusqu'à Laplace
  13. Ian Hacking L'emergence des probabilitées
  14. http://statbel.fgov.be/info/quetelet_fr.asp, une biographie de quételet
  15. http://www.cict.fr/~stpierre/histoire/node4.html histoire des probabilités de Borel à la seconde guerre mondiale
  16. Entre De Moivre et Laplace
  17. DicoMaths : Chaine de Markov
  18. [6]un article sur la mise en place de l'axiomatisation des probabilités.
  19. Biographie d'Itô sur le site de Mac Tutor
  20. Bernard Bru et Marc Yor (éd.), « Sur l'équation de Kolmogoroff, par W Doeblin », C. R. Acad. Sci. Paris, Série I 331 (2000). sur la vie de doeblin, voir Bernard Bru, « La vie et l'œuvre de W. Doeblin (1915-1940) d'après les archives parisiennes », Math. Inform. Sci. Humaines 119 (1992), 5-51 et, en anglais, Biographie de Doeblin sur le site de Mac Tutor
  21. versions du théorème central limite
  22. Gnedenko-Kolmogorov, Limit distributions for sums of independant random variables. Nouvelle édition. Addison Wesley, 1968
  23. [7] une publication de l'Insee sur l'analyse statistique bayésienne
  24. [8] pour plus de détails sur l'objectivité et la subjectivité en probabilité

[modifier] Liens internes

[modifier] Liens externes


Domaines des mathématiques
AlgèbreAlgèbre commutativeAlgèbre homologiqueAlgèbre linéaireAnalyseAnalyse réelleAnalyse complexeAnalyse fonctionnelleAnalyse numériqueCalcul quantiqueCombinatoireGéométrieGéométrie algébriqueGéométrie différentielle • Géométrique métrique • Géométrie non commutativePhysique mathématiqueProbabilitésStatistiquesSystèmes dynamiquesThéorie des nombresThéorie de GaloisThéorie des groupesTopologieTopologie algébrique


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -